As últimas semanas foram caóticos para a OpenAI, criadora do ChatGPT, e seu cofundador, Sam Altman. Altman, que ajudou a fundar a OpenAI como um laboratório de pesquisa sem fins lucrativos em 2015, foi destituído do cargo de CEO foi demitido em 17 de novembro, em uma saída repentina e sem maiores explicações que surpreendeu o setor. E embora ele tenha logo sido reintegrado à função, poucos dias depois, muitas questões permanecem no ar. Se você está chegando agora à saga da OpenAI e tentando entender o que está em jogo para todo o espaço da inteligência artificial, você veio ao lugar certo. Aqui está um resumo do que é preciso saber.
Altman é cofundador da OpenAI, uma empresa com sede em São Francisco que está por trás do ChatGTP (ele mesmo, o chatbot que parece estar por toda parte atualmente, das escolas às instituições de saúde). A explosão do ChatGPT desde sua chegada, um ano atrás, colocou Altman no centro das atenções da rápida comercialização da inteligência artificial (IA) generativa - que pode produzir novas imagens, textos e outros tipos de mídia. E ao se tornar a voz mais procurada do Vale do Silício para falar sobre as promessas e os potenciais riscos dessa tecnologia, ele ajudou a transformar a OpenAI em uma startup de renome mundial. Mas seu cargo na empresa enfrentou reviravoltas difíceis no turbilhão das últimas semanas. Altman foi demitido como CEO na sexta-feira, 17 e, dias depois, estava de volta ao posto com um novo conselho administrativo. Nesse período, a Microsoft, que investiu bilhões de dólares na OpenAI e tem direitos sobre a tecnologia já existente, ajudou a impulsionar o retorno de Altman e o contratou rapidamente, e também a outro cofundador e ex-presidente da OpenAI, Greg Brockman, que se demitiu em protesto após a destituição do CEO. Enquanto isso, centenas de funcionários da OpenAI ameaçaram se demitir. Altman e Brockman comemoraram sua volta à empresa com publicações na X, a plataforma anteriormente conhecida como Twitter, na manhã de quarta-feira, 29.
Por que sua destituição - e seu retorno - importam?Ainda há muito que não se sabe sobre a remoção inicial de Altman. O anúncio da sexta-feira, 17, dizia que ele "não era consistentemente sincero em sua comunicação" com o então conselho administrativo, que, porém, se recusou a oferecer detalhes mais específicos. A despeito disso, a notícia repercutiu em todo o mundo da IA - e, como a OpenAI e Altman são atores tão relevantes nesse espaço, isso poderia criar questões de confiabilidade em relação a uma tecnologia em crescimento que ainda desperta dúvidas em tantas pessoas. "O episódio da OpenAI mostra como o ecossistema da IA ainda é frágil, inclusive em relação aos riscos da IA", diz Johann Laux, especialista do Instituto de Internet de Oxford com foco na supervisão humana sobre a inteligência artificial. A turbulência também acentuou as diferenças entre Altman e integrantes do antigo conselho administrativo da empresa, que manifestaram opiniões diversas sobre os riscos de segurança trazidos pela IA à medida que a tecnologia avança. Muitos especialistas consideram que todo esse drama só reforça como as decisões sobre a regulação da IA deveriam estar sendo tomadas pelos governos, e não pelas grandes empresas de tecnologia, principalmente em relação a tecnologias de desenvolvimento rápido como a IA generativa. "Os eventos dos últimos dias não apenas comprometeram a tentativa da OpenAI de introduzir uma governança corporativa mais ética na gestão da empresa, mas também mostram que governança corporativa por si só, mesmo que bem-intencionada, pode facilmente acabar sendo canibalizada por outras dinâmicas e interesses corporativos", diz Enza Iannopollo, analista principal na consultoria Forrester. A lição, segundo ele, é que as empresas sozinhas não têm condições de oferecer o nível de segurança e confiabilidade da IA de que a sociedade precisa. "Regras e salvaguardas, pensadas com as empresas e aplicadas com rigor pelos órgãos reguladores, são essenciais se quisermos nos beneficiar da IA", diz Iannopollo.
Ao contrário da IA tradicional, que processa dados e completa tarefas usando regras pré-determinadas, a IA generativa (incluindo chatbots como o ChatGPT) pode criar coisas novas. As empresas de tecnologia ainda estão no comando no que diz respeito ao controle da IA e de seus riscos, enquanto os governos de todo o mundo tentam se atualizar. Na União Europeia, os negociadores estão dando os últimos retoques nas normas que devem compor a primeira regulação abrangente sobre IA no mundo. Mas eles teriam se atrapalhado na discussão sobre a possibilidade e a forma de incluir os produtos de IA mais controversos e revolucionários, os grandes modelos de linguagem comercializados que sustentam os sistemas de IA generativa, inclusive o ChatGPT. Os chatbots mal eram mencionados quando Bruxelas apresentou pela primeira vez o projeto de legislação em 2021, que se debruçava sobre a IA de usos específicos. Mas as autoridades vêm se apressando para entender como incorporar esses sistemas, também conhecidos como modelos fundacionais, na versão final. Enquanto isso, nos EUA, o presidente Joe Biden assinou um ambicioso decreto no mês passado tentando equilibrar as necessidades das empresas de tecnologia de ponta com a segurança nacional e os direitos do consumidor. O decreto, que provavelmente precisará ser ampliado por ação do Congresso, é um passo inicial que visa a garantir que a IA seja confiável e útil, e não maliciosa e destrutiva. Busca orientar como a IA é desenvolvida, para que as empresas possam lucrar sem colocar em risco a segurança pública.
Deixe seu comentário sobre: "O que a demissão e a reintegração de Sam Altman representam para o futuro da IA?"