A equipe "Superalignment" da OpenAI, responsável por desenvolver estratégias para gerir sistemas de IA "superinteligentes", enfrentou dificuldades significativas. Inicialmente prometido 20% dos recursos computacionais da empresa, o grupo teve muitas solicitações negadas. E a impediu de cumprir sua função.
Esse cenário levou à demissão de vários membros, incluindo o co-líder Jan Leike, ex-pesquisador da DeepMind. Durante seu tempo na OpenAI, Leike desempenhou um papel crucial no desenvolvimento de projetos como o ChatGPT, GPT-4 e InstructGPT.
Leia mais:
Leike expressou sua frustração e as razões para sua saída numa série de postagens no X (antigo Twitter) na sexta-feira (17). Ele criticou a liderança da OpenAI por não priorizar a segurança e a preparação para as futuras gerações de modelos de IA.
Confira abaixo o "fio" de postagens de Leike no X:
Yesterday was my last day as head of alignment, superalignment lead, and executive @OpenAI.
— Jan Leike (@janleike) May 17, 2024
Ilya Sutskever, cofundador da OpenAI e líder da equipe "Superalignment", também deixou a empresa nesta semana. Formada em julho com a meta de resolver os principais desafios técnicos para controlar IA "superinteligente" em quatro anos, a equipe também contribuiu significativamente para a segurança dos modelos de IA.
Durante sua existência, a equipe publicou pesquisas importantes de segurança e direcionou milhões de dólares em subsídios para pesquisadores externos. No entanto, à medida que os lançamentos de produtos se tornaram prioritários, a equipe enfrentou dificuldades crescentes para obter os investimentos necessários para suas iniciativas cruciais.
Um conflito entre Sutskever e o CEO da OpenAI, Sam Altman, adicionou turbulência interna. Após uma tentativa falha de destituir Altman, que teve o apoio de importantes investidores como a Microsoft e dos próprios funcionários, Sutskever não retornou ao trabalho, deixando um vácuo na liderança.
Com a saída de figuras chave como Leike e Sutskever, John Schulman, outro cofundador da OpenAI, assumiu os projetos da equipe "Superalignment".
A empresa decidiu não manter uma equipe dedicada, integrando esses pesquisadores em várias divisões, o que suscita preocupações sobre o enfraquecimento do foco em segurança na pesquisa de IA.
Este rearranjo interno levanta dúvidas sobre o compromisso da OpenAI com a segurança no desenvolvimento de IA "superinteligente", uma preocupação dada a potencialidade perigosa dessa tecnologia.
Fonte: Olhar Digital