Ex-funcionário era vice-líder de equipe de segurança da OpenAI e afirma que empresa não está preocupada com esse tema (Imagem: Vitor Pádua / Tecnoblog)
Ex-funcionário era vice-líder de equipe de segurança da OpenAI e afirma que empresa não está preocupada com esse tema (Imagem: Vitor Pádua / Tecnoblog)

Jan Leike, ex-funcionário da OpenAI e um dos membros do time de superalinhamento, publicou uma série de críticas a empresa após sua saída. Nesta sexta-feira (17), Leike foi ao X/Twitter explicar as razões de, assim como o cofundador da OpenAI Ilya Sutskever, ter pedido demissão.

A saída de Sutskever e de Jan Leike pode estar ligada a divergências na condução da equipe de superalinhamento. Essa equipe tem a função de pesquisar e desenvolver meios para manter as IAs seguras e auxiliar na regulação dessa tecnologia. Contudo, a direção da OpenAI prejudicava o trabalho do time, que agora não é mais uma equipe dedicada.

Sustskever e Leike, além de mais alguns funcionários, segundo o TechCrunch, comunicaram a sua saída da OpenAI na quarta-feira (15). A nota de despedida do fundador e ex-cientista chefe da empresa tem tom amigável, assim como as mensagens escritas por Sam Altman, CEO da OpenAI, e Greg Brockman, presidente.

Contudo, as informações divulgadas por um fonte de empresa para o TechCrunch sugere que o clima dentro da OpenAI não era tranquilo — no sentido de haver um certo ressentimento entre Altman e Sutskever por causa da demissão do primeiro. Inclusive o próprio Leike foi ao X/Twitter sendo mais direto sobre as divergências dentro da OpenAI.

Jan Leike relata que discordava das lideranças da OpenAI e que não via a empresa no caminho certo para IAs seguras (Imagem: Reprodução/X/Twitter)
Jan Leike relata que discordava das lideranças da OpenAI e que não via a empresa no caminho certo para IAs seguras (Imagem: Reprodução/X/Twitter)

Ex-funcionário alega que OpenAI não se preocupa com segurança

Em uma série de tweets, Jan Leike alega que a OpenAI tomou rumos diferentes nos últimos anos. Leike afirma que a empresa jogou a cultura de segurança no “banco de trás”. Ele relata que estava em desacordo com as lideranças há tempo, mas ficou insustentável nos últimos dias.

O pesquisador, que já passou pela DeepMind, empresa de IA do Google, diz acreditar que muito da capacidade computacional da OpenAI deveria ser usada para preparar as próximas gerações de LLM em segurança, gestão de risco, impacto social e outros temas.

“Esses problemas são difíceis de resolver e não sinto que estamos no caminho para chegar lá”, diz Leike. Entre as publicações, o pesquisador destaca que criar uma máquina mais inteligente que os humanos é um negócio arriscado.

Rápido avança da tecnologia de IA teria grandes impactos sociais (Imagem: Andrea De Santis / Unsplash)
Rápido avança da tecnologia de IA teria grandes impactos sociais (Imagem: Andrea De Santis / Unsplash)

Isso pode soar como algo do universo Exterminador do Futuro, mas o risco mais real e mais próximo de uma IA geral está ligado a uma crise social. Caso a tecnologia avance rapidamente, muitas pessoas perderão o emprego em pouco tempo. E esse é um dos principais pontos do tema de regulação das IAs, um dos escopos do time de superlinhamento da OpenAI.

Quando o time foi criado, foi prometido que 20% da capacidade computacional da OpenAI seria dedicada as suas tarefas. No entanto, conforme apurado pelo TechCrunch, a equipe geralmente tinha seus pedidos negados, o que impedia seu trabalho.

Com informações: TechCrunch

OpenAI: ex-funcionário bota a boca no trombone após saída de fundador