OpenAI
OpenAI coloca membros do conselho de diretores para supervisionar segurança (Imagem: Vitor Pádua / Tecnoblog)

A OpenAI anunciou a criação do Comitê de Segurança e Proteção, composto por membros do conselho de diretores da empresa. O novo grupo deve assumir algumas das atribuições do time Superalignment, que contava com a participação de cofundadores e foi dissolvido há algumas semanas.

Em um blog post, a criadora do ChatGPT afirmou que o comitê vai tomar decisões críticas de segurança e proteção para os projetos e operações da empresa. A mesma publicação revela que o treinamento do modelo de “próxima fronteira” já começou e que o sistema resultante desse processo pode levar a empresa a um nível mais próximo da inteligência artificial geral (ou AGI, na sigla em inglês).

ChatGPT e Sam Altman, CEO da OpenAI
O CEO Sam Altman é um dos participantes do novo comitê (Imagem: Vitor Pádua / Tecnoblog)

A AGI é um tipo de IA com capacidades múltiplas e inteligência comparável ou superior à dos humanos. Por enquanto, o conceito é apenas teórico — nenhum modelo atingiu este nível até agora.

Sam Altman e diretores estão no comitê

O Comitê de Segurança e Proteção (Safety and Security Committee, em inglês) será composto por Sam Altman (CEO e cofundador da empresa), além dos diretores do conselho Bret Taylor, Adam D’Angelo e Nicole Seligman.

Taylor é o presidente do conselho de diretores. Ele e Seligman estão na OpenAI desde novembro de 2023, quando Sam Altman foi readmitido como CEO da empresa. Já D’Angelo foi um dos membros que votaram pela demissão de Altman.

Os dramas corporativos da OpenAI tiveram um capítulo recente, com a saída de vários cofundadores da empresa, como Ilya Sutskever e Jan Leike, e a dissolução do time de superalinhamento (Superalignment).

Leike, inclusive, criticou abertamente os rumos da companhia, dizendo que ela colocou a segurança em segundo plano. “Venho discordando da liderança (…) há algum tempo, até que chegamos a um ponto de ruptura”, escreveu Leike, em uma publicação no X (antigo Twitter).

“Acredito que muito mais de nossa capacidade computacional deve ser usada na preparação para as próximas gerações de modelos, em segurança, monitoramento, proteção, robustez, (super)alinhamento, confidencialidade, impacto social e tópicos relacionados”, acrescentou. “Temo que não estejamos no caminho certo para isso.”

Com informações: OpenAI, CNBC

OpenAI cria comitê para avaliar segurança de novos modelos de IA