Dario Amodei, CEO da Anthropic, avalia que inteligências artificiais poderão atingir um nível de autonomia que permitirá a elas a sobrevivência e a replicação — e isso pode acontecer entre 2025 e 2028. Ele também acredita que a tecnologia terá importância militar, dando vantagens no campo geopolítico.
“Eu acredito em crescimento exponencial. Estou falando mesmo de futuro próximo, não daqui a 50 anos”, diz o CEO. As declarações foram dadas ao jornalista Ezra Klein, em um podcast do jornal The New York Times.
A Anthropic define níveis de segurança para a inteligência artificial, identificados pela sigla ASL. Amodei acredita que estamos no nível 2, em que os modelos de linguagem são capazes de dar informações perigosas para, por exemplo, construir armas biológicas. Mesmo assim, essas informações seriam pouco úteis e pouco confiáveis, representando um risco pequeno.
No entanto, o nível 3 pode ser alcançado no ano que vem. Com ele, o risco de uma catástrofe é muito maior, com a possibilidade de uso em armas biológicas e cibernéticas.
Já o nível 4 na escala da Anthropic ainda é especulativo e não tem uma definição. Amodei menciona características como autonomia e capacidade de persuasão. Ele acha que modelos com esta classificação chegarão entre 2025 e 2028.
IA pode ter autonomia e uso militar
E o que isso significa na prática? O fundador da Anthropic diz que o problema é o que alguns estados poderão fazer com tecnologias deste tipo.
“Do lado do uso inadequado, o ASL 4 vai ter mais relação com o crescimento das capacidades de agentes de estado”, explica. “Nós precisaríamos nos preocupar com a Coreia do Norte, a China ou a Rússia podendo aumentar suas capacidades em várias áreas militares com IA, o que daria a estes países uma vantagem geopolítica.”
Não é só isso. Amodei também menciona questões de autonomia. “Várias medidas destes modelos estão muito próximas da capacidade de se reproduzir e sobreviver sem supervisão”.
Amodei trabalhou na OpenAI entre 2016 e 2021, onde chegou ao cargo de vice-presidente de pesquisa e colaborou com o desenvolvimento do GPT-3. Ele deixou a companhia por discordar dos rumos que ela estava tomando.
Com outros seis ex-funcionários da OpenAI, Amodei fundou a Anthropic, que se apresenta como um laboratório de pesquisa em segurança da IA. A empresa já recebeu de investimentos de Amazon e Google. Até agora, ela criou o modelo de linguagem grande Claude, que pretende ser mais ético que os concorrentes.
Com informações: The New York Times, Futurism
IAs serão capazes de sobreviver e se reproduzir, diz CEO da Anthropic