Inteligência artificial
Big techs prometem “interruptor” que paralisa a IA em caso de perigo (Imagem: Vitor Pádua/Tecnoblog)

O avanço da inteligência artificial (IA) tem deixado autoridades e especialistas no assunto preocupados com o uso malicioso da tecnologia. É por isso que organizações como Microsoft, Meta, Google e OpenAI concordaram em implementar um “interruptor” se não puderem garantir a segurança de um modelo de IA.

A decisão foi anunciada no evento AI Seoul Summit 2024, realizada na Coreia do Sul. Na proposta, as organizações se comprometem a medir os riscos de seus modelos de IA, prevendo como agentes externos podem utilizar a tecnologia em aplicações para as quais ela não foi projetada originalmente, por exemplo.

Em linhas gerais, a ideia é a de que as organizações definam os tipos de riscos associados ao desenvolvimento de suas tecnologias de IA. Com base nisso, elas devem impedir o avanço de riscos considerados intoleráveis, como aqueles que podem resultar em ataques cibernéticos ou favorecer ameaças biológicas.

Paralisar a IA se o risco for alto

Os riscos seriam situações extremas, mas que podem ter consequências graves. O tal do “interruptor” consiste então em paralisar o desenvolvimento dos modelos de IA envolvidos, caso as organizações responsáveis não encontrem outros meios de mitigar o problema.

Esse é um trabalho que precisa ser alinhado com as autoridades. Por isso, o acordo envolve governos de países como Estados Unidos, China, Canadá, Reino Unido, França e Coreia Sul, onde a conferência foi realizada.

Os compromissos acordados no evento dizem respeito apenas a modelos de inteligência artificial de “fronteira”, ou seja, envolvem aqueles que estão por trás de grandes sistemas generativos. O exemplo mais óbvio é o GPT, conjunto de modelos de linguagem que é a base do ChaGPT.

A OpenAI está entre as empresas que fecharam o acordo  (imagem: Vitor Pádua/Tecnoblog)
A OpenAI está entre as empresas que fecharam o acordo (imagem: Vitor Pádua/Tecnoblog)

Empresas participantes

As empresas que assinaram o acordo são estas:

  • Amazon
  • Anthropic
  • Cohere
  • Google
  • G42
  • IBM
  • Inflection AI
  • Meta
  • Microsoft
  • Mistral AI
  • Naver
  • OpenAI
  • Samsung Electronics
  • Technology Innovation Institute
  • xAI
  • Zhipu.ai

A iniciativa é bem-vinda. Mas fica a dúvida se acordos como esse serão suficientes para reprimir eventuais ameaças potencializadas pela inteligência artificial. Como destaca a CNBC, a União Europeia já trabalha em uma lei para moderar o avanço rápido da IA. Esse é mais um sinal do quanto o assunto tem preocupado autoridades.

Big techs prometem “interruptor” que paralisa IA em caso de perigo