O Google anunciou nesta quarta-feira (dia 11/12) o Gemini 2.0, nova versão do modelo de inteligência artificial. Ele estará em vários produtos da empresa, como o assistente que leva o mesmo nome e as AI Overviews, resumos que aparecem acima dos resultados de busca.

A nova versão será lançada inicialmente em formato reduzido, mas promete desempenho comparável ao do Gemini 1.5 Pro. Ela é capaz de trabalhar com texto, imagens estáticas, vídeos e fala.

A companhia também apresentou novos modelos e aplicações. São os chamados agentes, como o Project Mariner (uma extensão que navega na internet pelo usuário), o Jules (assistente para corrigir erros de código) e a nova versão do Project Astra (que identifica objetos com imagens de câmeras).

Gemini 2.0 Flash é a primeira versão

O Google vai liberar inicialmente o Gemini 2.0 Flash. Ainda em fase experimental, ele é a versão reduzida do novo modelo de IA. O Gemini 2.0 Flash estará disponível a partir de hoje (dia 11/12) no assistente Gemini na web, tanto para desktop quanto para smartphones. Nos apps para Android e iOS, ele chegará em breve.

Nos testes do Google, o Gemini 2.0 Flash supera o Gemini 1.5 Flash em quesitos como respostas, geração de códigos de programação, capacidade de fornecer fatos corretos, resolução de problemas matemáticos, raciocínio e análise de vídeos. Há uma leve piora em compreensão de contextos complexos.

As avaliações também mostram um desempenho comparável ao do Gemini 1.5 Pro, um dos modelos mais potentes da geração passada do Google.

Desenvolvedores terão acesso ao Gemini 2.0 Flash no Google AI Studio e no Vertex AI, com possibilidade de input multimodal e output em texto. Isso significa que o modelo é capaz de processar imagens, texto e áudio, mas as respostas ainda serão apenas em texto. Para parceiros selecionados, ele terá geração de voz e imagens.

Novo modelo será usado em agentes de IA

O Google também deu destaque ao que chamou de “experiências agênticas”. Já faz algum tempo que ouvimos que a IA poderá não só dar respostas ou gerar imagens, mas também assumir o controle de aplicativos que usamos diariamente. Este seria o tal uso “agêntico” que o Google menciona.

Uma destas experiências é o Project Mariner. Ele é capaz de entender o que está na tela do seu navegador, sejam textos, códigos de programação, imagens ou formulários. Uma extensão do Chrome, então, pode completar tarefas para o usuário.

O Google ressalta que o Mariner ainda está em fase inicial, nem sempre é preciso e pode demorar para completar as tarefas. Porém, a empresa promete que ele vai evoluir rapidamente.

Outra novidade é o Jules. Ele se comporta como um assistente de programação, resolvendo problemas, desenvolvendo planos e os executando, sob supervisão de um desenvolvedor.

Por fim, o Google também aperfeiçoou o Project Astra. Apresentado no Google I/O, o agente é capaz de usar câmeras e entender imagens ao redor, auxiliando o usuário a obter informações, com a ajuda do Lens e do Maps, por exemplo. A companhia também revelou óculos experimentais que usam esta ferramenta.

Com informações: Google, Axios, TechCrunch, The Verge

Google anuncia Gemini 2.0 e agentes de IA para realizar tarefas