Aplicações de inteligência artificial tendem a demandar muito poder computacional, por isso, esforços para amenizar os gastos com isso são válidos, especialmente se o efeito for uma menor dependência da Nvidia. É por isso que a Meta está desenvolvendo seu primeiro chip para treinamento de IA.

É o que conta a Reuters. De acordo com o veículo, a iniciativa faz parte de um plano da turma de Mark Zuckerberg para reduzir os custos da companhia com infraestrutura tecnológica, que aumentam à medida que mais aplicações de IA são disponibilizadas ou aprimoradas.

Para você ter ideia, a Meta estima que as suas despesas gerais podem chegar a US$ 119 bilhões (R$ 693 bilhões) em 2025, com boa parte desse montante devendo ser destinado a aplicações de inteligência artificial.

Como um chip próprio pode ajudar a Meta a reduzir gastos com IA?

Uma das fontes consultadas pela Reuters explica que o tal chip consiste em um acelerador dedicado, ou seja, trata-se de um componente desenvolvido especificamente para lidar com tarefas de IA.

Em tese, esse direcionamento permite otimizar o consumo de energia a ponto de a eficiência energética melhorar consideravelmente em relação às GPUs que são tipicamente empregadas em aplicações de inteligência artificial.

O primeiro ganho viria justamente do menor gasto com energia, portanto. Também é de se esperar que esse chip seja menos custoso do que as GPUs da Nvidia que a Meta usa para desenvolver e manter projetos de IA, a exemplo dos modelos Llama. Nesse sentido, vale lembrar que a Meta é um dos maiores clientes da Nvidia atualmente.

Resta saber como o chip se comportará com relação ao desempenho. Para avaliar esse e outros aspectos, a Meta pretende testar o projeto em sistemas de recomendação de conteúdo em plataformas como Facebook e Instagram e, posteriormente, em ferramentas de IA generativa, como o chatbot Meta AI.

As especificações do chip de treinamento de IA ainda são um mistério, porém. Procuradas, Meta e TSMC (parceira do projeto) não comentaram o assunto.

Meta trabalha em chip de IA próprio para depender menos da Nvidia