Índice de conteúdo
- Introdução à Apple Intelligence
- Apple Intelligence escreve respostas e resume textos
- Compreensão do contexto
- Muitos efeitos especiais
- A beleza da IA integrada ao sistema
- Dúvida sobre inteligência offline
Introdução à Apple Intelligence
(Direto de Cupertino, nos EUA) A Apple revelou a Apple Intelligence na semana passada. Trata-se da inteligência artificial que compreende o contexto do usuário e o auxilia em diversas tarefas do dia a dia, de acordo com a empresa. Pense numa Siri turbinada ou num ChatGPT que sabe as suas informações particulares, que ficam armazenadas no telefone. É mais ou menos por aí. E eu pude ver a Apple Intelligence em ação numa sessão exclusiva de demonstração para jornalistas estrangeiros.
O encontro ocorreu numa sala do Apple Park, o campus da companhia na cidade de Cupertino, nos Estados Unidos. Nós tivemos pouco menos de uma hora para observar as variadas funções de IA que estarão nos futuros iPhones, iPads e MacBooks, entre outros dispositivos da Apple.
Ver essa foto no Instagram
É importante frisar que as ações foram realizadas por membros do time da Apple. Nós não pudemos interagir diretamente com os aparelhos nem tirar fotos. De toda forma, foi a primeira vez que pessoas de fora da gigante de Cupertino puderam ver a Apple Intelligence funcionando.
Apple Intelligence escreve respostas e resume textos
Conhecer de perto a Apple Intelligence foi uma experiência única. Somente quatro profissionais do Brasil participaram da sessão exclusiva. Todas as explicações foram dadas em inglês. Aliás, a própria Siri com AI só atua neste idioma – ao menos por enquanto, e a companhia não divulgou informações sobre o suporte futuro a outros idiomas.
A primeira demonstração ocorreu num MacBook com o aplicativo Mail. Um representante da Apple abriu um email com cerca de quatro parágrafos. Ao percorrer o mouse pela tela, surgiu um menu de contexto que dava a opção de revisar o material.
Todo o processo de IA generativa levou cerca de 5 segundos. A seguir, a ferramenta indicou mudanças para que o texto ficasse mais conciso e correto. A interface dá opções de estilos, como causal ou profissional, numa pegada que lembra o Galaxy AI no WhatsApp.
Não custa lembrar que o Gmail oferece a função de resposta inteligente há anos. No entanto, me parece ser mais limitada, com textos curtos e que praticamente não entram no mérito do que foi enviado pelo remetente.
A Apple Intelligence vai além. Ela está, portanto, mais próxima do que temos visto em ferramentas de escritório recentemente atualizadas pelo Google e pela Microsoft.
A Apple explica que todos os modelos de inteligência artificial usados na Apple Intelligence foram desenvolvidos internamente e treinados tanto com dados da Apple quanto de fornecedores do mercado. A empresa americana não dá detalhes sobre o número de modelos, suas tarefas específicas e nem os parceiros.
Outra demonstração relevante tem a ver com textos muito longos naquele dia que você precisa de informações curtas. Uma pessoa da Apple abriu um documento no notebook e ativou a função de resumo. O processamento da IA generativa levou somente cerca de 3 segundos.
É importante dizer que não tivemos oportunidade de avaliar a qualidade do conteúdo gerado pela Apple Intelligence. Por se tratar de uma reunião, os representantes da empresa focaram em explicar o funcionamento das coisas e qual será seu impacto na vida cotidiana das pessoas.
“Queremos produzir um resultado de qualidade”, nos disse um membro da Apple. A empresa prefere não divulgar os nomes de funcionários que interagem com a imprensa pois o foco é no produto.
Compreensão do contexto
O aplicativo Fotos foi totalmente desenhado para o iOS 18, que ainda está por vir. A Apple Intelligence marcará presença nele por meio de comandos (falados ou escritos, uma novidade da nova geração da Siri) como “minhas melhores escaladas com Don, e termine com uma selfie”.
A partir disso, uma belíssima animação simulando uma colagem de imagens surge na tela do iPhone. A memória – espécie de vídeo com trilha sonora e os melhores momentos daquela ocasião – leva cerca de 15 segundos para ficar pronta.
Todos na sala ficaram impressionados com a qualidade do resultado final. Para chegar nele, a IA da Apple leva em consideração informações armazenadas especificamente naquele aparelho. Quem é Don? Ela sabe. O que é uma escalada? Ela também sabe. Quer que uma selfie termine o álbum? Bom, você já entendeu.
Uma pessoa da Apple explicou que esta função vale tanto para imagens salvas localmente quanto para as fotografias armazenadas no iCloud. Imagino que a velocidade e o desempenho da função dependam do número de figuras salvas pelo usuário.
Já a função de apagar objetos chega ao iOS depois de um período no macOS. A Apple estaria se atualizando em relação ao que se vê nos aparelhos da Samsung com Galaxy AI. Os adeptos do telefone da maçã poderão apagar os elementos que atrapalharem o clique perfeito. No entanto, é preciso ter em mente que a ferramenta “jamais” irá eliminar os protagonistas da imagem, de acordo com informações oficiais.
Assim como os Animojis e Memojis já frequentaram o imaginário em torno da Apple, pode ser que os Genmojis estejam em campanhas publicitárias. Em resumo: o usuário descreve um objeto e a tecnologia da Apple Intelligence cria um emoji com tais características. Por exemplo: cesta de morangos. Isso não existe no catálogo oficial da Unicode, organização responsável por normatizar as figurinhas de que tanto gostamos.
O iPhone rapidamente produz um emoji nos moldes do sistema da Apple, de forma segura. Todo o processo leva cerca de 5 segundos. Cabe lembrar que a Meta implementou a função de figurinha por IA no WhatsApp há algumas semanas. Você já usou? Eu recorro a ela com frequência. Algo similar estará na Apple Intelligence.
A Apple revelou o ambiente chamado de Image Playground, em que o usuário pode descrever uma ilustração para que ela seja produzida com apoio da IA generativa. Seu funcionamento me pareceu mais veloz do que o Microsoft Design, que depende da internet e usa tecnologia do Dall-E 3.
Os resultados foram bonitos, com a pegada de caricatura ou de desenho infantil. A Apple Intelligence apresenta cerca de oito opções. Creio que, ao menos neste momento, ela não vá prometer imagens realistas.
Muitos efeitos especiais
Eu pude notar um grande trabalho de design e de experiência de usuário para destacar a presença da inteligência artificial atuando nos conteúdos dos aparelhos. O conceito de “passe de mágica” é levado a cabo, com cores brilhantes que ocupam a tela até que a nova versão do conteúdo é apresentada.
A Siri no iPhone aciona bordas coloridas que indicam a detecção do contexto.
A beleza da IA integrada ao sistema
O principal trunfo da Apple ao chegar agora ao cenário da inteligência artificial generativa tem a ver com a integração com as informações do usuário. O ChatGPT é excelente, mas ele não sabe quais são os seus compromissos do dia, as últimas mensagens de email ou as fotos da sua galeria.
Por sua vez, a Apple Intelligence é executada diretamente no iPhone. Ela tem acesso a todos estes detalhes, o que lhe permite responder à pergunta “Quais são os programas de TV que os meus amigos me recomendaram?” com um resumo disso, em vez de o consumidor pular de conversa em conversa para descobrir os nomes dos programas televisivos.
Dúvida sobre inteligência offline
Tudo que vi relacionado a Apple Intelligente em Cupertino me deixou animado, pois a tendência é de que o usuário tenha mais ferramentas à sua disposição para concluir tarefas de maneira mais rápida.
Talvez a minha maior bronca tenha a ver com o local onde os comandos são executados. A Apple diz que parte dos modelos da Apple Intelligence rodam nos próprios dispositivos. No entanto, caso a ação exija um conhecimento mais aprofundado, pode ser que recorra à nuvem da própria empresa para processamento adicional.
Os jornalistas ali presentes não puderam ver como será o funcionamento da Apple Intelligence caso esteja totalmente desplugada da internet. Isto não foi permitido durante a reunião com representantes da marca.
É o tipo de curiosidade que me assola há dias. Eu gostaria, por exemplo, de saber quais tarefas inteligentes estarão à minha disposição quando estiver viajando, dentro de um avião e sem acesso ao Wi-Fi. Pode parecer um caso isolado, mas milhões de pessoas embarcam em aeronaves todos os dias – e trabalham enquanto estão voando.
A Samsung divulga uma tabela detalhando quais recursos do Galaxy AI funcionam otalmente offline e quais dependem da internet. Seria interessante se a rival Apple fizesse o mesmo.
Thássius Veloso viajou para os Estados Unidos a convite da Apple
Eu vi a Apple Intelligence em ação numa sessão exclusiva