IA do Google vai ganhar 'olhos' e ler o ambiente com a câmera do celular
Márcio Padrão
Colaboração para o UOL
20/05/2025 17h12Atualizada em 22/05/2025 15h04
O Google anunciou hoje durante o I/O, evento anual para desenvolvedores em Mountain View, nos EUA, que sua inteligência artificial vai conseguir usar a câmera do celular para "ver" e ajudar nas respostas, além de dar passos importantes na busca e na assistência pessoal. As novidades já estão disponíveis em todos os aparelhos Android e iOS nos EUA.
O que aconteceu
IA ganhou "olhos" no celular. Um dos novos recursos, o Gemini Live, permite que o usuário abra a câmera do celular para que a inteligência artificial "veja" o que está à frente e cumpra alguma instrução. Com isso, ela vai conseguir, por exemplo, responder sobre o estilo de decoração de um ambiente ou te ajudar a provar roupas digitalmente.
Google Beam vai criar chamadas de vídeo em 3D usando IA. A ferramenta usa o Project Starline, modelo de geração de vídeos 3D lançado há alguns anos, para que as chamadas no Google Meet passem a transformar vídeos 2D em uma experiência tridimensional em tempo real. Com a união de seis câmeras virtuais com IA, a pessoa do outro lado da chamada aparenta estar em um ambiente com mais sombra e volume, gerando assim uma sensação maior de imersão.
Meet também contará com tradução em tempo real. A empresa deve começar a experimentar tradução de áudios das chamadas em vídeo enquanto a pessoa fala. Por ora, só inglês e espanhol serão traduzidos.
A IA vai ser bilíngue em tempo real. O Gemini permitirá reconhecer e interagir com duas vozes distintas no mesmo ambiente, e trocar de idioma durante a interação.
Busca do Google dará respostas mais parrudas no chatbot com IA. A busca já podia retornar respostas de chatbot no topo da página, mas agora houve o upgrade AI Mode, que permite interagir com o Google por texto e pedir mais detalhes, visualizar e analisar números e dados e gerar gráficos interativos em tempo real (disponível nas próximas semanas).
Chrome ganha IA Gemini embutida. Como já acontece no Microsoft Edge e no Copilot, o navegador Chrome ganha, a partir de hoje, o Gemini embutido. A IA, neste primeiro momento, só responderá a perguntas em uma aba, mas a empresa planeja adicionar recursos para várias abas em atualização futura.
IA tenta ser aquela assistente que você precisa muito. O novo projeto do Google é que a IA vá além das respostas de texto. Ela "executará tarefas diárias para nós, cuidará de nossa administração mundana e apresentará novas recomendações deliciosas, tornando-nos mais produtivos e enriquecendo nossas vidas", diz a empresa. O primeiro passo é mostrar o que a IA está pensando —comentários sobre o raciocínio que ela seguiu para chegar à resposta. É parecido com o que a DeepSeek, IA chinesa, faz.
Novidade para desenvolvedores: Gemini 2.5 Pro e Flash melhorados. O modelo pro existe para ajudar os desenvolvedores a criar aplicativos da web mais avançados e interativos. O Flash é um modelo similar, mas de baixo custo. Ambos devem ser lançados a partir de junho. O exemplo mostrado criou um site em 3D a partir de um esboço no guardanapo. A IA criou o código para montar a página na internet rapidinho.