A Google apresentou o Gemini 3, a nova geração do seu grande modelo multimodal, desenhada para potenciar tarefas de raciocínio complexo, criação e programação. A empresa descreve o Gemini 3 como uma versão mais capaz na compreensão de contexto e intenção, com melhorias notáveis em multimodalidade e numa maior fluidez ao encadear instruções relacionadas.
Ao invés de repetir a longa lista técnica do anúncio, o essencial é isto: o Gemini 3 foi pensado para lidar melhor com pedidos mais sofisticados e com fluxos de trabalho que exigem vários passos. Tem uma janela de contexto muito alargada e responde de forma mais concisa e orientada para a utilidade, o que o torna mais prático para tarefas como resumir materiais extensos, transformar conteúdos multimédia em explicações ou gerar visualizações e código a partir de descrições.
O lançamento inclui duas variantes principais: o Gemini 3 Pro, disponível em pré-visualização em vários produtos Google e para programadores, e o modo de raciocínio ainda mais exigente chamado Gemini 3 Deep Think, que está a ser avaliado com testadores de segurança antes de chegar aos subscritores do plano Google AI Ultra. Em termos de integração, o Gemini 3 começa a chegar ao Modo IA na Pesquisa, à aplicação Gemini, ao AI Studio, ao Vertex AI, à CLI do Gemini e à nova plataforma de programação de agentes, o Google Antigravity.

Uma das áreas em destaque é a programação: o Gemini 3 tem capacidades reforçadas para gerar e validar código, bem como para operar como parte de agentes autónomos que planeiam e executam tarefas — desde automatizar passos de um projecto de software até gerir fluxos de trabalho com várias ferramentas. O Google Antigravity surge para colocar esses agentes numa interface dedicada, onde podem interagir com o editor, terminal e navegador de forma mais autónoma.
Para utilizadores que querem aprender ou planear, o modelo promete simplificar processos complexos: pode sintetizar artigos e vídeos longos, ajudar a converter receitas manuscritas em formatos partilháveis, analisar vídeos de treino e sugerir planos de melhoria, ou até criar materiais interativos que facilitem a aprendizagem. Em suma, o foco é tornar a IA mais útil em situações do dia a dia, não apenas em demonstrações técnicas.

O Google também realça ganhos de fiabilidade factual e multimodalidade: o Gemini 3 tende a ser mais preciso em respostas factuais e melhor na interpretação de conteúdos visuais e audiovisuais, embora o próprio anúncio destaque que determinadas versões — como o Deep Think — ainda passam por avaliações adicionais de segurança antes de uma disponibilização mais ampla.
Em termos de acesso, a empresa diz que a implementação começa já hoje em várias frentes: na aplicação Gemini, no Modo IA da Pesquisa para subscritores Pro e Ultra, e nas plataformas para programadores e empresas. O Deep Think ficará sujeito a avaliação de segurança antes de chegar a todos os utilizadores Premium.