Google lanza Gemini 3: su IA multimodal más avanzada llega a apps, Search y la nube
Google ha presentado Gemini 3, un nuevo modelo de inteligencia artificial multimodal capaz de comprender y razonar sobre texto, imágenes, audio y video en un solo flujo, posicionándose como la tecnología más avanzada de la compañía para ofrecer experiencias interactivas y conscientes del contexto. El modelo destaca por su razonamiento de vanguardia, comprensión de intenciones más precisa y confiabilidad en tareas complejas, alcanzando puntajes sobresalientes en matemáticas avanzadas, ciencias y pruebas de QA. Además, un nuevo modo Deep Think llegará para suscriptores de niveles superiores en las próximas semanas. La implementación comienza de inmediato en la aplicación Gemini y el modo AI, y por primera vez, un modelo insignia se lanza desde el primer día en Search y AI Mode, con disponibilidad más amplia en EE. UU. y mayores límites para suscriptores en breve.
Gemini 3 se presenta con Gemini 3 Pro y una ventana de contexto de hasta un millón de tokens, capaz de manejar entradas extensas como bases de código completas, documentos largos y material audiovisual, mejorando la profundidad y continuidad de las respuestas en escenarios empresariales y de desarrollo. En Vertex AI y Gemini Enterprise, el modelo potencia capacidades agentivas y de programación para migraciones de sistemas, pruebas de software y generación de frontend de alta calidad. También introduce controles de resolución visual, validación más estricta de firmas de pensamiento y respuestas funcionales que pueden incluir objetos multimodales como imágenes y PDFs, optimizando latencia y confiabilidad en flujos de trabajo con herramientas.
Google habilita además interfaces generativas que convierten consultas en herramientas interactivas como simuladores y calculadoras, y amplía el “fan-out” de consultas en Search para generar preguntas adicionales que mejoren la respuesta final a solicitudes complejas. Para consumidores, los usuarios pueden seleccionar “Thinking: 3 Pro” para acceder a razonamiento avanzado y diseños visuales generativos, mientras que las capacidades multimodales interpretan contenido audiovisual y producen experiencias dinámicas con menos instrucciones. Este lanzamiento intensifica la carrera de la IA, llevando el modelo más inteligente de Google a productos clave y plataformas en la nube, elevando el estándar en comprensión multimodal, programación y operaciones agentivas a gran escala.
Google Launches Gemini 3: Its Most Advanced Multimodal AI Rolls Out to Apps, Search, and Cloud
Google has launched Gemini 3, a new multimodal AI model that integrates text, images, audio, and video in a single flow, establishing itself as the company’s most advanced technology for delivering interactive, context-aware experiences. The AI model features state-of-the-art reasoning, enhanced intent understanding, and reliability on complex tasks, achieving standout scores in advanced math, science, and QA benchmarks. A new Deep Think mode is also set to arrive for higher-tier subscribers in the coming weeks. The rollout begins immediately in the Gemini app and AI Mode, marking the first time a flagship model ships on day one into Search and AI Mode, with broader U.S. availability and expanded limits for subscribers to follow.
Gemini 3 introduces Gemini 3 Pro and a context window of up to one million tokens, capable of handling large inputs such as complete codebases, long-form documents, and audiovisual content, improving response depth and continuity for enterprise and developer use cases. On Vertex AI and Gemini Enterprise, it powers agentic and coding functions for system migrations, software testing, and high-quality frontend generation. New features include vision resolution controls, stricter thought signature validation, and function outputs that can include multimodal objects such as images and PDFs, optimizing latency and reliability in tool-based workflows.
Additionally, Google enables generative UI layouts that transform queries into interactive tools such as simulators and calculators, and expands Search’s query fan-out to generate nuanced questions for more accurate answers to complex prompts. Consumers can select “Thinking: 3 Pro” to access advanced reasoning and generative visual layouts, while enhanced multimodal capabilities interpret audiovisual content and deliver dynamic experiences with less prompting. This release accelerates Google’s position in the AI race, bringing its most intelligent model to key products and cloud platforms, raising the bar in multimodal understanding, coding, and agentic operations at scale.
Google lança Gemini 3: sua IA multimodal mais avançada chega a apps, Search e nuvem
O Google lançou o Gemini 3, um novo modelo de IA multimodal que entende e raciocina sobre texto, imagens, áudio e vídeo em um fluxo único, posicionando-se como a tecnologia mais avançada da empresa para oferecer experiências interativas e conscientes do contexto. O modelo se destaca por seu raciocínio de ponta, compreensão aprimorada de intenções e confiabilidade em tarefas complexas, alcançando pontuações notáveis em benchmarks de matemática avançada, ciência e QA. O novo modo Deep Think estará disponível em breve para assinantes de níveis superiores. A implementação começa imediatamente no aplicativo Gemini e no modo AI, com lançamento simultâneo no Search, ampliando a disponibilidade nos EUA e os limites para assinantes.
Gemini 3 chega com Gemini 3 Pro e uma janela de contexto de até um milhão de tokens, capaz de processar grandes entradas como bases de código inteiras, documentos longos e conteúdo audiovisual, melhorando a profundidade e a continuidade das respostas em cenários corporativos e de desenvolvimento. No Vertex AI e Gemini Enterprise, o modelo oferece funções agentivas e de programação para migração de sistemas, testes de software e geração de front-end de alta qualidade. Inclui controles de resolução visual, validação rigorosa de assinatura de pensamento e respostas funcionais com objetos multimodais como imagens e PDFs, otimizando latência e confiabilidade em fluxos de trabalho.
O Google também disponibiliza layouts de interface generativos que transformam consultas em ferramentas interativas como simuladores e calculadoras, e amplia a extensão de consultas do Search para gerar perguntas mais detalhadas que aprimorem respostas a solicitações complexas. Consumidores podem selecionar “Thinking: 3 Pro” para acessar raciocínio avançado e layouts visuais generativos, enquanto capacidades multimodais interpretam conteúdo audiovisual e produzem experiências dinâmicas com menos instruções. Este lançamento intensifica a competição em IA, levando o modelo mais inteligente do Google a produtos-chave e plataformas em nuvem, elevando o padrão em compreensão multimodal, programação e operações agentivas em larga escala.
Google lancia Gemini 3: la sua IA multimodale più avanzata arriva su app, Search e cloud
Google ha lanciato Gemini 3, un nuovo modello di IA multimodale in grado di comprendere e ragionare su testo, immagini, audio e video in un unico flusso, posizionandosi come la tecnologia più avanzata dell’azienda per offrire esperienze interattive e contestualmente consapevoli. Il modello vanta capacità di ragionamento all’avanguardia, comprensione delle intenzioni più precisa e affidabilità nelle attività complesse, con punteggi di rilievo in matematica avanzata, scienze e benchmark QA. Una nuova modalità Deep Think sarà disponibile nelle prossime settimane per gli abbonati di livello superiore. Il rollout inizia immediatamente sull’app Gemini e in AI Mode, con la prima versione disponibile anche su Search, ampliando l’accesso negli Stati Uniti e aumentando i limiti per gli abbonati.
Gemini 3 debutta con Gemini 3 Pro e una finestra di contesto fino a un milione di token, in grado di gestire input estesi come interi codici, documenti di lunga durata e materiale audiovisivo, migliorando la profondità e la continuità delle risposte per scenari aziendali e sviluppatori. Su Vertex AI e Gemini Enterprise, il modello alimenta funzioni agentive e di coding per migrazione di sistemi, test software e generazione di frontend di alta qualità. Introduce inoltre controlli di risoluzione visiva, validazione più rigorosa delle firme di pensiero e output funzionali che possono includere oggetti multimodali come immagini e PDF, ottimizzando latenza e affidabilità nei workflow con strumenti.
Google abilita anche layout generativi per UI che trasformano le query in strumenti interattivi come simulatori e calcolatori, e amplia il fan-out delle query di Search per generare domande più sfumate che migliorano la risposta finale a prompt complessi. Gli utenti possono selezionare “Thinking: 3 Pro” per accedere al ragionamento avanzato e ai layout visivi generativi, mentre le capacità multimodali interpretano contenuti audiovisivi e producono esperienze dinamiche con meno istruzioni. Questo rilascio rafforza la posizione di Google nella corsa all’IA, portando il modello più intelligente su prodotti chiave e piattaforme cloud, elevando gli standard in comprensione multimodale, coding e operazioni agentive su larga scala.
Google lance Gemini 3 : son IA multimodale la plus avancée arrive sur les apps, Search et le cloud
Google a lancé Gemini 3, un nouveau modèle d’IA multimodale capable de comprendre et raisonner sur texte, images, audio et vidéo dans un flux unique, se positionnant comme la technologie la plus avancée de l’entreprise pour offrir des expériences interactives et contextuellement conscientes. Le modèle se distingue par son raisonnement de pointe, une meilleure compréhension des intentions et sa fiabilité sur des tâches complexes, avec des scores exceptionnels en mathématiques avancées, sciences et benchmarks QA. Un nouveau mode Deep Think sera disponible dans les prochaines semaines pour les abonnés premium. Le déploiement commence immédiatement dans l’application Gemini et le mode AI, marquant la première fois qu’un modèle phare est disponible dès le premier jour sur Search, avec une disponibilité accrue aux États-Unis et des limites plus élevées pour les abonnés.
Gemini 3 comprend Gemini 3 Pro et une fenêtre de contexte allant jusqu’à un million de tokens, capable de gérer de larges entrées telles que des bases de code complètes, des documents longs et du contenu audiovisuel, améliorant la profondeur et la continuité des réponses pour les scénarios professionnels et de développement. Sur Vertex AI et Gemini Enterprise, il alimente des capacités agentives et de codage pour la migration de systèmes, les tests logiciels et la génération de frontend de haute qualité. Il introduit également des contrôles de résolution visuelle, une validation stricte des signatures de pensée et des sorties fonctionnelles pouvant inclure des objets multimodaux tels que des images et PDF, optimisant la latence et la fiabilité dans les workflows avec outils.
Google active également des interfaces génératives transformant les requêtes en outils interactifs comme des simulateurs et calculatrices, et étend le fan-out des requêtes de Search pour poser des questions supplémentaires et nuancées améliorant la réponse finale aux prompts complexes. Les utilisateurs peuvent sélectionner “Thinking: 3 Pro” pour accéder au raisonnement avancé et aux layouts visuels génératifs, tandis que les capacités multimodales interprètent le contenu audiovisuel et produisent des expériences dynamiques avec moins de consignes. Cette sortie renforce la position de Google dans la course à l’IA, apportant son modèle le plus intelligent aux produits clés et aux plateformes cloud, élevant le niveau de compréhension multimodale, de codage et d’opérations agentives à grande échelle.
Google stellt Gemini 3 vor: seine fortschrittlichste multimodale KI startet in Apps, Search und Cloud
Google hat Gemini 3 gestartet, ein neues multimodales KI-Modell, das Text, Bilder, Audio und Video in einem einzigen Fluss versteht und verarbeitet. Damit positioniert sich das Unternehmen mit seiner fortschrittlichsten Technologie, um interaktive und kontextbewusste Erlebnisse bereitzustellen. Das Modell bietet hochmoderne Reasoning-Fähigkeiten, verbesserte Absichtserkennung und Zuverlässigkeit bei komplexen Aufgaben und erzielt herausragende Werte in Tests für fortgeschrittene Mathematik, Naturwissenschaften und QA-Benchmarks. Ein neuer Deep-Think-Modus wird in den kommenden Wochen für Abonnenten höherer Stufen verfügbar sein. Die Einführung beginnt sofort in der Gemini-App und dem AI-Modus und zum ersten Mal wird ein Flaggschiffmodell am ersten Tag in Search verfügbar gemacht, mit breiterer US-Verfügbarkeit und höheren Limits für Abonnenten.
Gemini 3 erscheint mit Gemini 3 Pro und einem Kontextfenster von bis zu einer Million Tokens, das große Eingaben wie komplette Codebasen, lange Dokumente und audiovisuelle Inhalte verarbeiten kann und so die Tiefe und Kontinuität der Antworten in Unternehmens- und Entwickleranwendungen verbessert. Auf Vertex AI und Gemini Enterprise unterstützt das Modell agentische und programmierbezogene Funktionen für Systemmigrationen, Softwaretests und hochwertige Frontend-Generierung. Zudem werden visuelle Auflösungssteuerungen, strengere Validierungen von Denksignaturen und Funktionsausgaben eingeführt, die multimodale Objekte wie Bilder und PDFs enthalten können, um Latenz und Zuverlässigkeit in Tool-Workflows zu optimieren.
Google ermöglicht außerdem generative UI-Layouts, die Anfragen in interaktive Werkzeuge wie Simulatoren und Taschenrechner umwandeln, und erweitert die Query-Fan-Out-Funktion von Search, um zusätzliche differenzierte Fragen zu stellen, die die endgültige Antwort auf komplexe Prompts verbessern. Verbraucher können “Thinking: 3 Pro” auswählen, um auf fortgeschrittenes Reasoning und generative visuelle Layouts zuzugreifen, während multimodale Fähigkeiten audiovisuelle Inhalte interpretieren und dynamische Erlebnisse mit weniger Eingaben liefern. Mit dieser Veröffentlichung verstärkt Google seine Position im KI-Wettlauf, bringt sein intelligentestes Modell in Schlüsselprodukte und Cloud-Plattformen und hebt den Standard für multimodales Verständnis, Codierung und agentische Operationen in großem Maßstab an.