Imago Noticias
Polémica adaptación de Cumbres Borrascosas: el debate que divide a fans y críticos
George Russell domina los tests de F1 con 45 vueltas completadas
Día Internacional del Síndrome de Asperger: claves para comprender y acompañar
Tragedia en los Alpes: avalanchas mortales dejan más de 60 muertos en la temporada
Stellantis frena la producción en El Palomar hasta marzo: qué modelos se ven afectados
20/02/2026 17:08 • Tecnologia
Google ha dado un paso decisivo en la carrera de la inteligencia artificial con el lanzamiento de Gemini 3.1 Pro, un modelo diseñado para abordar tareas que van mucho más allá de las simples respuestas conversacionales. Presentado el 19 de febrero de 2026, este nuevo integrante de la familia Gemini promete revolucionar la forma en que desarrolladores y empresas resuelven problemas complejos.
Las pruebas independientes confirman el salto cualitativo de Gemini 3.1 Pro. En el exigente test "Humanity's Last Exam", diseñado para evaluar capacidades de razonamiento avanzado, el modelo alcanzó 44,4% y 51,4% según la metodología aplicada, superando claramente a GPT-5.2 de OpenAI y Sonnet 4.6 de Anthropic.
En la prueba ARC-AgI-2, que mide razonamiento abstracto y resolución de problemas, Gemini 3.1 Pro logró un destacado 77,1%, posicionándose como líder indiscutido en análisis complejo.
A diferencia de modelos anteriores enfocados en autocompletar código o generar respuestas simples, Gemini 3.1 Pro implementa un paradigma "agent-first" que le permite:
Google demostró capacidades impresionantes en escenarios prácticos. En uno de los ejemplos, Gemini 3.1 Pro fue capaz de realizar una migración compleja de bases de datos, produciendo evaluación de riesgos detallada, diseñando un motor de sincronización Local-First y proponiendo estrategias de resolución de conflictos para evitar pérdida de datos.
Otro caso notable mostró cómo el modelo puede ingerir documentos técnicos en PDF y convertirlos en simulaciones interactivas con sincronización en tiempo real, cerrando la brecha entre investigación académica y software funcional.
| Test | Gemini 3.1 Pro |
|---|---|
| Humanity's Last Exam | 44,4% - 51,4% |
| ARC-AgI-2 | 77,1% |
| APEX-Agents | #1 Ranking |
Fuente: Google y Mercor
Es un sistema de evaluación que mide el rendimiento de modelos de IA en tareas profesionales reales. Brendan Foody, CEO de Mercor, confirmó que Gemini 3.1 Pro lidera este ranking.
El lanzamiento se produce en un momento de intensa competencia en el sector de la inteligencia artificial. Compañías como OpenAI y Anthropic han acelerado el desarrollo de modelos enfocados en trabajo agente y razonamiento multistep, obligando a Google a innovar constantemente.
Con Gemini 3.1 Pro, Google reafirma su compromiso de liderar el sector, ofreciendo una herramienta que no solo escribe código, sino que piensa estratégicamente sobre cómo estructurarlo, escalarlo y mantenerlo.