El modelo de inteligencia artificial resolvió cinco de seis problemas con razonamiento avanzado y pruebas rigurosas, cumpliendo todas las reglas del certamen.
Sídney, Australia – 21 de julio de 2025 — En un hito sin precedentes para la inteligencia artificial, Gemini Deep Think, el modelo de razonamiento matemático desarrollado por Google DeepMind, obtuvo una medalla de oro en la Olimpiada Internacional de Matemática (IMO, por sus siglas en inglés), al resolver correctamente cinco de los seis complejos problemas propuestos.
A diferencia de otros participantes del sector tecnológico, Google colaboró directamente con los organizadores del certamen para asegurar que su IA cumpliera estrictamente con las reglas del concurso, lo que refuerza la legitimidad del logro alcanzado.
“Confirmamos con la organización de la IMO que resolvimos cinco problemas perfectamente”, afirmó Thang Luong, científico senior de DeepMind y líder del equipo de competencia. “Aquellos que no siguieron este proceso podrían haber perdido puntos cruciales sin saberlo.”
Razonamiento paralelo y pruebas rigurosas
Este año, Google participó con una versión mejorada de su IA, Gemini Deep Think, diseñada para ejecutar múltiples líneas de razonamiento en paralelo antes de entregar una respuesta. A diferencia de modelos previos como AlphaProof o AlphaGeometry 2, Deep Think interpreta directamente problemas en lenguaje natural, sin necesidad de traducción técnica previa ni intervención humana al interpretar los resultados.
El equipo de DeepMind entrenó al modelo utilizando técnicas de aprendizaje reforzado con soluciones matemáticas “de largo aliento”, lo que permitió a la IA realizar deducciones paso a paso y generar pruebas completas, como lo exige el sistema de calificación de la IMO.
Una de las soluciones destacadas fue al Problema 3, en el que muchos estudiantes humanos aplicaron conceptos avanzados como el Teorema de Dirichlet. Deep Think, en cambio, identificó una solución brillante basada únicamente en teoría elemental de números, demostrando la profundidad de su entrenamiento.
Una competencia real, una IA a prueba
La IMO es conocida por su alto nivel de exigencia, incluso entre los mejores estudiantes del mundo. Solo un 8 % de los participantes humanos alcanzan una medalla de oro. Deep Think participó bajo las mismas condiciones y tiempo límite de 4.5 horas, demostrando su capacidad para competir en igualdad de condiciones.
Aunque el modelo falló una de las seis preguntas —la más difícil del certamen, según los expertos— el rendimiento general fue suficiente para asegurar la medalla dorada. Según el profesor Junehyuk Jung, investigador de DeepMind y académico de Brown University, el fallo se debió a una suposición inicial incorrecta: “Si partes de una hipótesis equivocada, es imposible llegar a la solución correcta.”
Un modelo con futuro
DeepMind anunció que esta versión de Gemini Deep Think continuará su desarrollo y actualmente se encuentra en fase de prueba con matemáticos de alto nivel. Se espera que pronto esté disponible para los suscriptores de Google AI Ultra, el plan premium que ofrece acceso a los modelos más avanzados de la compañía por $250 mensuales.
“Esta es una nueva frontera para la inteligencia artificial aplicada a las matemáticas”, concluyó Luong. “Volveremos el próximo año con la meta clara: resolver los seis problemas y lograr el puntaje perfecto.”
Con este logro, Google DeepMind refuerza su liderazgo en el uso responsable y riguroso de la inteligencia artificial en tareas cognitivas avanzadas, y marca un hito en el camino hacia IA con razonamiento explicativo confiable y verificable.
Fuente: Arstechnica