Montreal, Canadá, 8 de octubre de 2025. – En un avance que desafía la tendencia hacia modelos de inteligencia artificial cada vez más masivos, Alexia Jolicoeur-Martineau, investigadora sénior en el Instituto Avanzado de Tecnología de Samsung (SAIT), ha presentado el Tiny Recursive Model (TRM), un modelo de razonamiento abierto que está sorprendiendo a la comunidad científica.
Con solo 7 millones de parámetros, TRM logra igualar o superar el rendimiento de modelos 10.000 veces más grandes, como o3-mini de OpenAI o Gemini 2.5 Pro de Google, en tareas de razonamiento lógico y abstracto. El modelo y su código ya están disponibles de forma abierta en GitHub bajo una licencia MIT, permitiendo su uso y adaptación por parte de investigadores y empresas.
“La idea de que solo los modelos gigantes pueden resolver problemas complejos es una trampa”, afirmó Jolicoeur-Martineau. “Con el razonamiento recursivo, menos es más”.
Enfoque recursivo
A diferencia de los grandes modelos de lenguaje que dependen de miles de millones de parámetros y enormes recursos computacionales, TRM utiliza un enfoque recursivo, refinando sus propias respuestas de forma iterativa hasta alcanzar soluciones precisas. Esta técnica permite que una red pequeña simule la profundidad y complejidad de modelos mucho más grandes sin necesidad de un gran consumo de energía o hardware.
El modelo se ha destacado en problemas visuales y estructurados como Sudoku, laberintos y los desafiantes rompecabezas del benchmark ARC-AGI, alcanzando niveles de precisión que superan el 85 %. Estos resultados sugieren que la clave del progreso en IA podría estar en la recursión y la eficiencia, no necesariamente en la escala.
IA avanza hacia modelos accesibles y sostenibles
El enfoque minimalista de TRM marca una ruptura con el paradigma actual de la industria, dominado por arquitecturas enormes y costosas. Su diseño —basado en solo dos capas y un ciclo interno de autoevaluación— demuestra que la inteligencia artificial puede avanzar hacia modelos más accesibles, sostenibles y reproducibles.
La comunidad científica ha recibido el modelo con entusiasmo y cautela: algunos lo ven como un hito hacia una IA más eficiente y abierta; otros advierten que su dominio sigue siendo limitado a entornos controlados. Sin embargo, todos coinciden en que TRM redefine las posibilidades del razonamiento artificial.
“El progreso en IA no tiene por qué depender de modelos cada vez más grandes”, concluye Jolicoeur-Martineau. “A veces, enseñar a una red pequeña a pensar con cuidado puede ser más poderoso que forzar a una red grande a pensar una sola vez”.
Fuente: VentureBeat