Cofundador de OpenAI, advierte sobre los riesgos de dejar actuar a la IA sin supervisión

En una advertencia clara al mundo tecnológico, Andrej Karpathy, cofundador de OpenAI, instó a la comunidad de desarrolladores a mantener la inteligencia artificial “bajo control” […]

Actualidad
Tecnología

ESCRITO POR

Comunicación LinkSpace

ACTUALIZADO

20 de junio, 2025

En una advertencia clara al mundo tecnológico, Andrej Karpathy, cofundador de OpenAI, instó a la comunidad de desarrolladores a mantener la inteligencia artificial “bajo control” y a no dejarse llevar por la emoción de sus capacidades aparentes. En su presentación principal durante un evento de Y Combinator, Karpathy expresó que los modelos actuales de IA, a pesar de sus avances, aún cometen errores que ningún ser humano cometería.

Modelos potentes pero imperfectos

Durante su intervención, Karpathy comparó a los modelos de lenguaje (LLM) con “espíritus humanos”: simulaciones inteligentes que aún alucinan datos, olvidan información crítica y carecen de conciencia propia.

“Insisten en que 9.11 es mayor que 9.9 o que hay dos ‘r’ en strawberry”, ejemplificó Karpathy, señalando lo errático que puede ser el comportamiento de estos sistemas. “Pueden ser superhumanos en ciertos dominios de resolución de problemas y luego fallar en algo que ningún humano se equivocaría”.

Supervisión, no automatización ciega

Aunque reconoció la capacidad de los LLMs para generar miles de líneas de código en segundos, Karpathy enfatizó que los desarrolladores siguen siendo el “cuello de botella” necesario para evitar errores críticos. “Esto puede ser útil, pero hay que asegurarse de que no introduzca fallas. Se vuelve demasiado reactivo”, dijo.

Recomendó adoptar un enfoque de desarrollo más lento y controlado:

“Trabajo en pequeños bloques incrementales. Siempre quiero asegurarme de que todo esté bien antes de avanzar”.

La importancia de los prompts concretos

Karpathy también alentó a la comunidad a ser más precisa al generar instrucciones para la IA, destacando que los prompts concretos aumentan la probabilidad de resultados útiles y verificables.

“Vale la pena tomarse el tiempo para ser específico. Eso facilita la validación y te permite avanzar de forma segura”.

En febrero, Karpathy acuñó el término vibe coding para describir el acto de usar la intuición al generar código con IA, aunque ahora advierte que ese enfoque solo debe usarse con criterio.

Advertencias similares desde la comunidad tecnológica

Otros referentes del sector respaldan esta necesidad de cautela. Bob McGrew, exdirector de investigación de OpenAI, recordó esta semana que la supervisión humana sigue siendo esencial, especialmente cuando un proyecto se vuelve demasiado complejo para la IA.

Por su parte, Kent Beck, coautor del Agile Manifesto, comparó la IA con un genio de los cuentos:

“Cumple tus deseos, pero no necesariamente como tú esperas. Tiene su propia agenda”.

Beck subrayó que la inconsistencia de los resultados puede convertir el uso de la IA en programación en una apuesta riesgosa.

A pesar de todo, la industria sigue apostando por la IA

Pese a las advertencias, el entusiasmo por la IA en la programación no cede. Según el CEO de Alphabet, Sundar Pichai, más del 30% del nuevo código generado por la compañía ya es escrito por IA, frente al 25% del año anterior.

Conclusión: entusiasmo con responsabilidad

El mensaje de Karpathy es claro: la inteligencia artificial es una herramienta poderosa, pero no infalible. Su uso debe ir acompañado de responsabilidad, supervisión constante y un entendimiento claro de sus limitaciones.

Fuente: Business Insider