En lo que se describe como una «hemorragia estratégica» de propiedad intelectual, Anthropic ha filtrado accidentalmente el código fuente de Claude Code, su herramienta de IA agéntica más lucrativa. El incidente, ocurrido el 31 de marzo de 2026, dejó al descubierto más de 512,000 líneas de código TypeScript, revelando los secretos técnicos que han permitido a este producto alcanzar una facturación anual (ARR) de $2,500 millones de dólares.
El error: Un archivo de depuración en el registro público
La filtración no fue un hackeo, sino un error de empaquetado. La versión 2.1.88 del paquete @anthropic-ai/claude-code incluyó inadvertidamente un archivo de mapa de fuente (.map) de 59.8 MB en el registro público de npm. Aunque Anthropic eliminó el archivo rápidamente, la comunidad de desarrolladores ya había clonado y comenzado a analizar la arquitectura interna del agente.
Revelaciones técnicas: El «Blueprint» del éxito
El análisis del código filtrado ha revelado soluciones a problemas críticos de la IA que hasta ahora eran secretos comerciales:
- Arquitectura de Memoria de Tres Capas: Anthropic resolvió la «entropía de contexto» (donde la IA se confunde en sesiones largas) mediante un sistema de memoria que no almacena datos, sino «punteros» a ubicaciones específicas del código, tratando su propia memoria con escepticismo y verificando datos constantemente.
- Modo KAIROS: Se descubrió la existencia de un «demonio autónomo» que permite a Claude trabajar en segundo plano mientras el usuario no está, consolidando ideas y limpiando el contexto para evitar contradicciones.
- Hoja de Ruta Interna: El código confirma nombres en clave para futuros modelos: Capybara (Claude 4.6), Fennec (Opus 4.6) y el misterioso Numbat. Curiosamente, los comentarios internos admiten una tasa de «afirmaciones falsas» del 29-30% en las versiones actuales de Capybara.
«Modo Incógnito»: Contribuciones silenciosas a Open Source
Uno de los hallazgos más polémicos es el «Undercover Mode». El código revela que Anthropic utiliza a Claude para realizar contribuciones a repositorios públicos de código abierto sin revelar que es una IA. El sistema instruye al modelo explícitamente: «Estás operando de forma encubierta… no reveles tu identidad», una función que probablemente sea altamente demandada por empresas que buscan anonimato en sus desarrollos asistidos.
Alerta de seguridad para usuarios
Más allá del robo de IP, la filtración expone a los usuarios a riesgos inmediatos:
- Vulnerabilidad de Orquestación: Al conocerse la lógica interna, atacantes pueden diseñar repositorios maliciosos para engañar a Claude y ejecutar comandos en segundo plano sin pedir permiso.
- Ataque a la Cadena de Suministro: Se detectó una versión maliciosa de la dependencia
axios(RAT) coincidente con la ventana de la filtración.
Recomendación de LinkSpace: Se insta a todos los usuarios a migrar de la instalación vía npm al Instalador Nativo oficial de Anthropic (install.sh), que utiliza binarios independientes y es más resistente a ataques de cadena de suministro.
Impacto en el Mercado
Con un 80% de sus ingresos provenientes del sector corporativo, esta filtración nivela el campo de juego. Competidores como Cursor o gigantes establecidos tienen ahora un manual detallado de cómo Anthropic logró duplicar sus ingresos en solo tres meses. El «Capybara» ha salido del laboratorio, y la carrera por la autonomía digital acaba de recibir un impulso inesperado de inteligencia colectiva.
Fuente: VentureBeat

.png)

