Blog de Leonardo Bringas

Se filtró el código de Claude Code

La industria de la inteligencia artificial alcanzó un punto de inflexión crítico el 31 de marzo de 2026, cuando una serie de errores de configuración operativa en Anthropic resultó en la exposición masiva del código fuente de su herramienta insignia de desarrollo, Claude Code. Este incidente, ocurrido justo antes de una API valorada en 380.000 millones de dólares, no solo reveló los secretos técnicos de uno de los sistemas agénticos más avanzados del mercado, sino que también desencadenó una reevaluación global de la seguridad en la cadena de suministro de software y de la naturaleza de la propiedad intelectual en la era de la IA generativa.

A través de un mapa de fuente (source map) publicado por error en el registro público de npm, la comunidad de desarrolladores obtuvo acceso a más de 512.000 líneas de código TypeScript, desglosadas en aproximadamente 1.900 archivos que conforman el “harness” o arnés agéntico que permite a los modelos de lenguaje de Anthropic operar de manera autónoma en entornos locales.

La Anatomía del Incidente: Mecanismo de Fuga y Cronología

El origen de la filtración no fue un ciberataque sofisticado ni una intrusión maliciosa de terceros, sino una falla fundamental en los procesos de empaquetado y liberación de software dentro de Anthropic. El 30 de marzo de 2026, la empresa publicó la versión 2.1.88 del paquete @anthropic-ai/claude-code en el registro de npm. Aunque el código de producción estaba minificado para mejorar el rendimiento, el paquete incluía inadvertidamente un archivo de mapa de fuente (source map) de 59,8 MB denominado cli.js.map. En el desarrollo de software moderno, estos archivos se utilizan para depurar errores, permitiendo que el código comprimido y ofuscado se asocie de nuevo con el código fuente original legible por humanos.

El origen de la filtración no fue un ciberataque sofisticado ni una intrusión maliciosa de terceros, sino una falla fundamental en los procesos de empaquetado y liberación de software dentro de Anthropic. El 30 de marzo de 2026, la empresa publicó la versión 2.1.88 del paquete @anthropic-ai/claude-code en el registro de npm. Aunque el código de producción estaba minificado para mejorar el rendimiento, el paquete incluía inadvertidamente un archivo de mapa de fuente (source map) de 59,8 MB denominado cli.js.map. En el desarrollo de software moderno, estos archivos se utilizan para depurar errores, permitiendo que el código comprimido y ofuscado se asocie de nuevo con el código fuente original legible por humanos.

La falla técnica específica se atribuye al uso de Bun como entorno de ejecución de JavaScript, una tecnología que Anthropic había integrado profundamente en su pila tecnológica tras adquirirla a finales de 2025. Por defecto, el empaquetador de Bun genera mapas de fuente a menos que se excluyan explícitamente mediante reglas de configuración o un archivo .npmignore. En este caso, una sola línea omitida en la configuración de exclusión permitió que el archivo cli.js.map hiciera referencia a un archivo comprimido alojado en un bucket de almacenamiento Cloudflare R2 de Anthropic. Al descargar este archivo, los investigadores pudieron reconstruir el árbol completo de TypeScript, con comentarios, estructuras de carpetas originales y lógica interna intacta.

El investigador de seguridad Chaofan Shou fue el primero en notar la anomalía el 31 de marzo a las 08:23 UTC. Su publicación en X (anteriormente Twitter) actuó como una bengala digital, atrayendo más de 28 millones de vistas en pocas horas y provocando una carrera desesperada por parte de Anthropic para mitigar el daño. A pesar de que la empresa eliminó el paquete afectado en cuestión de horas, el código ya había sido clonado y distribuido en plataformas descentralizadas y repositorios espejo de GitHub, donde acumuló decenas de miles de estrellas y bifurcaciones (forks) casi instantáneamente.

Cronología del Incidente (31 de Marzo de 2026)

Hora (UTC) Evento Clave
~01:00 Lanzamiento de la versión 2.1.88 con el archivo .map incluido.
08:23 Chaofan Shou identifica la fuga y publica el enlace de descarga en X.
10:00 Anthropic retira el paquete de npm y comienza la emisión de avisos DMCA.
12:00 Los espejos en GitHub superan las 40.000 bifurcaciones.
16:00 Sigrid Jin publica la versión inicial de “claw-code” en Python.
Tarde Anthropic confirma que no hubo exposición de datos de clientes ni pesos del modelo.

Análisis de la Arquitectura Filtrada: El Corazón de Claude Code

La filtración permitió a la industria observar por primera vez la complejidad real de lo que muchos consideraban inicialmente como un simple envoltorio (wrapper) de terminal para una API. Claude Code se reveló como un sistema de orquestación multi-agente de nivel de producción, diseñado para gestionar el determinismo y la fiabilidad en tareas de ingeniería de software complejas. La base de código está organizada en capas diferenciadas que gestionan desde la renderización de la interfaz de usuario en la terminal hasta la coordinación de múltiples instancias de IA trabajando en paralelo.

Capas del Sistema y Diseño de Ingeniería

La arquitectura de Claude Code se divide en cuatro capas críticas identificadas por los ingenieros que auditaron el código filtrado. En primer lugar, la capa de interfaz de usuario utiliza un sistema de renderizado personalizado basado en React e Ink, que emplea técnicas avanzadas de motores de juegos, como un pool de caracteres ASCII respaldado por Int32Array y metadatos de estilo codificados por bits. Esta optimización permite una reducción de 50 veces en las llamadas a funciones de ancho de cadena (stringWidth) durante la transmisión de tokens, lo cual es esencial para mantener la fluidez en la terminal mientras la IA genera código en tiempo real.

En segundo lugar, la capa de comandos utiliza Commander.js para gestionar una amplia gama de subcomandos y herramientas locales. Tercero, la capa de herramientas (tools layer) implementa una arquitectura de complementos modular donde cada capacidad —como la lectura de archivos, la ejecución de bash o la integración con git— está aislada y protegida por permisos. Finalmente, la capa de orquestación y agentes es la más sofisticada, gestionando colas de tareas y la generación de sub-agentes para la ejecución paralela.

Distribución del Código por Directorios

Directorio Archivos Líneas (Aprox.) Función Principal
utils/ 564 15.000 Funciones auxiliares y lógica compartida.
components/ 389 29.000 Componentes de la interfaz de terminal (Ink).
commands/ 207 12.000 Lógica de los comandos CLI.
tools/ 184 46.000 Interfaz con el sistema operativo y APIs.
coordinator/ 130 10.000 Gestión de agentes y tareas paralelas.
Total ~1.900 ~512.000 Arnés Agéntico Completo

Gestión de Memoria y Orquestación de Agentes

Uno de los hallazgos más profundos en la lógica interna es el sistema de memoria de tres capas. Este sistema utiliza un archivo central llamado MEMORY.md que almacena referencias cortas en lugar de información completa, obligando al agente a verificar cada hecho contra la base de código real antes de actuar. Este diseño de “desconfianza sistemática” es lo que permite a Claude Code evitar alucinaciones destructivas en grandes repositorios, ya que el agente trata su propia memoria solo como una pista y no como una verdad absoluta.

Además, el código reveló el uso de “enjambres” (swarms) internos, donde un agente coordinador puede generar múltiples agentes trabajadores con permisos específicos para realizar refactorizaciones multiactividad. Este enfoque de orquestación basado en gráficos acíclicos dirigidos (DAG) permite que las tareas complejas se descompongan en sub-problemas que se resuelvan simultáneamente, una técnica que Anthropic ha perfeccionado para superar las limitaciones de la ventana de contexto de los modelos individuales.

Funcionalidades Ocultas y el Roadmap Estratégico

Más allá de la arquitectura actual, la filtración expuso 108 módulos protegidos por banderas de características (feature flags) que no estaban activos en la versión pública, proporcionando una visión sin precedentes de la hoja de ruta de Anthropic. Entre estas funciones se encuentran sistemas de automatización avanzada y elementos de gamificación que buscan transformar la relación entre el desarrollador y su herramienta de IA.

KAIROS: El Agente Persistente

La funcionalidad codenamed “KAIROS” es descrita en el código como un asistente de fondo siempre activo. A diferencia de la interacción actual basada en solicitudes, KAIROS mantiene registros diarios de cambios en el entorno de desarrollo y puede realizar “tareas de ensueño” (dreamtasks) durante los periodos de inactividad del usuario. Estos procesos de consolidación de memoria permiten que la IA entienda la evolución de un proyecto a largo plazo, identificando inconsistencias arquitectónicas o sugerencias de optimización antes de que el desarrollador las solicite.

El Sistema Buddy y la Gamificación del Desarrollo

Una de las sorpresas más comentadas fue el sistema “Buddy”, un compañero virtual al estilo Tamagotchi integrado en la línea de estado de la terminal. Este sistema asigna a cada usuario una mascota ASCII única basada en un hash determinista de su ID de cuenta. Con 18 especies diferentes —incluyendo capibaras, dragones y fantasmas—, el sistema incluye una mecánica de rareza gacha y estadísticas que reaccionan al comportamiento del desarrollador.

Estadísticas de Buddy

Estadística Efecto en la Interacción
DEBUGGING Probabilidad de que la mascota señale errores de sintaxis.
PATIENCE Nivel de “tolerancia” antes de que la mascota muestre signos de cansancio.
CHAOS Frecuencia de animaciones ASCII inesperadas o comentarios sarcásticos.
WISDOM Calidad de las citas filosóficas o consejos arquitectónicos.
SNARK Nivel de sarcasmo en las respuestas reactivas.

La probabilidad de obtener una mascota “Legendaria Shiny” es de apenas 1 entre 10.000, lo que indica un intento de Anthropic por fomentar la retención de usuarios a través de elementos de colección. Aunque las notas internas sugieren que esta era una característica planificada para el Día de los Inocentes (April Fools) de 2026, la profundidad de la implementación —que incluye ciclos de parpadeo, fidgeting y reacciones emocionales a la resolución de errores— sugiere que Anthropic ve la gamificación como una capa clave para reducir la fricción en sesiones de codificación prolongadas.

Undercover Mode: El Sigilo de la IA

Una característica que generó debate ético fue el “Undercover Mode”. Este subsistema está diseñado para que la IA oculte su identidad al realizar contribuciones en repositorios públicos de GitHub. Las instrucciones del sistema encontradas en el código prohíben explícitamente a Claude mencionar codenames internos o dejar rastros que revelen que el código fue generado por una IA. El código contiene una comprobación para identificar a los empleados de Anthropic (USER_TYPE === 'ant'), activando automáticamente este modo para proteger la privacidad de sus ingenieros y evitar que la competencia rastree sus flujos de trabajo internos.

El Impacto de la Fuga de Claude Mythos y Capybara

Días antes de la filtración del código fuente de Claude Code, Anthropic sufrió otro incidente relacionado con una mala configuración en su sistema de gestión de contenidos (CMS). Este error expuso borradores de anuncios para un nuevo modelo de IA llamado “Claude Mythos”, perteneciente a un nivel de modelo superior denominado “Capybara”. Los documentos filtrados describen a Mythos como un “cambio radical” (step change) en el rendimiento, superando significativamente a Claude Opus 4.6 en tareas de ciberseguridad, razonamiento académico y programación.

La noticia de un modelo con capacidades de explotación de vulnerabilidades sin precedentes provocó una caída masiva en el valor de las acciones de las principales empresas de ciberseguridad. El mercado reaccionó con temor ante la posibilidad de que una IA capaz de detectar y explotar fallos a una velocidad superior a los defensores humanos pudiera volver obsoletas las soluciones de seguridad tradicionales.

Impacto en el Mercado (27 de Marzo de 2026)

Empresa de Ciberseguridad Caída Pérdida de Capitalización
Palo Alto Networks (PANW) -6,43% $7.500 Millones
CrowdStrike (CRWD) -5,85% $5.500 Millones
Zscaler (ZS) -5,89% $1.350 Millones
Tenable (TENB) -9,70%
Impacto Total Estimado $14.500 Millones

Anthropic confirmó la existencia del modelo Mythos, pero enfatizó que su lanzamiento se manejaría con “extrema precaución”, priorizando el acceso para organizaciones de ciberdefensa antes que una disponibilidad general. Sin embargo, la filtración del código de Claude Code reveló que la CLI ya estaba siendo preparada para integrarse con estos modelos de razonamiento avanzado, confirmando que la infraestructura de la herramienta está diseñada para ser compatible con potentes motores de IA que pueden planificar y ejecutar secuencias de acciones de forma autónoma.

Reacción de la Empresa y Estrategia de Contención

Ante la magnitud de la fuga, Anthropic implementó una estrategia de contención agresiva centrada en la protección de su propiedad intelectual y la seguridad de sus usuarios. Un portavoz de la empresa subrayó que no se comprometieron credenciales de clientes ni pesos del modelo, calificando el incidente como un “problema de empaquetado de lanzamiento causado por error humano”.

El Dilema del DMCA y la Propiedad Intelectual

Anthropic emitió miles de avisos de eliminación bajo la Ley de Derechos de Autor del Milenio Digital (DMCA) para intentar borrar los espejos del código en GitHub. No obstante, esta táctica se enfrentó a un desafío legal inesperado: Anthropic ha declarado públicamente que el 90% del código de Claude Code fue generado por la propia IA. Bajo la interpretación actual de las leyes de derechos de autor en Estados Unidos y otros países, el trabajo generado por IA carece de un autor humano y, por lo tanto, podría no ser elegible para la protección de copyright.

Este vacío legal fue aprovechado por desarrolladores para realizar “reimplementaciones de sala limpia” (clean-room rewrites). El caso más notable es el del desarrollador surcoreano Sigrid Jin, quien en apenas ocho horas reescribió la arquitectura central de Claude Code en Python, lanzando el proyecto “claw-code”. Dado que Jin utilizó herramientas de orquestación de IA para replicar los patrones arquitectónicos sin copiar directamente los archivos TypeScript originales, su proyecto se considera una obra creativa nueva y, teóricamente, es inmune a las reclamaciones de copyright tradicionales.

Transición hacia Instaladores Nativos

Como medida de seguridad a largo plazo, Anthropic comenzó a desaconsejar el uso de npm para la instalación de sus herramientas, promoviendo en su lugar instaladores nativos basados en binarios firmados y distribuidos directamente a través de sus propios canales. Este cambio busca evitar la volatilidad de la cadena de suministro de npm, que durante la misma semana de la filtración sufrió un ataque separado que afectó a la biblioteca axios, una dependencia de Claude Code.

Acciones de los Usuarios y la Comunidad de Desarrolladores

La comunidad reaccionó con una mezcla de curiosidad técnica y oportunismo pragmático. Miles de desarrolladores descargaron el código no solo para entender cómo Anthropic construye sus agentes, sino también para crear versiones modificadas que eliminan las restricciones impuestas por la empresa.

Proyectos como “free code” han surgido con el objetivo de eliminar la telemetría y los guardrails, permitiendo que Claude Code se conecte a modelos de competidores o ejecute comandos de bash sin la supervisión de seguridad estándar. Otros grupos se dedicaron a auditar la seguridad del código, descubriendo que el 3,2% de los commits realizados con la ayuda de Claude Code contenían fugas accidentales de secretos o credenciales, una tasa significativamente superior al promedio de la industria del 1,5%.

El Fenómeno de claw-code

El proyecto “claw-code” de Sigrid Jin se convirtió en el repositorio de mayor crecimiento en la historia de GitHub, superando las 100.000 estrellas en tiempo récord. Este fenómeno demuestra cómo la velocidad de la comunidad puede superar a los departamentos legales de las grandes empresas tecnológicas. La existencia de una versión funcional en Rust y Python garantiza que la lógica operativa de Claude Code permanecerá accesible de forma permanente, independientemente de los esfuerzos de Anthropic por eliminar los archivos originales.

Comparativa de Ecosistemas

Claude Code (Oficial) Claw-code (Comunidad)
Lenguaje Principal TypeScript Python / Rust
Modelo de Distribución Cerrado (npm/Binary) Abierto (GitHub)
Estado Legal Copyright en disputa Obra nueva / Sala limpia
Soporte de Modelos Solo Claude Multi-modelo (OpenAI, Qwen, etc.)
Funciones Experimentales Bloqueadas por banderas Desbloqueadas por defecto

Implicaciones Críticas para la Seguridad Empresarial

La exposición de 512.000 líneas de código ha proporcionado a los actores de amenazas un mapa detallado de cómo atacar los sistemas que utilizan agentes de IA. Los investigadores de seguridad han identificado varios vectores de ataque que las empresas que implementan estos agentes deben mitigar de inmediato.

Envenenamiento de Contexto y Permisos de Bash

Un riesgo crítico identificado es el “envenenamiento de contexto” a través del archivo CLAUDE.md. Los agentes como Claude Code confían plenamente en las instrucciones contenidas en estos archivos de configuración del proyecto. Un atacante podría insertar directivas maliciosas en un repositorio público que, al ser clonado y analizado por el agente de un desarrollador, podrían forzar la exfiltración de datos o la ejecución de comandos de bash peligrosos sin el consentimiento explícito del usuario.

Además, la filtración reveló que muchos desarrolladores tienden a otorgar permisos amplios de ejecución de comandos por comodidad, lo que, combinado con la capacidad de la IA para operar de forma autónoma, crea una superficie de ataque masiva para el movimiento lateral dentro de las redes corporativas. Expertos de firmas como CrowdStrike han advertido que el “problema de permisos” expuesto en la filtración refleja un patrón peligroso en la adopción empresarial de agentes.

Recomendaciones Estratégicas para Líderes de Seguridad

Tras el análisis de la filtración, se han propuesto cinco acciones inmediatas para los líderes de seguridad en empresas que utilizan agentes de codificación de IA:

  1. Auditoría de Configuración: Revisar todos los archivos CLAUDE.md y .claude/config.json en repositorios clonados para detectar instrucciones de inyección de prompts.
  2. Tratamiento de Servidores MCP: Considerar los servidores de Model Context rotocol como dependencias no confiables, monitoreando sus conexiones salientes.
  3. Restricción de Bash: Desactivar la aprobación automática de comandos de shell y limitar el acceso del agente a directorios críticos del sistema.
  4. Escaneo de Secretos: Implementar escaneos de pre-commit para evitar que los agentes filtren credenciales de servicios de IA, una vulnerabilidad que ha crecido un 81% año tras año.
  5. Rotación de Credenciales: Para cualquier equipo que haya actualizado Claude Code a través de npm durante la ventana crítica del 31 de marzo, se recomienda rotar todas las claves de API y considerar la reinstalación de los sistemas operativos si se detectan paquetes sospechosos en los lockfiles.

Conclusiones: El Futuro de la IA Agéntica Post-Filtración

La filtración de Claude Code no es simplemente un error de empaquetado; es un evento que ha democratizado el conocimiento sobre la construcción de agentes de IA de alto rendimiento. Anthropic, a pesar de sus esfuerzos de contención, ha perdido el monopolio sobre la “artesanía” de su orquestación agéntica. La disponibilidad del código fuente permite que competidores y startups repliquen en semanas lo que a Anthropic le tomó años y miles de millones de dólares desarrollar.

Sin embargo, el incidente también ha humanizado a una de las empresas de IA más valoradas del mundo. El descubrimiento de un código lleno de TODOs, hacks para dependencias circulares y mascotas virtuales Snarky ha resonado con la comunidad de desarrolladores, quienes ahora ven a Anthropic no como una entidad infalible, sino como un equipo de ingenieros que lidia con la deuda técnica y la presión del mercado de la misma manera que ellos.

A largo plazo, esta filtración podría forzar a la industria a moverse hacia una mayor transparencia y estandarización de los protocolos agénticos. Con el arnés de Claude Code ahora en el dominio público de facto, es probable que surja un nuevo estándar de código abierto para agentes, basado en las lecciones arquitectónicas aprendidas de esta exposición accidental. La era de los agentes de IA cerrados y misteriosos está llegando a su fin, dando paso a un ecosistema donde la verdadera diferenciación no residirá en la orquestación superficial, sino en la capacidad bruta de razonamiento de los modelos subyacentes y en la robustez de sus medidas de seguridad.

Referencias

  1. Claude Code Leaked Source: BUDDY, KAIROS & Every Hidden Feature Inside, fecha de acceso: abril 2, 2026
  2. Claude Code's Source Code Appears to Have Leaked—Here's What We Know, VentureBeat, fecha de acceso: abril 2, 2026
  3. Source Code for Anthropic's Claude Code Leaks at the Exact Wrong Time, Gizmodo, fecha de acceso: abril 2, 2026
  4. The Claude Code Leak: 512,000 Lines of TypeScript and What They Reveal, Medium, fecha de acceso: abril 2, 2026
  5. Claude Code Leak. On March 30, 2026, Anthropic published… | by Onix React | Apr, 2026, fecha de acceso: abril 2, 2026
  6. What Claude Code's Source Leak Actually Reveals | by Marc Bara - Medium, fecha de acceso: abril 2, 2026
  7. Anthropic confirms @anthropic-ai/claude-code 2.1.88 npm leak on March 31, 2026 - BingX, fecha de acceso: abril 2, 2026
  8. Anthropic Claude Code Leak | ThreatLabz, fecha de acceso: abril 2, 2026
  9. The Day Anthropic Accidentally Open-Sourced Their Crown Jewel | by Sachin Sharma | Cloud & Business Transformation | Apr, 2026 | DevSecOps & AI - Medium, fecha de acceso: abril 2, 2026
  10. The Claude Code leak in four charts: half a million lines, three accidents, forty tools, fecha de acceso: abril 2, 2026
  11. Claude Code Leaked Source: BUDDY, KAIROS & Every Hidden Feature Inside, fecha de acceso: abril 2, 2026
  12. Anthropic accidentally exposes Claude Code secrets for second time in a week, fecha de acceso: abril 2, 2026
  13. Anthropic Claude source code leak explained: Techie reveals how a 4 am update exposed 512,000 lines of code, fecha de acceso: abril 2, 2026
  14. Claude Code Source Code "Rebranded" Amid Wild Web Cloning, Anthropic's Blocking Attempt Fails -, fecha de acceso: abril 2, 2026
  15. Anthropic's AI Agent Claude leak that it termed 'human error' has exposed commercially, fecha de acceso: abril 2, 2026
  16. Found the hidden pet system in the Claude Code leak — it's a full gacha with shinies : r/ClaudeAI - Reddit, fecha de acceso: abril 2, 2026
  17. Anthropic Accidentally Leaked Claude Code's Source—The Internet Is Keeping It Forever, fecha de acceso: abril 2, 2026
  18. Anthropic Just Leaked Upcoming Model With "Unprecedented Cybersecurity Risks" in the Most Ironic Way Possible, fecha de acceso: abril 2, 2026
  19. Meet Claude Mythos: Anthropic accidentally leaks unreleased AI model with severe cybersecurity risks, fecha de acceso: abril 2, 2026
  20. What is Anthropic Claude Mythos? Everything to know about viral leaked AI model that set alarms in cybersecurity, fecha de acceso: abril 2, 2026
  21. In the wake of Claude Code's source code leak, 5 actions enterprise security leaders should take now | VentureBeat, fecha de acceso: abril 2, 2026
  22. Leaked Claude Code source spawns GitHub's fastest repo | Cybernews, fecha de acceso: abril 2, 2026

Sobre mí

Soy Leonardo Bringas y este es mi blog personal.

Leonardo Bringas

Actualmente estoy en un año sabático, trabajando y preparándome para iniciar mi carrera en Ingeniería en Informática. Me apasiona la programación y dedico gran parte de mi tiempo a aprender y construir proyectos propios.

Últimamente he estado enfocando mi aprendizaje en: JavaScript, Python, LLMs y el uso de IA.

Vivo en Buenos Aires, Argentina. Entre mis metas a largo (larguísimo) plazo está mudarme para ganar independencia mientras continúo con mi formación profesional y laboral.

En mi tiempo libre me mantengo activo haciendo ejercicio, leyendo o codeando. Además, participo activamente en mi iglesia local, Iglesia Restauración; busco "cuidar mi mente y mi corazón" (Prov 4:23) a través de la Biblia y de información que me ayude a crecer integralmente.

Uso la Inteligencia Artificial como una herramienta más en mi día a día, aunque prefiero la eficiencia: "Sin explicaciones, solo responde."

Si querés ver en qué estoy trabajando, podés revisar mi GitHub. También me encontrás en Threads, X/Twitter y Instagram, o escribime a: leonardo [at] leonardobringas [dot] com.