Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
#ClaudeCode500KCodeLeak
#ClaudeCode500KCodeLeak — La historia interna de cómo Anthropic expuso accidentalmente su propia herramienta de IA
Fecha: 31 de marzo de 2026
¿Qué ocurrió?
El 31 de marzo de 2026, Anthropic expuso involuntariamente el código fuente interno de su asistente de codificación de IA, Claude Code, debido a un error simple pero crítico en el empaquetado.
La compañía publicó la versión 2.1.88 en el registro NPM, pero la versión incluía un gran archivo de mapa de origen (cli.js.map). Este archivo contenía el código fuente completo en TypeScript que respalda la herramienta CLI compilada.
Como resultado:
Más de 512,000 líneas de código
En casi 1,900 archivos
Se volvieron accesibles públicamente
No hubo exploit, ni brecha, ni hacking — solo un proceso de instalación normal.
Cómo ocurrió realmente la filtración
El problema se debió a una simple omisión en DevOps:
Una herramienta de construcción generó automáticamente un archivo de mapa de origen
El archivo .npmignore no lo excluyó
El mapa de origen contenía el código fuente completo en línea
También hacía referencia a un bucket de almacenamiento accesible públicamente
Esto creó un camino directo: Instalar → Extraer → Reconstruir → Acceder a toda la base de código
La filtración permaneció activa durante unas 3 horas, tiempo suficiente para que se difundiera globalmente.
¿Qué había dentro del código?
No era solo código aleatorio — revelaba toda la arquitectura de un sistema moderno de codificación con IA.
Estructura del sistema
~1,906 archivos en TypeScript
Arquitectura modular con comandos, herramientas, servicios, hooks y plugins
Alrededor de 180+ módulos internos
Esto demostraba que Claude Code es un sistema de desarrollo completo, no solo un simple envoltorio alrededor de una API.
Comandos internos ocultos
Se descubrieron varios comandos que nunca fueron documentados públicamente:
/ultraplan → flujos de trabajo de razonamiento avanzado
/ctx_viz → visualización del contexto
/security-review → revisiones de seguridad automatizadas
/debug-tool-call → depuración interna
/ant-trace → sistema de trazado
/heapdump → diagnósticos de memoria
Estos revelan capacidades internas mucho más allá de las funciones estándar para usuarios.
Diseño de seguridad
Uno de los hallazgos más sorprendentes fue el nivel de protección incorporada:
Validación en múltiples capas para la ejecución de comandos
Restricciones en sandbox para la seguridad del sistema
Controles estrictos de permisos para el acceso a archivos
Manejo de comandos multiplataforma
Esto confirma que las herramientas de IA modernas están construidas con ingeniería de seguridad seria, no solo con funcionalidad.
Monitoreo y seguimiento del comportamiento del usuario
El código también reveló sistemas internos de seguimiento:
Monitoreo de rendimiento y uso
Sistemas de banderas de funciones
Detección de frustración y profanidades en las entradas del usuario
Esto planteó importantes preguntas sobre transparencia: los usuarios no estaban completamente conscientes de cómo podrían analizarse sus interacciones.
Sistema no lanzado: KAIROS
El mayor descubrimiento fue un sistema de agente de fondo no lanzado llamado KAIROS, que incluía:
Procesos de fondo en ejecución continua
Sistemas de memoria ("autoDream")
Notificaciones y actualizaciones
Seguimiento automático de repositorios
Esto sugiere un cambio importante hacia: agentes de IA que operan continuamente, no solo por comando
Qué NO se filtró
A pesar de la escala, componentes críticos permanecieron seguros:
No se compartieron pesos del modelo
No se compartieron datos de entrenamiento
No se compartieron datos de usuarios
No se compartieron claves API
La capa de inteligencia permaneció protegida en los servidores.
Qué tan rápido se difundió
La respuesta de internet fue inmediata:
Ventana de filtración: ~3 horas
Miles de descargas en minutos
Los repositorios de GitHub obtuvieron decenas de miles de estrellas y forks
Millones de vistas en archivos compartidos
Una vez expuesto, el código se difundió demasiado rápido para contenerlo.
Respuesta de Anthropic
Anthropic confirmó brevemente el incidente, afirmando que el código interno fue incluido en una versión, pero que no se vieron afectados datos de usuarios.
No hubo:
Escalada legal importante
Desglose técnico detallado publicado de inmediato
La respuesta fue mínima y controlada.
Por qué esto importa
Para la industria
Esta filtración reveló cómo se construyen realmente las herramientas de codificación con IA avanzada — algo que rara vez es visible en un espacio competitivo.
Para los desarrolladores
Mostró:
Que los sistemas de IA del mundo real son altamente complejos
Que la arquitectura importa tanto como los modelos de IA
Que las herramientas están evolucionando hacia ecosistemas completos
Para la transparencia en IA
El descubrimiento de sistemas de monitoreo ocultos plantea preocupaciones importantes:
¿Qué datos se rastrean?
¿Cómo se analiza el comportamiento del usuario?
¿Qué deben divulgar las empresas?
Lección clave para los desarrolladores
Toda esta situación se redujo a una regla de configuración que faltaba.
Mejores prácticas:
Excluir archivos .map en producción
Verificar siempre los paquetes antes de publicar
Desactivar mapas de origen en compilaciones de lanzamiento
Usar verificaciones automatizadas en CI/CD
Los pequeños errores pueden llevar a una exposición masiva.
Resumen
El #ClaudeCode500KCodeLeak no fue un ciberataque — fue un simple error interno con consecuencias enormes.
Cientos de miles de líneas de código interno, sistemas ocultos y funciones orientadas al futuro ahora están disponibles permanentemente en línea.
En una industria construida sobre el secreto, este incidente hizo algo raro:
Reveló cómo se diseñan realmente las herramientas de IA modernas tras bambalinas.
Y eso lo convierte en un momento definitorio — no solo un accidente, sino un estudio de caso a largo plazo para desarrolladores, empresas y todo el ecosistema de IA.