La empresa estadounidense de investigación en IA, Anthropic, reveló un hallazgo que marca un punto de inflexión en la historia del cibercrimen: la primera campaña global de ciberespionaje conducida mayoritariamente por inteligencia artificial, con mínima intervención humana y presuntamente patrocinada por el régimen chino. Con información de Expansión.
De acuerdo con el informe “Disrupting the first reported AI-orchestrated cyber espionage campaign”, publicado el 13 de noviembre, la operación fue atribuida al grupo GTM-1002, que habría utilizado a Claude Code —el asistente de programación de Anthropic— para automatizar entre el 80% y el 90% del ciclo táctico del ataque.
La campaña, ejecutada en septiembre, apuntó a 30 objetivos estratégicos: grandes compañías tecnológicas, instituciones financieras, empresas químicas y agencias gubernamentales en distintos países. El objetivo era uno: infiltrarse, escalar privilegios y extraer información altamente sensible con una velocidad que ningún equipo humano podría igualar.
Un ataque autónomo disfrazado de auditoría legítima
Según la investigación, los operadores engañaron al sistema para que ejecutara acciones maliciosas bajo la apariencia de pruebas de ciberseguridad. Dos técnicas fueron clave:
• “Role-playing”: Claude fue inducido a creer que era un empleado de una firma legítima de seguridad que realizaba auditorías defensivas.
• Fragmentación: los atacantes dividieron el ataque en tareas pequeñas y aparentemente inocuas, evitando que la IA entendiera el propósito malicioso completo.
Con este método, la IA realizó un reconocimiento casi autónomo de la infraestructura de cada objetivo, mapeó sus redes internas, identificó sistemas críticos y localizó vulnerabilidades. Posteriormente, generó exploits personalizados, evaluó su efectividad y avanzó por las redes para recolectar credenciales y clasificar accesos por niveles de privilegio.
La exfiltración de datos —la fase final— fue una de las pocas etapas en las que los humanos intervinieron para autorizar los movimientos críticos.
Velocidad sin precedentes… y fallas propias de la IA
Anthropic destacó que la campaña operó a una velocidad imposible para hackers humanos, un anticipo del impacto que tendrá la autonomía de la IA en operaciones ofensivas. Sin embargo, también detectaron que Claude, actuando sin supervisión, exageró hallazgos o llegó a inventar datos. Estas “alucinaciones” obligaron al grupo atacante a validar resultados, mostrando que, por ahora, la IA no reemplaza completamente al operador humano.
La empresa bloqueó el acceso del grupo a mediados de septiembre y notificó a las organizaciones afectadas —cuyos nombres no reveló—, además de contactar a las autoridades.
Una señal de alerta global
Anthropic advirtió que este tipo de operaciones será cada vez más sofisticado y eficaz, a medida que los modelos de IA avancen en autonomía y precisión. Por ello, la compañía reforzó sus sistemas de detección de comportamientos anómalos y trabaja en nuevos métodos para identificar campañas distribuidas y a gran escala.
El caso GTM-1002, además de exponer la fragilidad del entorno digital global, demuestra que la próxima generación del ciberespionaje ya no será protagonizada por humanos, sino por algoritmos capaces de aprender, adaptarse y ejecutar ataques en cadena a velocidades abrumadoras.
Un precedente que redefine la seguridad nacional, la ciberdefensa corporativa y la carrera tecnológica entre potencias globales.











