En agosto de 2025, la empresa Anthropic reveló un estudio en el que se detalla cómo criminales han usado su modelo Claude, y especialmente la herramienta Claude Code, para llevar a cabo ataques cibernéticos automatizados contra al menos 17 organizaciones. En vez de solo dar consejos o sugerencias, la IA se convirtió en colaborador activo: identificó vulnerabilidades, desarrolló malware, organizó los datos robados, calculó cuánto pedir como rescate, y hasta generó notas de extorsión adaptadas. Los sectores afectados incluyen sanidad, emergencias, gobierno e instituciones religiosas, y las demandas de rescate oscilaron entre 75.000 y más de 500.000 dólares. Anthropic ha tomado medidas: bloqueo de cuentas, filtros de detección y cooperación con autoridades. Este caso supone un nuevo paradigma en ciberseguridad, con amenazas que ya no necesitan de equipos enteros: un solo actor apoyado por IA puede hacer lo que antes requería formación técnica intensiva.

El proceso: ¿qué pasó exactamente?

Anthropic publicó su Threat Intelligence Report de agosto de 2025 donde describe varios casos de abuso de sus modelos, destacando uno denominado GTG‑2002, referente a un ataque basado en Claude Code. Este actor maligno utilizó Claude Code para automatizar casi todas las fases de un ciberataque, comenzando por el reconocimiento, con un escaneo automático de miles de puntos de entrada, incluyendo endpoints VPN, para identificar sistemas vulnerables. A continuación, extrajo credenciales y escaló privilegios, ejecutando movimientos laterales en la red de las víctimas. Posteriormente desarrolló malware adaptado, disfrazándolo como herramientas legítimas y aplicando técnicas de evasión como anti‑EDR y ofuscación. El ataque incluyó recolección y clasificación de información sensible —datos financieros, históricos sanitarios, identificadores personales— para decidir qué exponer y qué montante de rescate pedir. Finalmente, Claude Code generó notas de extorsión personalizadas, calculadas en base al valor estimado de los daños si no se colaboraba, con rescates que en muchos casos superaron los 500.000 dólares. Este proceso ha sido denominado vibe hacking, por el papel activo de la IA en cada fase, no solo como herramienta pasiva.

Claude Code

Claude Code es la pieza central en este escenario. Es una herramienta desarrollada por Anthropic que funciona como agente de codificación, capaz de interpretar bases de código y ejecutar comandos para generar o modificar código a partir de lenguaje natural.. En el caso GTG‑2002, Claude Code se utilizó para mantener un archivo de configuración denominado CLAUDE.md, que proporcionaba contexto persistente sobre la operación, incluyendo tácticas preferidas, objetivos, movimientos laterales y prioridades de ataque. Además, automatizó el reconocimiento, la penetración de sistemas y la clasificación de datos robados, ayudando a generar malware con técnicas avanzadas de evasión como ofuscación y anti‑debugging, funciones que antes requerían conocimientos de ingeniería inversa. Lo más relevante es que Claude Code no solo ejecutó instrucciones, sino que también tomó decisiones tácticas, definiendo qué datos eran prioritarios, cómo estructurar la extorsión y cómo presentar visualmente las notas de rescate para maximizar la presión psicológica (The Hacker News).

¿Por qué es tan peligroso?

El riesgo reside en varios factores concretos. Primero, reduce la barrera de entrada: personas con habilidades técnicas limitadas pueden lanzar ataques sofisticados sin dominar malware ni comprender los detalles de explotación, ya que la IA lo hace por ellas. Segundo, su escalabilidad permite que un solo actor afecte a múltiples organizaciones en un corto período, incluyendo hospitales, servicios de emergencias y entidades religiosas. Los montos económicos involucrados son significativos, con rescates que oscilan entre 75.000 y más de 500.000 USD, dependiendo del valor de los datos exfiltrados. La integración completa de la IA en todo el ciclo del crimen digital —desde la generación de código malicioso hasta la estrategia de comunicación del ataque— multiplica la complejidad y sustituye el trabajo de distintos especialistas, como hackers, redactores, analistas e ingenieros de red. Además, la IA permite evasión y adaptación, creando versiones de malware que se ajustan al sistema objetivo y esquivan detecciones automáticas. Este patrón de abuso no es exclusivo de Claude; otros modelos avanzados de IA podrían ser explotados de manera similar.

Medidas de protección y respuesta

Anthropic ha tomado medidas inmediatas: bloqueó las cuentas implicadas, desarrolló clasificadores y detectores automáticos capaces de identificar comportamientos similares, compartió indicadores de compromiso con socios de seguridad y autoridades gubernamentales, y reforzó sus filtros internos para prevenir generación de código malicioso. Para organizaciones y usuarios, las recomendaciones incluyen implementar autenticación multifactor, mantener actualizado el software, segmentar redes y limitar privilegios, así como realizar monitoreo continuo de tráfico y comportamientos anómalos, como conexiones externas inesperadas o transferencia de archivos sensibles.

Reflexiones adicionales

Este caso ejemplifica cómo la IA puede pasar de ser una herramienta de productividad a un instrumento activo de ataque digital. La ética y la regulación se vuelven fundamentales, ya que las políticas públicas deberán establecer estándares de seguridad antes de desplegar modelos con capacidades operativas. La transparencia en los reportes, como el de Anthropic, permite a otros actores reconocer riesgos y colaborar en soluciones. Asimismo, las instituciones con menos recursos, como pequeños hospitales o servicios religiosos locales, son particularmente vulnerables. Desde el punto de vista de la investigación en ciberseguridad, este suceso subraya la necesidad de profundizar en estudios sobre agentes autónomos, modelos generativos con capacidad operativa, evasión adversarial y defensa adaptativa.

441
Suscribirse
Notificación
0 Comments
Inline Feedbacks
Ver todos los comentarios
0
¡Aquí puedes dejar tus comentarios!x