Cibercriminales adoptan IA para escalar ataques masivos

En septiembre de 2025 se detectó el primer ciberataque global orquestado casi por completo por IA, que ejecutó alrededor del 90% de las operaciones y apuntó a 30 organizaciones en sectores críticos, según los investigadores.

La IA dejó de ser solo una herramienta para la innovación, hoy también se ha convertido en un recurso para el cibercrimen. De acuerdo con el reciente análisis de Unit 42, en el que advierten que los llamados modelos de lenguaje a gran escala modificados para eliminar restricciones de seguridad, (dark LLMs) están impulsando una nueva era de ataques automatizados que pueden ejecutarse con rapidez y precisión, incluso por actores con poca experiencia técnica.

Estos modelos están diseñados para generar contenido sin filtros y se comercializan en canales clandestinos como foros en la dark web y grupos de Telegram. Se encuentran bajo nombres como WormGPT, FraudGPT o KawaiiGPT y ofrecen capacidades de creación de correos de phishing altamente convincentes, así como generación de código malicioso funcional y scripts para crear ciberataques automatizados.

Los investigadores destacan que esta tendencia marca un cambio radical en la ciberseguridad mundial, pues los cibercriminales ya no dependen de habilidades especializadas para diseñar ataques complejos. Ahora, con un modelo de IA sin restricciones, pueden producir campañas masivas con mensajes persuasivos y malwares listos para operar, reduciendo costos y tiempo de ejecución.

Este fenómeno se suma a un precedente inquietante ocurrido en septiembre de 2025, revelado por Anthropic como el primer ciberataque global orquestado casi por completo por IA, donde el modelo ejecutó entre el 80% y el 90% de las operaciones tácticas sin intervención humana sustancial, apuntando a 30 organizaciones en sectores críticos como tecnología, finanzas y gobierno. Este caso confirma que la autonomía de la IA no es una hipótesis, sino una realidad que amplifica la escala y velocidad de las amenazas.

“Estamos frente a un punto de inflexión en la ciberseguridad. La aparición de modelos de IA diseñados para fines maliciosos reduce las barreras de entrada para los atacantes y aumenta la escala de las amenazas. Las organizaciones en México deben adoptar estrategias proactivas que integren IA defensiva y monitoreo continuo para anticiparse a este nuevo tipo de riesgos”, señaló Dula Hernández, gerente de ingeniería de sistemas para canales en Latinoamérica de Palo Alto Networks.

Unit 42 advierte que la disponibilidad masiva de estos modelos no es un experimento aislado, sino el inicio de un mercado clandestino basado en la automatización de ataques. Ante esta situación, la prevención se vuelve crítica para fortalecer la infraestructura de seguridad e implementar controles basados en identidad. Además, capacitar a los equipos y colaboradores para reconocer señales de ataques impulsados por IA es un buen primer paso para mitigar el impacto de esta tendencia en el país.

Fuente: Palo Alto Networks

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias relacionadas
Leer más

Para 2026 el sector de salud será la industria más vulnerable

El CEO de Cybertrust Latam concluye que “2026 marcará un quiebre gracias a la combinación de IA, automatización, oferta ‘industrializada’ de servicios delictivos y mercados clandestinos más organizados, los atacantes serán capaces de lanzar ataques a gran escala, de forma simultánea”
Total
0
Share