El uso indebido de herramientas de IA para la creación y manipulación de imágenes se ha consolidado como una nueva amenaza digital que impacta directamente la privacidad, la reputación y la seguridad de las personas.
En particular, la generación de imágenes íntimas o sexualizadas sin consentimiento, conocida como desnudez digital, ha encendido alertas a nivel internacional por su rápida expansión. ESET analiza este fenómeno y su avance, así como el panorama de esta situación en México.
A nivel global, uno de los casos recientes de este problema es Grok, la IA desarrollada por xAI e integrada a la red social X. A diferencia de otros modelos de IA que operan como servicios independientes, Grok funciona dentro de una red social masiva, lo que le permite acceder de forma inmediata a imágenes públicas y responder en tiempo real a solicitudes de los usuarios.
Un análisis independiente realizado por Genevieve Oh, reveló que durante un periodo de 24 horas la cuenta oficial de @Grok generó aproximadamente 6,700 imágenes por hora clasificadas como sexualmente sugerentes o “nudificadas” a principios de enero. Esta cifra resulta alarmante al compararla con el promedio de las imágenes generadas por los cinco principales sitios dedicados a deepfakes sexuales que produjeron alrededor de 79 imágenes por hora.
Durante el periodo crítico, los filtros de seguridad y moderación resultaron insuficientes, lo que permitió que los usuarios pudieran hacer solicitudes para cambiar vestimenta, alterar cuerpos o generar versiones sexualizadas de persones reales, sin ser bloqueados de forma efectiva.
“La combinación de IA generativa y plataformas masivas, acelera la creación de este tipo de contenido a una escala nuca antes vista. Lo preocupante es que el daño para las víctimas ocurre en minutos, mientras las consecuencias legales y emocionales pueden durar años”, asegura David González, investigador de seguridad informática de ESET.
En México, la Ley Olimpia constituye un pilar legal fundamental al sancionar la difusión de contenido íntimo sin consentimiento, incluyendo material manipulado o generado digitalmente. Sin embargo, el crecimiento de los casos vinculados a IA requiere medidas mayores.
Entre 2024 y 2025 entidades como el Estado de México, Sinaloa, Aguascalientes, San Luis Potosí y Colima reformaron sus códigos penales para aprobar sanciones que incluyen penas de prisión y multas ante delitos de violencia digital.
“Muchas personas aún desconocen que crear o compartir una imagen íntima generada con IA puede ser un delito, incluso si nunca existió una fotografía original. La IA es una herramienta poderosa, pero como cualquier tecnología, su impacto depende de cómo se utilice. Sin límites claros y sin una cultura responsable, puede convertirse en una herramienta de abuso”, concluye el experto de ESET.
Fuente: ESET








