En el marco del Día de la Internet Segura, expertos en ciberseguridad y protección de datos analizan los riesgos que aparecen cuando la IA deja de ser una herramienta productiva y se convierte en un potencial vector de vulneración de la privacidad.
Recientemente, casos de alto perfil pusieron en evidencia la fragilidad de la privacidad en las redes sociales. Chatbots que funcionan en redes sociales muy populares fueron señalados por facilitar la creación de imágenes íntimas no consentidas (deepfakes) mediante comandos que permiten «desnudar» o alterar fotos de usuarios y menores de edad.
Más allá de la seguridad informática que hay que atender, también retornan dos temas fundamentales: la ética y la responsabilidad. ¿Puede un chatbot que funciona en una red social atender esa clase de solicitudes sin responsabilizarse por sus consecuencias?
La IA se alimenta, entrena y responde en base a la información y las decisiones tomadas por personas; no es un ente abstracto autogenerado que no tiene conciencia alguna de sus actos. ¿Los usuarios no responden por las tareas que le solicitan? Se generan tantas capas de responsabilidad que parece que, al final, nadie tiene la culpa.
Sin embargo, este fenómeno no solo representa una violación ética, sino que expone un problema estructural: cómo los datos que compartimos voluntariamente pueden ser procesados por modelos de lenguaje (LLM) para fines que son maliciosos.
«El problema no es la herramienta. Es el entrenamiento de estos modelos con datos públicos sin su consentimiento explícito«, señalan los especialistas. Esta situación subraya la necesidad de que las infraestructuras que sostienen internet y sus plataformas -desde las APIs hasta las nubes de datos- incorporen capas de verificación de identidad más profundas.
Desde la perspectiva de la infraestructura tecnológica, se pueden identificar tres áreas donde la seguridad de los datos está siendo comprometida hoy.
Por un lado, está la exposición de APIs y datos personales. Las APIs son los puentes que permiten que las aplicaciones compartan nuestra información. Si estas conexiones no están blindadas, los datos personales pueden ser recolectados masivamente por terceros para entrenar IAs o realizar ataques de ingeniería social.
Otro gran peligro es el auge de la desinformación sintética. Esto pudo verse en Argentina, durante las elecciones del 2025, cuando se difundió un video falso y hecho con IA de un líder político anunciando la baja de una candidatura.
Por último, está el hecho de que la vulnerabilidad quedó del lado de los clientes porque los atacantes migraron hacia donde el usuario interactúa. El código malicioso que se ejecuta en el navegador o en la app del teléfono puede interceptar información antes de que llegue a los servidores seguros, facilitando el robo de identidad.
En primer lugar, las organizaciones, que son actores fundamentales en la adopción de la IA, deben empezar a Implementar una estrategia de seguridad de Aplicaciones y APIs. Su función es detectar el comportamiento de bots y herramientas de IA que intentan extraer o manipular datos de forma automatizada.
“Las empresas necesitan asegurarse de que, mientras equilibran las cargas de procesamiento, la información confidencial permanezca bajo un control estricto”, detalló Federico Aragona, director de ventas regional de F5 para Latinoamérica.
Fuente: F5 Latam







