Shadow AI, la amenaza invisible para las empresas

En Argentina, por ejemplo, más del 57% de los profesionales ya utiliza herramientas de inteligencia artificial en su trabajo diario, mientras que solo el 23% de las empresas cuenta con protocolos formales que regulen su uso.

El uso de inteligencia artificial generativa en el ámbito laboral crece a un ritmo acelerado y, con él, emerge uno de los principales riesgos de ciberseguridad para las organizaciones: el ‘Shadow AI’.  Se trata del uso no regulado de asistentes virtuales por parte de empleados para resolver tareas cotidianas, muchas veces subiendo información sensible a plataformas públicas sin control ni gobernanza.

Informes recientes de compañías como Google Workplace y Dell Technologies muestran que, a lo largo de 2025, se incrementó de forma sostenida el uso de asistentes de IA para redactar informes, analizar datos o preparar presentaciones ejecutivas. Esta adopción, si bien impulsa la productividad, expone a las empresas a un riesgo crítico de fuga de datos.

En la región, los datos reflejan una brecha alarmante entre adopción y control. En Argentina, por ejemplo, más del 57% de los profesionales ya utiliza herramientas de inteligencia artificial en su trabajo diario, mientras que solo el 23% de las empresas cuenta con protocolos formales que regulen su uso.

Otro estudio reciente reveló que el 78% de los trabajadores implementa su propio chatbot en la oficina, una práctica que los analistas ya califican como una de las principales preocupaciones de los líderes en términos de privacidad y ciberseguridad.

“El problema no es la inteligencia artificial, sino la falta de políticas claras de gobernanza sobre la información que se intercambia”, explica Roberto Ricossa, vicepresidente para Latinoamérica de F5.

La inteligencia artificial aplicada a tareas internas es un catalizador de eficiencia. Sin embargo, cuando los modelos se alimentan con información sensible el riesgo se vuelve exponencial. Una vez que esos datos ingresan a modelos de acceso público, no existe forma de recuperarlos ni de garantizar su uso futuro.

Ante el temor a una fuga de información, muchas organizaciones optan por prohibir el uso de herramientas de IA generativa. “Bloquear la inteligencia artificial es una decisión estratégica equivocada”, sostiene Ricossa. Luego explica: “Prohibir su uso equivale a renunciar a la ventaja competitiva. Una empresa que decide no adoptar IA puede comprometer seriamente su viabilidad en los próximos cinco años. El problema no se resuelve prohibiendo, sino gestionando”.

Para F5 la solución podría ser implementar un modelo de gobernanza activa, donde la seguridad actúe como una puerta de enlace entre la organización y los modelos de inteligencia artificial. Este enfoque permite que todo el tráfico hacia y desde los asistentes virtuales pase por los filtros de la empresa, definiendo accesos por roles y limitando qué información puede compartirse a través de límites preestablecidos de que se puede y que no se puede compartir.

La inteligencia artificial no es una tendencia pasajera, sino un motor de cambio exponencial que está redefiniendo la competencia en todos los sectores. Pero se advierte que su adopción sin una gobernanza adecuada abre una brecha de riesgos que puede ser catastrófica para los negocios.

Fuente: F5

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias relacionadas
Total
0
Share