La IA generativa no puede diferenciar lo que está bien de lo que está mal. Una paradoja inquietante: es capaz de ejecutar lo que le pedimos, sin una comprensión acabada de las intenciones que tenemos por detrás.
Dicho de forma sencilla, si usamos el prompt adecuado, podemos lograr que nos den indicaciones para cometer un crimen. Por ejemplo, nos puede dar instrucciones sobre cómo vulnerar la seguridad de un banco o de una oficina pública o cómo manipular determinados sistemas críticos, porque para eso fue creada: para predecir la mejor respuesta posible según su entrenamiento, sin cuestionar las implicancias morales o legales.
La ética de la IA es una preocupación social, según un estudio de 2023 de Santa Clara University, al 82% de las personas este tema le ronda en la cabeza y, peor aún, un 55% cree que las empresas de IA no están poniendo mucho esfuerzo para resolver este punto.
En un contexto en que la tecnología es cada vez más protagonista de tareas fundamentales como la gestión de infraestructuras críticas, el mantenimiento de instalaciones y de fábricas, la prevención del fraude bancario o la atención al cliente, entre muchísimas otras, la urgencia de un marco regulatorio se hace presente.
Como la IA, a diferencia de los humanos, no tiene malicia, la única forma de prevenir este tipo de acciones es trabajando sobre las vulnerabilidades.En principio, sabemos que cuanto más se propaga el uso de la IA, más atractiva se vuelve para los ciberatacantes, que manipulan los datos de entrada y los resultados que producen para exponer información confidencial y llevar a los modelos a comportarse de maneras no deseadas, incluyendo este escenario de “complicidad” en la ejecución de delitos.
Los riesgos parecerían ser aún mayores en el entorno de nube, la empresa especializada en seguridad de la IA Tenable Research detectó este año que más del 70% de las cargas de trabajo en la nube con un paquete de IA instalado presentan una vulnerabilidad crítica, en comparación con el 50% de las cargas de trabajo en la nube sin IA instalada.
La IA no sabe, al momento de realizar alguna acción, si la misma es un delito, pero las personas sí, por eso, una parte muy importante del “factor humano” es tomar todas las medidas necesarias para evitar que esto suceda.
En la Argentina, al igual que en muchos de los países de América Latina, la regulación de la inteligencia artificial (IA) se encuentra en desarrollo y no existe aún una legislación especializada. Fuente: Cloud Legion