“La innovación puso en debate si la IA debe ser regulada o no”

A fines del mes pasado Mark Zuckerberg generó una amplia polémica al revelar que su proyecto “Llama” de IA iba a ser de código abierto. Quienes impulsan una IA de código abierto tienden, en general, a estar en contra de la regulación porque limitaría la innovación y la accesibilidad.

A fines del mes pasado Mark Zuckerberg generó una amplia polémica al revelar que su proyecto “Llama” de Inteligencia Artificial iba a ser de código abierto. Quienes impulsan una IA de código abierto tienden, en general, a estar en contra de la regulación porque limitaría la innovación y la accesibilidad.

Ahora bien, como toda época de cambios, lo nuevo suele ser renovador, aunque al mismo tiempo encierra límites y riesgos. Vengo insistiendo en que el uso indiscriminado y sin regulación de las IA enfrenta la posibilidad del abuso con intenciones negativas respecto de la confidencialidad y el prestigio de personas y empresas tal como podemos ver ha interpretado la reciente regulación de la Unión Europea al respecto.

Con este anuncio de la nueva Inteligencia Artificial de Meta se diferencia de las otras empresas de IA que cobran por su acceso. El código abierto abre la posibilidad de que más creaciones falsas sean realizadas sin poder rastrear origen. Zuckerberg argumenta que su desarrollo favorece la democratización; los críticos señalan los riesgos.

Finalmente, la innovación puso en debate si la IA debe ser regulada o no. Después de la norma SB1047 en California y el reglamento de la UE 2024/1689 no quedan dudas que la regulación es lo que se viene. Más aún, desde la experiencia de casos de noticias falsas, imágenes, audios y el acceso a información confidencial me declaro ferviente defensor de una regulación que no afecte el potencial uso innovador de la IA.

A favor de Meta, es cierto que detrás del potencial control de la IA de código abierto están los intereses de las compañías que no quieren prescindir de vender el acceso a sus plataformas (fees), aunque no es menos cierto que los riesgos están ya palpables y evidentes. Ya sabemos que un ataque al prestigio de alguien con IA es un hecho que solo necesita tener suerte una vez, pero la defensa necesita tener suerte todas las veces.

El riesgo más evidente es proteger la vida privada y la confidencialidad de las comunicaciones, y la preocupación respecto a las condiciones para el almacenamiento de datos personales. Falta ver cómo esta nueva normativa se aplica de manera concreta, pero desde ya, significa un avance en la identificación de potenciales riesgos y el establecimiento de límites que resguarden los derechos de las personas.

Por un lado, están quienes están en contra de la reglamentación de la IA y por el otro quienes están a favor. Un análisis en detalle de este debate en Argentina merecería un tratamiento de carácter de urgencia. Esperemos que se logre.

Por Matías Nahon, Director general de Analitix

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias relacionadas
Leer más

Hay Pulso IT en Argentina

"Pulso IT es el lugar para hacer negocios, generar alianzas y conocer las soluciones que están transformando el mercado", dijo Geldart Este año, uno de los enfoques más importantes será la inteligencia artificial.
Total
0
Share