IA, entró en vigor el Reglamento Europeo

La IA llegó para revolucionar el sector de las nuevas tecnologías, actualmente, más del 24% de las empresas españolas ya utilizan alguna herramienta de IA. Una de las herramientas más usadas es ChatGPT, que ya registra 200 millones usuarios activos semanales en todo el mundo.

En agosto de 2024, entró en vigor el Reglamento Europeo de Inteligencia Artificial (RIA), su objetivo principal es fomentar el desarrollo y la implantación responsable de la Inteligencia Artificial en toda la Unión Europea.

La IA llegó para revolucionar el sector de las nuevas tecnologías, actualmente, más del 24% de las empresas españolas ya utilizan alguna herramienta de IA. Una de las herramientas más usadas es ChatGPT, que ya registra 200 millones usuarios activos semanales en todo el mundo. De hecho, este sistema de chat basado en la IA obtuvo más de 1,5 millones de visitantes durante el mes de febrero de este año 2024.

“Es importante tener cautela ante el uso de herramientas de Inteligencia Artificial como ChatGPT. Tenemos que ser conscientes de que, con el uso de estas aplicaciones, estamos aportando unos datos que, esta IA, usará más tarde para su beneficio”, aseguran desde Secure&IT.

Si hablamos de las organizaciones más afectadas por el RIA, nos encontramos con los proveedores de sistemas IA de alto riesgo, que deben asumir un conjunto más complejo de obligaciones. Esto se debe a que son más susceptibles de causar daños para la salud, la seguridad o los derechos fundamentales de las personas.

“Nos referimos a sistemas IA que están destinados a utilizarse como componentes de seguridad o que son sistemas de seguridad por sí mismos. Algunos ejemplos son: vehículos a motor; productos sanitarios; aviones civiles; juguetes; embarcaciones de recreo y motos acuáticas; ascensor”, indica Natalia Patiño, consultora Legal TIC de Secure&IT.

A pesar de la regulación europea de la Inteligencia Artificial, hay que tener en cuenta que su uso expone a usuarios y empresas a una serie de peligros. En primer lugar, existen riesgos relacionados con el uso que el proveedor de la IA generativa va a hacer de la información que se proporciona en los “prompts” (entradas de información que realizan los usuarios), debido a que se trata de un entorno no controlado.

Por otro lado, hay que tener en cuenta que estas herramientas pueden generar resultados incorrectos, denominados “alucinaciones”, ya que no están siendo supervisadas de forma activa y continua por seres humanos a la hora de generar respuestas.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias relacionadas
Leer más

El gaming ya no es el futuro, es el presente

En México, esta transformación es evidente, hablamos de un país donde más del 70% de los internautas se consideran gamers, donde los eSports tienen audiencias que compiten con las de eventos deportivos tradicionales, y donde cada vez más jóvenes sueñan con dedicarse profesionalmente a esta industria.
Leer más

CommScope anuncia una de alianza estratégica con DvSum

En esta plataforma mejorada, se recopila y normaliza información clave de rendimiento sobre la red y los usuarios finales. Esta información es analizada por CADDI para proporcionar información clave sobre la experiencia del cliente y la salud de la red.
Total
0
Share