La IA se convirtió en el proceso estándar de las empresas

“Sabemos que los distintos gobiernos tienen normativas, pero existe una gran necesidad de que las organizaciones apliquen normativas y marcos para intentar minimizar las soluciones de IA poco éticas», señalan desde infobip.

La IA ya no es solo una palabra de moda, sino el estándar que las empresas de todo el mundo buscan adoptar para mejorar los procesos, la comunicación, la generación de contenidos, y la lista continúa. 

La IA ética implica adoptar un enfoque seguro en el desarrollo de la IA. El objetivo de todas las partes interesadas, desde los ingenieros hasta los gobiernos y los directores ejecutivos, debe ser dar prioridad al uso respetuoso de los datos y crear un sistema de IA que sea transparente y tenga una brújula moral. En esencia, la IA ética pretende mitigar el riesgo de situaciones poco éticas y evitar el daño a cualquier ser humano.

“Sabemos que los distintos gobiernos tienen normativas, pero existe una gran necesidad de que las organizaciones apliquen normativas y marcos para intentar minimizar las soluciones de IA poco éticas. Las regulaciones exhaustivas de la ley de protección de datos no están a la altura de la velocidad de desarrollo de la IA, por lo que las empresas necesitan sus propios sistemas para mantenerse bajo control a medida que se avanza en el desarrollo de la IA”, explica Janeth Rodríguez, VP Revenue Latam de Infobip.

Un código de conducta de IA está diseñado para ayudar a las empresas a seguir unas directrices morales a la hora de desarrollar tecnología de IA, o incluso de implantarla en su negocio. El G7 creó un código de conducta voluntario para que las empresas de todo el mundo lo siguieran. Estas directrices pretenden promover una IA segura y fiable y ayudar a que las empresas rindan cuentas de lo que desarrollan

Fuente: infobip

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias relacionadas
Total
0
Share