Tecnología

jueves, 30 de enero de 2020 | 7:00 am

Los sistemas de IA deben ser transparentes y explicables

Los enfoques regulatorios basados en riesgo son los medios ideales para proteger a los consumidores, crear confianza pública en la Inteligencia Artificial y proporcionar a los innovadores la flexibilidad para la creación de sistemas precisos e impulsores del desarrollo social y económico.

Compartir
EmailFacebookLinkedInTwitter
(Internacional )

La confianza es el vínculo principal que une a las empresas que desarrollan e implementan la Inteligencia Artificial con sus consumidores, mientras que los primeros deben asegurarse de que sus sistemas de inteligencia artificial lleguen a ciertas conclusiones de manera ética, transparente y cumplan con las regulaciones relevantes, los consumidores son cada vez más conscientes de cómo se utiliza esta tecnología y quieren saber cuándo se usa y cómo impacta sus vidas.

IBM ha argumentado desde hace tiempo que los sistemas de Inteligencia Artificial deben ser transparentes y explicables, lo que refuerza nuestro respaldo a los principios que están construyendo las organizaciones internacionales como la Organización para la Cooperación y el Desarrollo Económicos (OCDE), el G-20 y El Foro Económico Mundial. La existencia de principios es esencial y ayuda a delinear los compromisos que los desarrolladores de IA deben tener con los ciudadanos, los consumidores y los gobiernos.

Al considerar que estamos hablando de tecnologías cada vez más extendidas y determinantes de comportamientos y decisiones que pueden afectar la vida en la sociedad, es esencial que los gobiernos prioricen el debate de manera técnica y oportuna. En este sentido, recomendamos que los debates públicos y legislativos para la definición de las mejores políticas y estructuras de gobernanza de la IA se guíen por tres pilares.

Imparcialidad y seguridad validadas por pruebas de sesgos y de uso, esto debe ser realizado antes de que la IA sea implementada, y con especial foco en sistemas que entregan determinaciones automatizadas y aplicaciones de alto riesgo; responsabilidad proporcional al perfil de riesgo de la aplicación y a la capacidad de la organización para proporcionar, desarrollar u operar un sistema de IA, así como para controlar y mitigar resultados no deseados o perjudiciales para los consumidores; y transparencia al señalar en dónde se utilizará la tecnología, cómo ha sido entrenado el sistema, cómo se usa, y por qué entrega ciertos resultados o sugerencias de acción.

Creemos que los enfoques regulatorios basados ​​en riesgo son los medios ideales para proteger a los consumidores, crear confianza pública en la Inteligencia Artificial y, sobre todo, proporcionar a los innovadores la flexibilidad necesaria para la creación de sistemas cada vez más precisos e impulsores del desarrollo social y económico.

Además, es importante que las empresas se unan para la construcción de buenas prácticas en el desarrollo y la gobernanza de estos sistemas, y que estas prácticas puedan variar de acuerdo con el daño potencial que una solución pueda presentar. Todo esto se puede hacer sin crear ningún requerimiento regulatorio específico, al mercado se le puede delegar la responsabilidad de aprobar o castigar prácticas organizacionales que no estén de acuerdo con este marco de referencias para el desarrollo y uso de la Inteligencia Artificial.

Complementariamente, el papel de los gobiernos para apoyar la innovación y la adopción de IA a gran escala y en todos los ámbitos es fundamental. Finalmente, cualquier acción discriminatoria, ya sea en un entorno virtual, automatizado o físico, debe evitarse sin distinción. Las recomendaciones o decisiones sesgadas de cualquier tipo nunca deben considerarse aceptables, especialmente en sistemas que se pueden mejorar, probar y corregir en modelos estadísticos antes de que sean accesibles.

La Inteligencia Artificial confiable ya está disponible para todos. Su mejora y adopción a gran escala, de manera ética y transparente, está en manos de organizaciones y gobiernos que deben trabajar juntos para encontrar el equilibrio entre la autorregulación y la regulación precisa que contribuya a disminuir los impactos negativos de esta tecnología, sin eclipsar su potencial transformador y positivo.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

multimedia