Tanium, señala que la Inteligencia Artificial (IA) ha golpeado como una bomba la vida cotidiana. Cuando ChatGPT de OpenAI se lanzó al público en general a fines de noviembre del año pasado, una sacudida atravesó la sociedad global, ya que ninguna aplicación en la historia observó un crecimiento de un millón de usuarios registrados cinco días después de su lanzamiento y, después de un mes, el chatbot rompió la marca de 100 millones.
Para Tanium el entusiasmo desenfrenado por los productos de las aplicaciones de IA pronto se vio empañado por la preocupación sobre su impacto en la sociedad: el manejo acrítico de los resultados, algunos de los cuales son alucinaciones, es tan preocupante como las preguntas sobre sus cualidades disruptivas para el sistema educativo, el peligro de las campañas de desinformación escalables y gratuitas, el acceso de bajo espectro al código malicioso y, finalmente, sobre el cumplimiento y los derechos de autor que están aún sin resolver.
Regular e involucrar a expertos
Países como Italia y China han tratado de restringir el uso de ChatGPT, siendo ejemplos iniciales de enfoques regulatorios aún complicados porque ni siquiera los principales desarrolladores de IA de OpenAI y Google pueden comprender (o no quieren revelar) los detalles de cómo se crean los resultados de sus modelos generativos de IA, situación que se debería tomar como una señal de advertencia.
“Depende de los legisladores a escala global, establecer el curso regulatorio correcto para que se pueda gestionar el daño y potencial de mejoras revolucionarias de la IA para la ciencia, los negocios y toda la sociedad global. Pero para poner en marcha el proceso regulatorio los legisladores deben sentarse con los principales expertos en la materia para obtener las conclusiones correctas y aprobar una legislación adaptada antes de emitir reglas equivocadas e ineficaces”.
Miguel Llerena, vicepresidente para Latinoamérica de Tanium
Para Tanium, a los ojos de inversores y desarrolladores, está en juego nada menos que el modelo de desarrollo más grande en la historia humana, con la promesa de una creación de valor automatizada casi ilimitada, saltos cuánticos en la ciencia y el consiguiente aumento de prosperidad para toda la humanidad.
No obstante, al mismo tiempo, solo un puñado de investigadores en todo el mundo se ocupa de las disciplinas de seguridad de la IA que serían, como primera disciplina, la interpretabilidad; que se ocupa de desarrollar una comprensión profunda de cómo se producen los resultados respectivos de los diversos modelos de IA. Solo con la ayuda de esta comprensión se puede predecir el comportamiento futuro de la IA y evitar resultados dañinos.
La segunda disciplina de la seguridad de la IA, es la investigación de alineación; que tiene como objetivo equipar los modelos y agentes de IA actuales (débiles) y futuros (fuertes) con los valores centrales y fundamentales de la humanidad e integrarlos en su esencia. Algo así como las leyes básicas de la robótica de Asimov:
1. Nunca dañar a un ser humano y salvaguardarlo de cualquier daño a toda costa.
2. Obedecer siempre las órdenes de los humanos, a menos que esto viole la regla número uno
3. Proteger siempre la propia existencia, a menos que esto viole la regla número uno o dos.
Todavía tenemos tiempo para Tanium, dado el estado actual de la investigación, aún no se ha llegado al punto en el que se debe temer una pérdida de control. Pero los efectos negativos del uso no regulado de la IA ya se están sintiendo.
“Industrias enteras corren el riesgo de ser devoradas por la automatización del trabajo cognitivo, las sociedades liberales con insuficiente alfabetización mediática corren el riesgo de ser víctimas de campañas de desinformación generadas por IA, los terroristas podrían obtener armas químicas o biológicas con la ayuda de aplicaciones de IA descontroladas. La lista de todos los peligros imaginables amenazados por el uso no regulado de aplicaciones de IA es muy larga. Por lo tanto, debemos convencer a nuestros legisladores de la urgencia de una regulación eficaz e inteligente lo antes posible”, finalizó Llerena.