Las herramientas de IA generativa está llegando a un punto de inflexión

El impacto de la rapidez con la que surgieron aplicaciones de IA generativa como ChatGPT, Bard y GitHub Copilot aparentemente de la noche a la mañana comprensiblemente tomó por sorpresa a los líderes de TI empresariales.

La IA generativa ha cambiado rápidamente lo que el mundo pensaba que era posible con la inteligencia artificial, y su adopción generalizada puede parecer impactante para muchos que no trabajan en tecnología. Inspira asombro e inquietud, y a menudo ambos al mismo tiempo.

Alex Au Yeung, Chief Product Officer, Symantec Enterprise Division se plantea ¿cuáles son sus implicaciones para la empresa y la ciberseguridad, destacando que es un cambio de juego científico y de ingeniería para la empresa. “Una tecnología que puede mejorar en gran medida la eficiencia de las organizaciones, permitiéndoles ser significativamente más productivas con la misma cantidad de recursos humanos”.

Pero el impacto de la rapidez con la que surgieron aplicaciones de IA generativa como ChatGPT, Bard y GitHub Copilot aparentemente de la noche a la mañana comprensiblemente tomó por sorpresa a los líderes de TI empresariales. Tan rápido que, en solo seis meses, la popularización de las herramientas de IA generativa ya está llegando a un punto de inflexión tecnológico.

La IA generativa opera en redes neuronales impulsadas por sistemas de aprendizaje profundo, al igual que funciona el cerebro. Estos sistemas son como los procesos de aprendizaje humano. Pero, a diferencia del aprendizaje humano, el poder de los datos de fuentes múltiples combinado con la información correcta en la IA generativa significa que el procesamiento de las respuestas será años luz más rápido.

La IA generativa, incluido ChatGPT, se entrega principalmente a través de un modelo de software como servicio (SaaS) de terceros. Uno de los desafíos que esto plantea es que interactuar con IA generativa requiere proporcionar datos a este tercero.

Los grandes modelos de aprendizaje (LLM) que respaldan estas herramientas de IA requieren el almacenamiento de esos datos para responder de manera inteligente a las solicitudes posteriores que hagan los usuarios.

Y es que la información alimentada en herramientas de IA como ChatGPT se convierte en parte de su conjunto de conocimientos. Cualquier suscriptor de ChatGPT tiene acceso a ese conjunto de datos común. Esto significa que cualquier dato cargado o sobre el que se haya preguntado se puede reproducir dentro de ciertas medidas de seguridad de la aplicación para otros terceros que hagan preguntas similares.

“Tal como está hoy, la mayoría de las herramientas de IA generativa no tienen políticas de seguridad de datos concretas para los datos proporcionados por los usuarios”, advierte el especialista de Symantec – Broadcom.

Fuente: Broadcom

Noticias relacionadas
Total
0
Share