“La inteligencia artificial en sí misma no es intrínsecamente peligrosa”

El uso de herramientas de IA para generar o alterar imágenes y crear deepfakes ha atraído cada vez más la atención en todo el panorama digital. Si bien abre interesantes oportunidades para el arte y la expresión creativa, el contenido generado por IA también puede crearse con fines de uso indebido y estafas en plataformas y redes sociales.

El rápido avance de la IA ha facilitado la creación de imágenes con un alto nivel de realismo, incluidas imágenes falsas o manipuladas, reduciendo significativamente las barreras para el engaño en línea.

Norton advierte que, si bien el contenido generado por IA no es intrínsecamente dañino, pueden surgir riesgos cuando los estafadores hacen un uso indebido de estas capacidades como parte de estafas y tácticas de ingeniería social, utilizando imágenes para crear urgencia, ejercer presión, explotar la confianza o engañar a las personas en entornos digitales.

El uso de herramientas de IA para generar o alterar imágenes y crear deepfakes ha atraído cada vez más la atención en todo el panorama digital. Si bien abre interesantes oportunidades para el arte y la expresión creativa, el contenido generado por IA también puede crearse con fines de uso indebido y estafas en plataformas y redes sociales. La capacidad de crear imágenes falsas muy realistas introduce nuevos riesgos, ya que este tipo de contenido podría aprovecharse en planes de engaño, fraude o extorsión diseñados para manipular emocionalmente o presionar a las personas.

“Con las herramientas de inteligencia artificial actuales, es posible hacer que casi cualquier persona parezca estar haciendo casi cualquier cosa en cuestión de segundos, sin necesidad de conocimientos técnicos. Esto cambia radicalmente lo fácil que es engañar y manipular a las personas en Internet”, afirma Iskander Sanchez-Rola, director de IA e Innovación en Norton.

La inteligencia artificial en sí misma no es intrínsecamente peligrosa. En lo que respecta a la creación de imágenes, existen muchos casos de uso legítimos y positivos, desde el diseño y el arte hasta la educación y la accesibilidad. Sin embargo, el riesgo surge cuando la IA se cruza con el engaño.

En un entorno digital en el que la línea entre lo real y lo manipulado puede volverse cada vez más difusa, es esencial desarrollar una mentalidad crítica y adoptar hábitos de seguridad digital. La prevención, la verificación y la educación siguen siendo las herramientas más eficaces para hacer frente a los riesgos emergentes asociados al uso indebido de la inteligencia artificial.

Fuente: Norton

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias relacionadas
Leer más

InsureMO refuerza su alianza con NTT Data

En América Latina las compañías trabajarán conjuntamente para acelerar la modernización del core de las aseguradoras mediante IA y otras tecnologías, aprovechando la arquitectura escalable de InsureMO.
Leer más

La IA ya no es un concepto futurista

Hoy la IA se integra de forma silenciosa en la rutina diaria, en ese contexto, las Copilot+ PC marcan un punto de inflexión en la evolución tecnológica, proponiendo una nueva forma de interactuar con nuestras herramientas de trabajo.
Total
0
Share