La IA Agéntica está adquiriendo un rol central. Mientras que el 2025 fue el año del auge de la IA Generativa, en 2026 la autonomía y automatización de la IA Agéntica está llevando la operación a niveles de mayor independencia.
Sin duda, esta nueva generación de inteligencia artificial permite a los sistemas operar con una independencia mucho mayor, ejecutando tareas complejas sin intervención humana constante.
Es el caso de OpenClaw, una herramienta de agentes de IA de código abierto que no solo responde preguntas, sino reemplaza al ser humano leyendo correos electrónicos, gestionando el calendario o ejecutando mando en el computador desde aplicaciones como WhatsApp o Telegram. En esencia, actúa como un mayordomo digital con acceso directo a sistemas críticos.
«Es una plataforma versátil que, como toda tecnología, puede ser mal utilizada por ciberdelincuentes. Al ser de código abierto (open source), la posibilidad de que terceros desarrollen integraciones ha sido aprovechada por actores maliciosos. Recientemente, se detectó un paquete que intenta descargar malware para macOS, lo que intensifica el debate sobre los permisos y roles que se otorgan a los Agentes de IA», advierte André Goujon, CEO de Lockbits.
La utilidad es innegable, pero la vertiginosa velocidad con la que se están adoptando los Agentes de IA está generando una peligrosa dependencia operativa sin que se haya realizado una evaluación exhaustiva de todos los riesgos inherentes. La falta de un marco regulatorio y de protocolos de seguridad claros expone a organizaciones y usuarios a vulnerabilidades sistémicas.
“La seguridad de la IA Agéntica no reside solo en su código, sino en la gobernanza y las restricciones que la supervisión humana imponga a su autonomía. Por ende, al aplicar estos principios, las organizaciones y usuarios pueden aprovechar su potencial mientras gestionan proactivamente los riesgos de seguridad y operativos asociados a su alta capacidad de automatización”, sentencia Goujon.
Fuente: Lockbits








