La detección de identidades sintéticas se ha convertido en uno de los mayores desafíos de la ciberseguridad moderna. Las amenazas a la identidad digital no dejan de crecer. Los deepfakes monopolizan la cobertura mediática, los ataques de phishing se han vuelto rutina, y los casos de trabajadores de TI norcoreanos infiltrándose en grandes corporaciones ya no sorprenden a nadie.
Puede que estos casos acaparen toda la atención, pero creo que deberíamos hablar más de otra amenaza a la identidad. La amenaza de la que hablo es más sutil, pero enormemente insidiosa. Los actores maliciosos ya usan la IA para ensamblar datos públicos y personales filtrados y construir con ellos identidades sintéticas. Me refiero a personas que se ven y actúan como personas reales porque están construidas a partir de datos reales, solo que rearmadas en alguien que no existe.
Estas identidades sintéticas son un problema serio porque los sistemas de detección de fraudes no fueron diseñados para esto. Necesitamos modelos de IA entrenados para reconocer comportamiento humano anómalo e intención maliciosa.
La urgencia es real en todas partes, especialmente en América Latina. Según LexisNexis Risk Solutions, el fraude de identidades sintéticas representa cerca del 48% de los incidentes en la región, cifra que refleja tanto la sofisticación de los ataques como la brecha en las defensas actuales. Las organizaciones no pueden esperar a que esto se normalice globalmente. Necesitan actuar ahora.
Las identidades sintéticas se construyen a partir de datos legítimos, direcciones reales, historiales laborales reales, conexiones sociales reales, que se mezclan y combinan para crear una personalidad convincente. Cada dato es válido. La combinación es inventada.
Los sistemas de detección de fraudes buscan patrones «malos» conocidos: información prohibida, credenciales previamente marcadas, verificaciones de velocidad. Eso funciona cuando los atacantes reutilizan la misma información fraudulenta. Pero las identidades sintéticas generalmente no se reutilizan. Cada una se construye desde cero a partir del enorme volumen de datos personales que circulan en internet y en las bases de datos de brechas de seguridad. Para cuando hayas marcado una, el atacante ya estará construyendo la siguiente.
Los seres humanos reales tienen patrones, hay un ritmo en la forma en que las personas trabajan. Podríamos llamarlo cadencia humana. Las identidades sintéticas, incluso las bien construidas, tienen fisuras. El comportamiento se siente extraño. Los patrones de acceso no cuadran con el rol. No es tan obvio como un deepfake mal hecho, pero es muy fácil caer en la trampa.
Los modelos de IA entrenados en comportamiento humano pueden detectar esas fisuras. No comparando contra una lista de firmas maliciosas conocidas, sino notando cuando algo simplemente no cuadra con cómo actúa una persona real. La mayoría de las organizaciones no están preparadas para detectar identidades sintéticas
Migrar hacia la detección basada en comportamiento requiere inversión. Significa replantearse por completo cómo funciona la verificación de identidad y aceptar que las credenciales solas no prueban que alguien sea quien dice ser. Hay que observar cómo se comportan con el tiempo. Eso implica más trabajo al principio, pero es una de esas situaciones en las que un gramo de prevención vale, a la larga, muchos kilos de cura.
Por Leonardo Gonzalez, Director Regional para América Latina, Ivanti








