Imagen Principal

La tecnología de inteligencia artificial (IA) está siendo adoptada cada vez más por los estafadores para cometer fraude de nuevas cuentas (NAF) y eludir incluso las comprobaciones biométricas. Así lo revela un nuevo informe de Entrust, que analizó datos de más de mil millones de verificaciones de identidad en 30 sectores y 195 países entre septiembre de 2024 y septiembre de 2025.

El informe detalla cómo la IA generativa (GenAI) ha democratizado la creación de documentos de identidad falsificados y deepfakes, lo que permite a los estafadores generar réplicas hiperrealistas de documentos y suplantar identidades para abrir nuevas cuentas fraudulentas.

La IA impulsa las falsificaciones digitales

El estudio de Entrust destaca un cambio en las tácticas de fraude documental:

  • Falsificaciones físicas: Representaron casi la mitad (47%) de los intentos de fraude documental.
  • Falsificaciones digitales: Constituyeron más de un tercio (35%) de los intentos. Este aumento se atribuye a la “accesibilidad y escalabilidad de las herramientas de edición modernas” y la IA generativa.

Según el informe, lo que antes requería software especializado y habilidades de diseño ahora se puede lograr con un modelo de código abierto y unas pocas indicaciones de texto.

El riesgo de los Deepfakes en la verificación biométrica

Los estafadores también están utilizando deepfakes impulsados por IA para eludir los sistemas de verificación de identidad biométrica. Los deepfakes representan una quinta parte (20%) de los intentos de fraude biométrico y son especialmente prevalentes en el sector de servicios financieros:

  • Criptomonedas: 60% de los intentos de fraude biométrico.
  • Bancos digitales: 22% de los intentos.
  • Pagos y comercios: 13% de los intentos.

Los métodos de deepfake más comunes utilizados incluyen:

  • Identidades sintéticas: Caras generadas por IA que no corresponden a personas reales.
  • Intercambios de caras (Face swaps): Reemplazar la cara de una persona por la de otra en un video grabado o en vivo.
  • Selfies animados: Tomar una foto estática y usar IA para añadir movimiento, simulando una prueba de vida.

Ataques de inyección: eluden la captura en vivo

El informe advierte sobre el aumento de los ataques de inyección, donde las imágenes o videos falsos se introducen directamente en el sistema de verificación de identidad, omitiendo el proceso de captura en vivo a través de la cámara.

La frecuencia de estos ataques ha aumentado un 40% anualmente, según Entrust. Los ataques de inyección de cámara virtual son los más comunes y a menudo se combinan con técnicas de emulación de dispositivos para engañar al software de verificación y hacerlo creer que se trata de un intento de inicio de sesión legítimo.

Conclusiones: La identidad como primera línea de defensa

Simon Horswell, gerente senior de especialistas en fraude de Entrust, subraya que a medida que mejora la detección, las redes de fraude evolucionan, volviéndose más rápidas, organizadas y motivadas comercialmente. La IA generativa y las tácticas compartidas impulsan el volumen y la sofisticación de estos ataques.

Según el experto, la identidad se ha convertido en la primera línea de defensa, y protegerla con una verificación de identidad confiable a lo largo de todo el ciclo de vida del cliente es esencial para adelantarse a las amenazas adaptativas.

Referencias

  • Informe: Entrust 2026 Identity Fraud Report.