La rápida evolución de la inteligencia artificial (IA) ha abierto nuevas oportunidades en diversas áreas, pero también ha sido aprovechada por ciberdelincuentes para cometer fraudes cada vez más sofisticados. En Costa Rica y otras partes del mundo, se han detectado casos donde videos creados con IA están siendo utilizados para llevar a cabo estafas bancarias, mediante la suplantación de identidad y la manipulación emocional de las víctimas.

Según Gezer Molina, director nacional de Ciberseguridad, estos videos tienen un alto grado de realismo: imitan rostros, voces y expresiones de personas reales, lo que hace más difícil para el usuario promedio identificar si se trata de un contenido falso. “Pueden parecer completamente auténticos, pero su propósito es engañar, generar confianza y obtener datos confidenciales como números de cuenta, contraseñas o códigos de verificación”, advirtió el funcionario.

Este tipo de material se propaga rápidamente a través de redes sociales, aplicaciones de mensajería instantánea y correos electrónicos, canales que permiten una distribución masiva y directa.


¿Qué tipo de fraudes están ocurriendo?

Los casos más comunes incluyen:

  • Suplantación de empleados bancarios solicitando información para supuestos «procesos de seguridad».
  • Videos falsos de figuras públicas pidiendo apoyo económico o participando en falsas promociones.
  • Simulación de familiares pidiendo dinero urgente por una emergencia.
  • Promociones bancarias inexistentes con enlaces que dirigen a páginas fraudulentas.

Estos montajes, conocidos como deepfakes, son generados mediante algoritmos de aprendizaje automático que permiten replicar rostros, voces y movimientos corporales con un alto grado de precisión.


¿Cómo identificar un video falso?

Los expertos en ciberseguridad recomiendan estar alerta a ciertos detalles que pueden delatar un video generado por IA:

  1. Parpadeo antinatural o ausencia de parpadeo.
  2. Desincronización entre labios y audio al hablar.
  3. Tono de voz robótico o con cambios bruscos.
  4. Expresiones faciales repetitivas o poco realistas.
  5. Llamados urgentes a la acción: frases como «actúe ahora», «evite bloqueos», «responda de inmediato», suelen ser señales de alerta.
  6. Enlaces sospechosos que no pertenecen a los sitios oficiales de entidades bancarias.

¿Qué hacer si recibe uno de estos videos?

  • No comparta ni reenvíe el contenido.
  • No ingrese datos personales o bancarios por mensaje, video o llamada.
  • Verifique directamente con la entidad bancaria o la persona supuestamente involucrada.
  • Reporte el contenido a las autoridades o al departamento de ciberseguridad de su banco.
  • Use fuentes oficiales para verificar promociones o comunicaciones.

Llamado a la ciudadanía

Las autoridades reiteran el llamado a la prudencia y verificación, especialmente ante mensajes con contenido emocional o urgencias económicas. La educación digital y el sentido crítico son herramientas clave para prevenir caer en este tipo de engaños.

“La inteligencia artificial no es peligrosa por sí misma, pero en manos equivocadas puede convertirse en una herramienta poderosa para el fraude”, concluyó Gezer Molina.