logo
Regresar a artículos

Conoce los 3 engaños comunes realizados por delincuentes usando LlaMa y Deepfakes.

Ismael Arellano

Especialista en Crimen Financiero

30 June 2025

La Inteligencia Artificial está transformando el mundo de los negocios, pero también está siendo apropiada por actores maliciosos que ven en estas tecnologías una nueva herramienta para defraudar.

En el corazón de esta nueva amenaza, modelos de lenguaje como LLaMA (Large Language Model Meta AI) y técnicas avanzadas de deepfake están siendo utilizados para ejecutar esquemas de suplantación de identidad altamente sofisticados, particularmente en ataques de Business Email Compromise (BEC).


IA Generativa al servicio del engaño.

Los modelos generativos de IA, entrenados con millones de datos y textos, son capaces de generar conversaciones, documentos, correos electrónicos incluso identidades sintéticas con un nivel de coherencia y estilo que engañaría a cualquiera. En el contexto del fraude empresarial, esto se traduce en:

  • Suplantación realista de ejecutivos: Mediante LLMs como LLaMA, los atacantes pueden replicar el tono, estilo y lenguaje de CEOs o CFOs para enviar correos electrónicos que parecen legítimos y urgentes, pidiendo transferencias, pagos o información sensible.
  • Manipulación de voz y video (deepfake): Combinando IA generativa con técnicas deepfake, se crean audios o videollamadas falsas en las que un “CEO” solicita en tiempo real una transacción urgente. Esto ya ha sucedido en múltiples países y está creciendo en sofisticación y frecuencia.
  • Identidades sintéticas: Con datos robados y modelos generativos, los atacantes están creando perfiles empresariales falsos (con historial, redes sociales y documentación apócrifa) para infiltrarse en cadenas de suministro, obtener líneas de crédito o participar en esquemas de fraude financiero.


El papel de la Ciberinteligencia: anticipar, detectar y neutralizar

Frente a este panorama, la Ciberinteligencia ya no es opcional, sino estratégica. Su rol es identificar patrones emergentes, perfilar actores de amenazas, rastrear uso malicioso de herramientas generativas y alertar tempranamente a las organizaciones sobre posibles vectores de ataque. Algunas líneas de acción críticas:

  • Monitoreo de entornos digitales para detectar actividad relacionada con IA maliciosa (foros, marketplaces, redes ocultas).
  • Análisis de firmas lingüísticas y patrones de comportamiento en correos o comunicaciones que permitan detectar anomalías frente al comportamiento habitual de un usuario.
  • Generación de inteligencia accionable sobre herramientas open-source de IA que están siendo adaptadas para el delito, como versiones modificadas de LLaMA distribuidas en foros cerrados.


¿Estamos preparados?

La democratización de la IA se ha fortalezido tanto a innovadores como a criminales. Si bien los beneficios son enormes, las amenazas también lo son. Los ejecutivos, CISOs, Analistas de inteligencia y líderes de compliance deben elevar el nivel de alerta y adoptar una postura proactiva basada en inteligencia, no solo en defensa reactiva.


Porque hoy, el fraude ya no se escribe con faltas de ortografía… se genera con LLaMA.

¿Has visto señales de IA maliciosa en tu entorno corporativo? ¿Tu empresa está preparada para enfrentar este nuevo nivel de engaño?

Mantente actualizado con Sip Consulting

Suscríbete a nuestro Newsletter

Mantente actualizado con Sip Consulting

Suscríbete a nuestro Newsletter