La amenaza creciente de la IA generativa
Esta explosión de contenido generado por IA representa hoy una amenaza real de fraude y manipulación. Los delincuentes pueden usar deepfakes para cometer cibercrímenes sofisticados: crear noticias falsas impactantes, simular videollamadas de “personas cercanas” o autoridades, montar engaños amorosos emocionales, suplantar identidades y estafar con criptomonedas y otros fraudes financieros. Además, la línea entre realidad y ficción se difumina, haciendo difícil distinguir a simple vista qué es real y qué no. Las autoridades alertan que el deepfake (la manipulación de imágenes y videos con IA para suplantar identidades) se ha detectado ya en todo tipo de estafas. Es por ello que entidades oficiales y expertos en ciberseguridad piden precaución y medidas preventivas contra estas prácticas engañosas.
¿Qué son los deepfakes y cómo funcionan?
Los deepfakes son contenidos sintéticos creados con IA que simulan la apariencia, voz o gestos de una persona real. Pueden generarse a partir de fotos, videos o audios disponibles públicamente. Por ejemplo, hay algoritmos que analizan cientos o miles de imágenes de una persona y luego reconstruyen su rostro (o su voz) en un video falso. Según expertos, los deepfakes pueden alterar rostros, incorporar expresiones faciales ajenas e incluso crear voces clonadas con alta fidelidad. No se trata solo de efectos cinematográficos: hoy cualquier persona con acceso a algunas aplicaciones de IA puede producir un video deepfake convincente, lo que vuelve esta amenaza viral.
La capacidad de crear engaños realistas ha hecho crecer este fenómeno. Algunos informes citan cifras alarmantes: un estudio de Sumsub indica que el número total de deepfakes en el mundo se multiplicó por diez entre 2022 y 2023, mientras que una encuesta de McAfee revela que en 2024 las estafas con deepfakes se dispararon un 1.740% en Norteamérica. Incluso encuestas a usuarios muestran la magnitud del problema: en México, por ejemplo, el 69% de los usuarios de redes sociales afirmaba haber visto deepfakes y el 71% consideraba las estafas en línea (muchas potenciadas por IA) su principal preocupación relacionada con esta tecnología.
Con estas cifras en mente, el término “deepfake” describe tanto videos como audios manipulados con IA. Los deepfaces son videos con rostros alterados –por ejemplo, se puede hacer que un político “diga” cualquier cosa–, mientras que los deepvoices son audios falsos donde se clona la voz de alguien conocido. A medida que la IA generativa mejora, estas falsificaciones se parecen cada vez más a la realidad, dificultando su detección. Los informes advierten que, frente a esta “nueva revolución” de la IA, hoy operamos con herramientas de investigación del siglo pasado. Por ello, es clave saber cómo identificar pistas sutiles: falta de parpadeos naturales, movimientos faciales torpes o inconsistencias en la iluminación y el audio son posibles señales de alarma.
Formas de fraude y manipulación con IA
La capacidad de generar falsificaciones realistas abre la puerta a numerosos delitos digitales. Entre los más frecuentes y peligrosos se encuentran:
-
Fraudes financieros y corporativos: Los delincuentes se hacen pasar por directivos, proveedores o instituciones en videoconferencias o llamadas para extorsionar pagos. Por ejemplo, un caso reportado en enero de 2024 en Hong Kong involucra a una empresa financiera donde un trabajador transfirió cerca de US$25 millones a un supuesto proveedor tras una videollamada. Todos los participantes en la llamada, excepto la víctima, resultaron ser deepfakes de ejecutivos reales. En otro caso similar, la policía de Hong Kong detuvo a 31 estafadores que, haciéndose pasar por ejecutivos cripto, robaron 34 millones de dólares. En ambos ejemplos, los atacantes descargaron videos reales de los ejecutivos y usaron IA para superponerles voces falsas, creando reuniones virtuales totalmente falsas. Como advierte un experto policial, «los estafadores son capaces de usar IA en reuniones en línea, por lo que debemos ser cautelosos incluso en videollamadas con mucha gente».
-
Suplantación de identidad y clonación de voz: Con solo un breve fragmento de audio de una persona, la IA puede replicar su voz casi a la perfección. A esto se le llama “voice hacking” o clonación de voz. Por ejemplo, en EE. UU. en 2023 una mujer llamada Jennifer recibió una llamada donde la voz de su hija (falsa) decía haber sido secuestrada y exigía un rescate de 50.000 dólares. Ella accedió a transferir el dinero antes de descubrir el engaño. Casos similares han ocurrido en todo el mundo: la Policía Nacional de España alerta de estafas en las que se copia la voz de un pariente o jefe para pedir dinero a sus allegados. También, una reciente estafa documentada en España fue el caso de un empleado de gasolinera que recibió un audio con la voz “de un compañero” solicitándole una transferencia urgente. Ante estas amenazas, las autoridades recomiendan medidas simples como acordar con familiares una “palabra clave” secreta para verificar llamadas sospechosas.
-
Estafas románticas y emocionales: La IA facilita los esquemas de catfishing más sofisticados. Grupos delictivos crean perfiles falsos en apps de citas o redes sociales con fotos y videos deepfake de personas atractivas. Luego entablan relaciones virtuales fingidas (a menudo por semanas o meses), hasta que solicitan dinero argumentando emergencias personales. Un reportaje de Infobae documenta una red que operaba en Asia: usando videollamadas profundamente manipuladas por IA, hicieron creer a decenas de víctimas que hablaban con su “pareja” real. De esa red se reportó más de 46 millones de dólares estafados antes de su desmantelamiento. El engaño es potente porque las víctimas confían en la autenticidad de la videollamada: no distinguen el video manipulado de la realidad. Tras ganar la confianza, los estafadores piden grandes sumas (para supuestas emergencias médicas, inversiones, etc.) y las víctimas, convencidas de que ayudan a su ser amado, transfieren el dinero. Estos fraudes, además de las pérdidas económicas, dejan secuelas emocionales profundas en las víctimas.
-
Noticias falsas y manipulación política: Más allá de fraudes individuales, la IA generativa alimenta la desinformación masiva. Los deepfakes pueden usarse para crear videos falsos de personalidades públicas (políticos, celebridades) pronunciando mensajes inventados, o audios con advertencias supuestamente oficiales. Por ejemplo, en Estados Unidos durante las elecciones de medio término se detectaron llamadas automáticas con la voz clonada del presidente Biden para manipular votantes. Plataformas como Twitter (X) han tenido que suspender búsquedas populares tras la aparición de deepfakes explícitos de figuras como la cantante Taylor Swift. En general, los cibercriminales pueden alimentar campañas de pánico o promover bulos sobre inversiones (falsos sorteos de criptomonedas con imágenes deepfake de empresarios). Un informe alerta que, hoy día, las estafas relacionadas con criptomonedas –muchas potenciadas por IA– ya superan en pérdidas a los tradicionales correos de phishing. Así, la capacidad de crear contenido falso convincente facilita la comisión de delitos como el fraude financiero, el robo de identidad sintética y el ciberespionaje, perjudicando tanto a individuos como a empresas e instituciones.
Cifras y casos recientes destacados
Indicador | Valor / Ejemplo | Fuente |
---|---|---|
Incidentes de fraude digital en España (2024) | ~100.000 (15% más que 2023) | INCIBE / Policía (Infobae) |
Aumento global de deepfakes (2023-2024) | ×10 en 2024 (1.740% en N.américa) | McAfee Labs |
Usuarios expuestos a deepfakes | 69% de internautas en redes sociales (México, 2024) | Estudio Microsoft (vía El Financiero) |
Pérdidas por fraudes con criptomonedas | 4.600 millones USD (2024) impulsados por IA | Informe Bitget (El Economista) |
Redes de fraude deepfake desmanteladas | 87 operaciones (Asia, 1er trim. 2025) | SlowMist / Bitget (El Economista) |
Estas cifras oficiales demuestran la magnitud del problema. Por ejemplo, en España la Fiscalía General alerta que en 2023 las estafas online representaron el 82,9% de los casos de cibercrimen, advirtiendo sobre nuevas modalidades como el deepfake y el ransomware con IA. A nivel empresarial, el informe de Verizon de 2023 señala que un 74% de las brechas de datos incluyen un factor humano (usuarios poco formados). Mientras tanto, organismos internacionales descubren redes criminales integradas (especialmente en Asia) que utilizan deepfakes en tiempo real para estafas masivas.
Estado actual de la ciberseguridad y respuesta legal
Para enfrentar estas amenazas, gobiernos y organismos de ciberseguridad han comenzado a reaccionar. En Europa se ha aprobado la Ley de Inteligencia Artificial (Reglamento UE 2024/1689) –el primer reglamento global sobre IA– que exige transparencia y limita usos de riesgo. En España, se adaptó esta ley con un anteproyecto que obliga a etiquetar todo contenido generado o alterado por IA. De hecho, la normativa española prohíbe los deepfakes no etiquetados, considerándolos una forma de “ultrasuplantación” de identidad. Este enfoque pionero sitúa a España a la vanguardia: por ejemplo, exige que desde el primer fotograma se indique si un video fue creado con IA.
La seguridad digital busca crear nuevas defensas. Organismos como el recién creado Agencia Española de Supervisión de la IA (AESIA) velarán porque las empresas cumplan estas normas. Igualmente se promueven herramientas de verificación y marcas de agua digitales: grandes empresas tecnológicas han anunciado proyectos para “etiquetar criptográficamente” fotos y videos de IA, intentando evitar que los deepfakes circulen sin aviso. La Fiscalía de España, por su parte, recomienda fortalecer la legislación y tipificar los delitos basados en IA.
En el ámbito práctico, la ciberseguridad corporativa insiste en la autenticación avanzada: se promueve la verificación biométrica con detección de vida (para evitar que una foto o video falso sea usado como “prueba de vida”) y la autenticación multifactor. Además, cada vez más bancos, empresas y organismos usan sistemas internos de detección automática de fraudes (basados en IA defensiva) que analizan patrones de comportamiento anómalos. Pese a todo, las autoridades reconocen que la defensa va por detrás de la amenaza. En palabras de la Fiscalía: “Abordamos la investigación de delitos en puertas de una nueva revolución con la IA, con medios del siglo pasado”.
A nivel social, las fuerzas de seguridad han comenzado a informar al público sobre estas prácticas. Por ejemplo, la Policía Nacional de España ha lanzado campañas explicando qué es el voice hacking y cómo los estafadores copian voces para engañar. Los Mossos d’Esquadra (Cataluña) advierten que técnicas del fraude del CEO –como deepfakes de audio en llamadas telefónicas– están apareciendo en estafas contra ciudadanos comunes. En suma, si bien la comunidad internacional refuerza normas y tecnologías para contrarrestar la IA maliciosa, el consenso es que aún es un combate abierto y en evolución.
Recomendaciones para protegerse
Frente a tantos riesgos, la precaución y verificación son las mejores armas de cualquier usuario. A continuación, se resumen consejos prácticos para el público general (íntimamente respaldados por expertos en seguridad) sobre cómo evitar caer en fraudes basados en IA:
-
Desconfía de lo urgente y sorprendente. Nunca actúes (ni compartas información ni hagas transferencias) ante mensajes repentinos que juegan con las emociones (“mamá secuestrada”, “amor en apuros”, oferta de inversión increíble, etc.). Tal como recomienda la Policía, hay que verificar la identidad del interlocutor antes de actuar, especialmente si pide dinero o datos sensibles. Si escuchas un mensaje muy urgente o demasiado perfecto, pausa y piensa antes de responder.
-
Verifica siempre la fuente. Antes de creer una noticia, video o audio impactante, comprueba si procede de medios oficiales o sitios confiables. No compartas ni reenvíes contenidos sospechosos sin contraste: busca si otros medios prestigiosos (prensa reconocida, sitios de fact-checking) lo han publicado. Por ejemplo, un video viral creado con IA puede circular por redes, pero no significa que sea real. Aprende a usar herramientas sencillas: busca el mismo video o imagen en Google Images (búsqueda inversa) para ver si ya existe en contexto diferente. Incluso mensajes de conocidos merecen precaución; pregunta directamente por otro medio: ¿realmente tu amigo te ha enviado eso?
-
Utiliza autenticación fuerte. Protege tus cuentas con contraseñas largas y únicas y activa la verificación multifactor (MFA) siempre que sea posible. De este modo, aunque un estafador lograra clonar tu contraseña, no bastará para acceder a tu cuenta. La MFA añade un código enviado al móvil o una aplicación de autenticación, duplicando la barrera de acceso. De paso, nunca compartas contraseñas ni códigos de seguridad con nadie.
-
Limita tu huella digital. Cuanta más información y material personal haya sobre ti en internet, más datos tienen los delincuentes para generar deepfakes convincentes. Por eso, cuida la privacidad de tus redes sociales: ajusta la configuración para que solo amigos cercanos vean tus fotos y videos. Comparte con cuidado: cuanto menos material biométrico público (fotos nítidas, grabaciones de voz) haya de ti, más difícil será clonar tu identidad. Incluso puedes añadir marcas de agua digitales a tus fotos o restringir quién puede verte en videochats públicos. Mantener tus perfiles lo más privados posible es una capa de protección básica.
-
Detecta señales de manipulación. Aprende a identificar signos de deepfake en imágenes, videos y audios. Algunos indicios comunes son parpadeos muy escasos o ausentes, sincronización labial imperfecta, entonación robótica o fluctuaciones extrañas en la voz, reflejos o sombras incoherentes en el rostro, labios que se mueven sin ajustar bien al audio, y movimientos faciales raros. Usa tu intuición: si algo se ve “demasiado perfecto” o le falta naturalidad, sospecha. También puedes aprovechar herramientas de detección: hoy existen programas y extensiones que analizan un video para buscar píxeles inusuales o señales de manipulación.
-
Mantén actualizado tu software. Usa versiones actuales de tu sistema operativo, navegador y antivirus. Las actualizaciones corrigen vulnerabilidades que podrían permitir instalar programas maliciosos o interrumpir medidas de seguridad. Por ejemplo, un malware instalado podría grabar tu voz real para luego crear un deepfake, o inyectar contenidos falsos en tu navegación. La recomendación de expertos es activar actualizaciones automáticas siempre que sea posible.
-
Aprende sobre esta tecnología. Estar informado ayuda a reconocer intentos de estafa. Sigue las noticias de ciberseguridad, lee artículos divulgativos y participa en charlas o cursos básicos sobre fraudes digitales. Como señala la National Cyber Security Alliance, es útil informarse sobre los deepfakes y la IA; no hace falta ser experto, pero conocer los riesgos te mantiene alerta. Si sabes, por ejemplo, que te pueden enviar un video falso de un famoso o una llamada clonada de tu jefe, sospecharás ante una situación similar.
-
Comprueba doblemente con otra vía. Si alguien conocido (familiar, compañero de trabajo, banco, empresa de servicios) te pide algo inusual por teléfono o mensaje, córrelo con otro canal: escribe un mensaje, llama al número oficial o acude en persona si es posible. No te fíes solo de la llamada entrante. Y si algo implica dinero, lo ideal es reunirse o hablar por video con la contraparte real (que tú sepas) o pedir envío de un comprobante oficial.
-
Reporta contenidos falsos y sé crítico. Si detectas un posible deepfake (una foto o video claramente manipulado) que menciona a alguien conocido, denúncialo en la plataforma donde lo viste para que lo eliminen. También puedes avisar a la víctima suplantada. En caso de estafa, informa a tu banco y a las autoridades (en España, vía la Policía Nacional o el INCIBE). Al final, la mejor defensa colectiva es frenar la propagación: si nadie comparte el deepfake, pierde fuerza.
En resumen, la prevención personal y la verificación constante son clave. Como aconseja la Fundación NCSA (EE. UU.): «Piensa antes de hacer clic». Mantén una actitud escéptica ante mensajes que intentan alterar tu estado emocional, y usa la tecnología (MFA, detección, privacidad) para añadir capas de defensa. La IA maliciosa puede evolucionar, pero con buenos hábitos digitales y precaución consciente, podemos reducir mucho el riesgo de ser víctimas de estos fraudes.
Tabla: Señales comunes de deepfake
Señal de alerta | Qué observar |
---|---|
Rostro sin parpadeo natural | Los deepfakes a menudo tienen muy pocos parpadeos. |
Sincronización imprecisa | Labios o expresiones faciales que no coinciden con el audio. |
Iluminación extraña | Sombras o reflejos que no encajan con el resto de la escena. |
Voz con distorsiones | Tonos robóticos, fluctuaciones de ritmo o final abrupto. |
Contexto poco creíble | Situaciones inusuales o personajes que no aparecen en medios fiables. |
Petición urgente de dinero | Cualquier solicitud financiera por motivos emocionales dudosos. |
Estas pautas, unidas a la información verificada, ayudan a detectar contenidos manipulados.