Con el uso generalizado de la IA para transformar las industrias, los deepfakes se han convertido en un fenómeno global que está difuminando las líneas entre lo real y lo manipulado. Según las encuestas, más de la mitad de los empleados de las organizaciones no están debidamente formados sobre los riesgos de los deepfakes. Al mismo tiempo, 1 de cada 4 líderes sigue sin ser consciente de estas sofisticadas falsificaciones llamadas deepfakes, y los incidentes se producen cada cinco minutos en todo el mundo. En este panorama, las defensas contra los deepfakes ya no son opcionales, y las empresas necesitan saber qué son los deepfakes y cómo mitigarlos.
Así pues, comencemos este artículo con la definición de deepfakes y cómo han llegado a ejercer una influencia tan enorme en los medios de comunicación y la seguridad. A continuación, analizaremos su evolución histórica, sus diversas formas, sus métodos de creación y sus métodos de detección. A continuación, describiremos casos de uso en el mundo real, tanto buenos como malos, incluyendo las perspectivas de futuro y consejos para protegerse de los deepfakes. Por último, analizaremos cómo proteger a las organizaciones de estas sofisticadas manipulaciones y analizaremos algunas de las preguntas más comunes sobre qué es un deepfake en ciberseguridad.
¿Qué son los deepfakes?
Los deepfakes, en esencia, son medios sintéticos (normalmente vídeo o audio) creados por modelos de IA para imitar los rostros, las voces o los movimientos de personas reales con un realismo inquietante. Estos sistemas utilizan marcos de aprendizaje profundo, concretamente redes generativas adversarias (GAN), que enfrentan a dos redes neuronales entre sí, una que produce falsificaciones y otra que las critica por su autenticidad. El generador repite su producción durante muchas iteraciones hasta que engaña al discriminador, creando ilusiones muy realistas, normalmente denominadas "mejores deepfakes" si el producto final es indistinguible de las imágenes reales.
A veces pueden ser cómicos o creativos, pero también pueden utilizarse para el robo de identidad o la desinformación maliciosa. Los deepfakes se han convertido en uno de los principales retos de la ciberseguridad, como se observa en una encuesta de 2023, en la que el 92 % de los ejecutivos manifestaron su "gran preocupación" por el uso indebido de la IA generativa.
Impacto de los deepfakes
Como demuestran varios ejemplos que veremos más adelante en el artículo, Deepfake es peligroso y puede utilizarse para diversos tipos de ataques, desde daños a la reputación a pequeña escala hasta desinformación a gran escala. Una cifra inquietante revela que los fraudes con intercambio de rostros deepfake en la verificación de identidad aumentaron un 704 % en 2023, lo que sugiere cómo los delincuentes utilizan la IA en el robo de identidad. A continuación se presentan cinco formas importantes en las que los deepfakes definen los paradigmas de riesgo actuales.
- Disminución de la confianza en las pruebas visuales: Durante muchos años, el vídeo se consideraba una prueba casi irrefutable. Ahora es posible sustituir la cabeza o la voz de una persona por el cuerpo de otra, lo que significa que lo que uno podría considerar una prueba podría no ser real. Estas ilusiones hacen que el público dude de los clips reales y, por lo tanto, cuestione la autenticidad del periodismo o las confesiones que se muestran en los clips. Con el colapso de lo auténtico, la pregunta "¿qué es deepfake y qué es real?" se convierte en una cuestión importante para la justicia y el público.
- Daño a la reputación y difamación: Un clip puede mostrar a la persona objetivo diciendo algo provocativo o haciendo algo incorrecto. Cuando se publica en Internet, se difunde en poco tiempo antes de que se pidan disculpas por la información errónea. La duda permanece y la credibilidad del canal se ve dañada incluso cuando se demuestra que las imágenes son falsas. Ya se está poniendo de manifiesto que la mayoría de los deepfakes empleados en campañas de desprestigio político muestran lo rápido que las ilusiones dominan sobre las declaraciones reales.
- Ingeniería social y fraude corporativo: Las empresas pierden dinero cuando llamadas o vídeos deepfake engañan a los empleados para que transfieran fondos o revelen información. Bajo este enfoque, los atacantes se basan en la confianza de los empleados para hacerse pasar por usuarios legítimos y obtener la aprobación de las solicitudes. En la autenticación basada en la identidad, si se viola la identidad, toda la cadena de suministro o los procesos financieros corren peligro. Esto demuestra que la tecnología deepfake es una mejora de las técnicas existentes de ingeniería social.
- Promoción de noticias falsas: Los grupos extremistas pueden grabar vídeos de sus líderes apoyando la agenda de noticias falsas o falsificando documentos recién filtrados para causar división. En este caso, las ilusiones se difunden en las plataformas sociales donde la gente comparte noticias falsas antes de que las organizaciones de verificación de datos puedan intervenir. Para cuando un clip es desacreditado, ya ha influido en miles de personas. Esto es especialmente cierto porque el contenido deepfake es de naturaleza viral y puede causar una agitación política o social significativa.
- Ataques a la verificación y autenticación de la identidad: El reconocimiento facial o de voz como método biométrico es muy vulnerable a los deepfakes. Se puede utilizar para crear vídeos falsos de intercambio de rostros para pasar los procesos de KYC o para desbloquear el teléfono o cualquier otro dispositivo de otra persona. Por eso aumentaron los robos de identidad, lo que llevó a otras soluciones a integrar la detección de vida o el análisis de microexpresiones. La presencia de ilusiones de "deepfakes de IA" en los dominios de autenticación supone una amenaza para la capa central de ciberseguridad.
Deepfake frente a shallowfake
No todos los vídeos manipulados requieren una IA compleja. "Shallowfake" se refiere a herramientas de edición más sencillas, como clips ralentizados o acelerados. Por otro lado, los métodos deepfake utilizan redes neuronales avanzadas para que los resultados sean más realistas. Los deepfakes implican el uso de marcos de aprendizaje profundo para replicar un rostro, una voz o incluso todo el cuerpo hasta el punto de que sea casi perfecto. Mantienen una iluminación constante, articulan los movimientos faciales y adaptan las expresiones faciales del objetivo. Las ilusiones pueden engañar incluso a los espectadores más cautelosos gracias al sofisticado procesamiento de datos. Su característica distintiva es la superposición avanzada de capas y el modelado generativo para crear resultados realmente realistas.
Sin embargo, un "shallowfake" probablemente implicaría cortes manuales, técnicas de ralentización o aceleración, o simples filtros de edición. Esto puede inducir a error a los espectadores si no son conscientes de que el clip está acelerado o recontextualizado artificialmente. Los falsos superficiales son más fáciles de detectar, pero pueden ser muy eficaces para difundir verdades parciales o ilusiones cómicas. Aunque son menos avanzados que las ilusiones falsas profundas, siguen teniendo su lugar en la desinformación y la manipulación de los medios de comunicación.
Historia de la tecnología de los deepfakes
Los orígenes de los deepfakes se remontan a los avances en el aprendizaje profundo y a la colaboración de código abierto que dieron lugar a una explosión de innovaciones en el intercambio de rostros. Los experimentos de manipulación facial existen desde hace décadas, pero las redes neuronales modernas han llevado el realismo a niveles sorprendentes.
Una estimación prevé que para 2026, El 30 % de las empresas ya no confiarán plenamente en la verificación de identidad como garantía de fiabilidad debido a los avances en la falsificación basada en la IA.
- Primeros experimentos y trasplante facial: En la década de 1990, los especialistas en CGI probaron los primeros intercambios faciales animados a mano, muy rudimentarios, para los efectos especiales de las películas. Aunque las herramientas se hicieron más avanzadas, los resultados parecían poco naturales y era necesario editar manualmente los fotogramas. Los investigadores en informática probaron el aprendizaje automático para el morphing, pero las limitaciones del hardware impidieron seguir avanzando. Aunque el concepto fue la base de los deepfakes, los verdaderos avances no llegaron hasta que se dispuso de conjuntos de datos más grandes y de una computación GPU robusta.
- Redes generativas adversarias (GAN): Las GAN fueron introducidas por Ian Goodfellow en 2014 y revolucionaron los medios sintéticos. Los bucles de retroalimentación iterativos entre un generador y un discriminador refinaron los rostros sintéticos. Esto inspiró ilusiones muy pulidas. Al eliminarse las antiguas limitaciones manuales, los creadores pudieron ver cómo los "mejores deepfakes" podían replicar microexpresiones y matices de iluminación que antes no se podían lograr.
- Comunidad y popularización en Reddit: Los deepfakes se hicieron populares entre el público alrededor de 2017, cuando los subreddits comenzaron a difundir intercambios de rostros de famosos, algunos divertidos y otros no tanto. Así, la gente descubrió cómo el código abierto y las GPU de consumo democratizaron las falsificaciones. Las plataformas de deepfakes fueron prohibidas para contenidos no consentidos, pero el "genio de los deepfakes" ya había salido, con innumerables bifurcaciones y nuevas interfaces fáciles de usar. Esto puso de relieve los dilemas éticos que rodeaban la fácil manipulación facial.
- Herramientas comerciales y avances en tiempo real: Hoy en día, las aplicaciones y soluciones comerciales se encargan de intercambios de rostros a gran escala, sincronizaciones labiales o clones de voz con poca intervención del usuario. Otras son ilusiones en tiempo real para bromas en streaming o videoconferencias. Mientras tanto, los estudios están perfeccionando la tecnología de IA deepfake para traer de vuelta a los actores al cine o para localizar contenidos sin problemas. Sin embargo, a medida que su uso se disparaba, las empresas y los organismos gubernamentales comenzaron a darse cuenta de que la infiltración y la propaganda eran amenazas potenciales.
- Respuesta normativa y esfuerzos de detección: Los gobiernos de todo el mundo están proponiendo o promulgando leyes que prohíben el uso de deepfakes con fines maliciosos, especialmente en casos de difamación o fraude. Al mismo tiempo, las empresas tecnológicas están colaborando con científicos especializados en inteligencia artificial para mejorar la detección de deepfakes en las redes sociales. Sin embargo, esto conduce a una situación de gato y ratón en la que una parte desarrolla un nuevo método de detección y la otra parte desarrolla un nuevo método para burlarlo.noopener">inteligencia artificial para mejorar la detección de deepfakes en las redes sociales. Sin embargo, esto conduce a una situación de gato y ratón en la que una parte desarrolla un nuevo método de detección y la otra inventa una nueva forma de generar deepfakes. Se prevé que en el futuro habrá una lucha constante entre la creatividad y el creciente problema de las amenazas a la ciberseguridad que plantean los deepfakes.
Tipos de deepfakes
Aunque los vídeos con intercambio de rostros acaparan los titulares, las citas deepfake pueden adoptar muchas formas, desde imitaciones de audio hasta recreaciones de cuerpo entero. Conocer cada variedad ayuda a comprender el alcance de los posibles abusos.
A continuación, clasificamos los principales tipos de deepfakes que se dan en los medios de comunicación cotidianos y en contextos de seguridad avanzada.
- Vídeos con intercambio de rostros: La versión más emblemática, los intercambios de caras superponen la cara de un sujeto sobre el cuerpo en movimiento de otra persona. Las redes neuronales son expertas en rastrear expresiones y hacerlas coincidir fotograma a fotograma para crear ilusiones realistas. Algunos de estos vídeos deepfake son memes divertidos, mientras que otros son bulos maliciosos que pueden arruinar reputaciones. Incluso los espectadores más perspicaces sin herramientas de detección avanzadas pueden quedar desconcertados por los detalles de alta fidelidad.
- Sincronización labial y superposiciones de audio: Las falsificaciones de sincronización labial, a veces denominadas "manipulación de marionetas", sustituyen los movimientos de la boca para que coincidan con el audio sintético o manipulado. ¿El resultado? Las palabras nunca son pronunciadas por el hablante, pero parecen serlo. En combinación con la clonación de voz, el "rostro" del clip puede interpretar de forma convincente guiones completos.
- Clonación solo de voz: Los deepfakes de audio se basan únicamente en la réplica de la voz de la IA sin imágenes. Los estafadores los utilizan en estafas telefónicas, como suplantar a un ejecutivo para ordenar transferencias bancarias urgentes. Algunos crean voces en off de "cameos de famosos" para campañas de marketing. Detectar este tipo de deepfakes es difícil porque no tienen señales visuales y requieren un análisis espectral avanzado o desencadenantes contextuales sospechosos.
- Recreación de todo el cuerpo: Los modelos generativos pueden capturar toda la postura, los movimientos y los gestos de un actor y trasladarlos a otra persona. El resultado final es un sujeto que parece estar bailando, practicando deportes o realizando tareas que nunca ha hecho. Las experiencias cinematográficas o de realidad aumentada exigen ilusiones de cuerpo completo. Sin embargo, lo que más alarma a la ciberseguridad deepfake es la posibilidad de falsificar "vídeos de coartada" o pruebas escenificadas.
- Clones conversacionales basados en texto: Aunque no se mencionan tan a menudo como los deepfakes, los sistemas de texto generativo imitan el estilo de escritura o de chat de una persona. Los ciberdelincuentes crean nuevos hilos de mensajes que imitan el lenguaje y el estilo de escritura del usuario. Cuando se añade la voz o la imagen a la ilusión, se puede crear una falsificación de varios niveles, o incluso un personaje deepfake completo. Es previsible que, a medida que la IA generativa basada en texto crezca en complejidad, se utilice no solo para falsificar imágenes, sino también en esquemas de ingeniería social a través de plataformas de mensajería.
¿Cómo funcionan los deepfakes?
Los deepfakes se basan en un sólido proceso de recopilación de datos, entrenamiento de modelos y perfeccionamiento de la ilusión. Los delincuentes están explotando la IA generativa para cometer fraudes, y las investigaciones muestran un crecimiento del 700 % en los incidentes de deepfakes relacionados con la tecnología financiera.
gt;IA generativa para cometer fraudes, y las investigaciones muestran un crecimiento del 700 % en los incidentes de deepfakes en el sector fintech.Al conocer el proceso, las empresas pueden comprender las vulnerabilidades y las posibles contramedidas.
- Recopilación y preprocesamiento de datos: Los creadores recopilan enormes bibliotecas de imágenes o audio del objetivo, a menudo a partir de redes sociales, entrevistas o archivos públicos. Cuanto más variados sean los ángulos, las expresiones o las muestras de voz, más realista será el deepfake final. A continuación, normalizan los fotogramas, estandarizan la resolución y etiquetan los puntos de referencia relevantes (por ejemplo, los ojos o la forma de la boca). Con este fin, esta curación garantiza que la red neuronal vea los mismos datos en las diferentes etapas del entrenamiento.
- Entrenamiento de la red neuronal: Los marcos de aprendizaje adversarial como las GAN son el núcleo de las ilusiones basadas en la IA, ya que refinan cada fotograma o fragmento de audio creado. Intentan engañar a un discriminador que critica la autenticidad. A través de muchas iteraciones, el generador es capaz de pulir el resultado para que coincida con los matices del mundo real, como los patrones de parpadeo o la entonación vocal. La sinergia da lugar al fenómeno del deep fake, que da como resultado falsificaciones casi perfectas.
- Alineación y deformación de la cara y la voz: Una vez que aprende a replicar los rasgos faciales o vocales del objetivo, los combina con la cabeza, el cuerpo o la pista de voz de una segunda persona en imágenes reales. Para garantizar la sincronización con el clip de referencia, se realiza una alineación de los labios, los ojos o los movimientos. El análisis de la forma de onda mezcla el timbre de la voz del objetivo con la sincronización de la pista base para el audio. Los pequeños artefactos o desajustes de color que podrían sugerir que se trata de un deepfake de IA se corrigen con el posprocesamiento.
- Postproducción y renderización final: Para los toques finales, los creadores suelen pasar los fotogramas o el audio resultantes por herramientas de edición para suavizar los bordes, igualar la iluminación o ajustar el tono del audio. Algunos incluso pueden degradar intencionadamente la calidad del vídeo para que se parezca al tipo de grabaciones típicas de los teléfonos inteligentes que podrían contener posibles deepfakes. Los productores publican el contenido en las plataformas sociales o lo envían a los destinatarios una vez que están satisfechos. El resultado parece auténtico, lo que causa alarma y da lugar a una demanda de métodos de detección mejorados.
¿Cómo se crean los deepfakes?
Aunque existen varias controversias, muchas personas están interesadas en comprender mejor el concepto para crear deepfakes. Ahora, cualquiera puede crear ilusiones avanzadas con software fácil de usar y modelos de código abierto. A continuación describimos los métodos habituales que utilizan los aficionados y los profesionales, mostrando lo fácil que es crear este tipo de contenido malicioso.
- Aplicaciones de intercambio de caras: Existen diversas herramientas de consumo que permiten a los principiantes crear intercambios de caras desde un teléfono o un ordenador con un esfuerzo mínimo. El software automatiza el entrenamiento y la mezcla mediante la carga de dos vídeos (uno de origen y otro de destino). Sin embargo, estas aplicaciones pueden utilizarse para falsificar identidades si se utilizan con fines maliciosos. La democratización fomenta tanto el entretenimiento lúdico como el uso indebido y grave de los deepfakes.
- Marcos GAN y código abierto: Se pueden obtener resultados avanzados a través de marcos como TensorFlow o PyTorch con repositorios dedicados a la falsificación de rostros o voces. Los aficionados a la tecnología, expertos en arquitectura de redes, parámetros de entrenamiento o incluso combinaciones de datos, pueden adaptar las arquitecturas de red, ajustar los parámetros de entrenamiento o integrar múltiples conjuntos de datos. Con este enfoque se pueden conseguir los mejores deepfakes, pero requiere más hardware (GPU) y conocimientos de programación. Esto supone un aumento significativo del nivel de engaño, ya que permite ajustar las ilusiones más allá de los valores predeterminados de fábrica.
- Ilusiones basadas en audio: Los creadores que se centran en las ilusiones basadas en audio utilizan scripts de síntesis de voz y los combinan con módulos de sincronización labial para conseguir movimientos de boca realistas. El sistema puede entrenarse con muestras de voz y generar nuevas líneas con el acento o los gestos del objetivo. Para garantizar que las imágenes coincidan con cada fonema pronunciado, se proporciona la alineación del movimiento de los labios. Estas "combinaciones de sincronización labial deepfake" son capaces de crear ilusiones de "cabezas parlantes" sorprendentemente precisas.
- Servicios de renderización basados en la nube: Algunos proveedores comerciales de deepfakes o de herramientas de IA pueden encargarse del pesado entrenamiento de modelos en servidores remotos. Los usuarios solo tienen que enviar conjuntos de datos o parámetros de script y esperar los resultados finales. Se eliminan las limitaciones de las GPU locales y se pueden ejecutar ilusiones grandes o complejas en una infraestructura robusta. Por otro lado, también permite realizar pedidos rápidos de falsificaciones avanzadas, lo que suscita preocupaciones sobre la ciberseguridad de los deepfakes.
- Superposiciones manuales y edición híbrida: A continuación, los creadores utilizan software como Adobe After Effects para refinar manualmente los fotogramas, incluso después de haber generado un mapa facial basado en una red neuronal. Resuelven los artefactos de los bordes, cambian la iluminación o incluyen empalmes shallowfake para que las transiciones de los artefactos sean lo más mínimas posible. La combinación de contenido generado por IA y una hábil posproducción es casi perfecta. El resultado es un deepfake que puede colocar fácilmente un sujeto falso en cualquier lugar, desde sketches divertidos hasta imitaciones maliciosas.
¿Cómo detectar los deepfakes?
El arte y la ciencia de la detección se vuelven más difíciles a medida que las ilusiones se hacen más realistas. Dado que la mitad de los profesionales de la ciberseguridad carecen de formación formal en deepfakes, las organizaciones corren el riesgo de convertirse en víctimas de fraudes o desinformación de alto riesgo. A continuación se presentan algunos enfoques probados, tanto manuales como basados en la inteligencia artificial, que funcionan bien para la detección de deepfakes.
- Observación humana y pistas contextuales: Las ilusiones avanzadas tienen sus límites, y factores como parpadear de forma inconsistente, sombras extrañas o comisuras de los labios que no coinciden pueden levantar sospechas. Los observadores también pueden buscar "transiciones" faciales poco naturales cuando el sujeto gira la cabeza. Las ediciones sospechosas se pueden verificar cruzando los fondos o las marcas de tiempo. Las comprobaciones manuales no son infalibles, pero siguen siendo la primera línea de defensa para detectar un deepfake de un vistazo.
- Análisis forense con IA: Los clasificadores de redes neuronales entrenados específicamente para detectar artefactos sintetizados pueden analizar patrones a nivel de píxeles o dominios de frecuencia. El sistema señala alineaciones poco naturales o sombreados de color comparando las distribuciones normales de los rasgos faciales con los fotogramas sospechosos. Algunas soluciones utilizan señales temporales, por ejemplo, el seguimiento de microexpresiones a lo largo de los fotogramas. Estos algoritmos de detección también deben evolucionar a medida que las ilusiones de deepfake con IA siguen mejorando en una carrera armamentística perpetua.
- Inspección de metadatos y EXIF: Si un archivo tiene metadatos, la marca de tiempo de creación a menudo no coincide con la marca de tiempo del archivo, la información del dispositivo es incorrecta o hay rastros de codificación y recodificación. Algunas ilusiones avanzadas también eliminan los datos EXIF para ocultar rastros. Aunque la mayoría de los clips legítimos tienen metadatos deficientes, las disparidades repentinas sugieren manipulación. Este enfoque se complementa con un análisis más profundo, en particular para la verificación empresarial o de noticias.
- Interacciones en tiempo real (comprobaciones de vitalidad y seguimiento del movimiento): Con interacciones en tiempo real, como la capacidad de reaccionar espontáneamente en una videollamada en directo, se pueden revelar o confirmar las ilusiones. Si la IA no se adapta con la suficiente rapidez, se producen retrasos o fallos faciales. Los marcos de detección de vida, en general, se basan en movimientos musculares microscópicos, ángulos de la cabeza o patrones de parpadeo aleatorios que las falsificaciones rara vez imitan de forma consistente. Otros sistemas de identificación requieren que el usuario mueva la cara de determinadas formas, y si el vídeo no puede seguir el ritmo, el deepfake queda al descubierto.
- Referencia cruzada con el metraje original: Si un clip sospechoso afirma que una persona está en un evento concreto o dice ciertas frases, la comprobación de la fuente oficial puede confirmar o refutar lo que se afirma. A menudo se encuentran contenidos que no coinciden en comunicados de prensa, ángulos de cámara alternativos o declaraciones oficiales que conocemos. Combina la verificación de datos estándar con la detección de deepfakes. En la era de los bulos virales, los medios de comunicación convencionales ahora confían en estas verificaciones cruzadas en nombre de la credibilidad.
Aplicaciones de los deepfakes
Aunque a menudo se habla de los deepfakes en términos negativos, también pueden utilizarse para producir resultados valiosos o innovadores en diferentes sectores. Las aplicaciones de los deepfakes no son solo falsificaciones maliciosas, sino que también incluyen artes creativas y herramientas especializadas.lt;/p>
A continuación se presentan cinco ejemplos destacados de cómo el uso de ilusiones basadas en la IA puede utilizarse con fines utilitarios y de entretenimiento, si se utiliza de forma ética.
- En el cine, resurrecciones digitales: Los estudios a veces resucitan a un actor fallecido para un cameo o vuelven a rodar escenas sin cambiar el reparto. Un modelo deepfake de IA escanea material de archivo y reconstruye expresiones faciales, para luego integrarlas a la perfección en nuevos contextos cinematográficos. Esta técnica muestra un gran respeto por las estrellas clásicas, aunque plantea cuestiones sobre la autenticidad y los derechos de los actores. Pero, si se hace con respeto, combina la nostalgia con la magia avanzada de los gráficos por ordenador.
- Localización lingüística realista: Por ejemplo, las cadenas de televisión o los servicios de streaming utilizan la reanimación facial para sincronizar las voces dobladas con los movimientos labiales de los actores. El enfoque Deepfake sustituye el doblaje de voz estándar por el uso del idioma local por parte de la estrella que aparece en pantalla, alineando así la forma de la boca. Esto promueve una mayor inmersión en el público global y reduce los gastos generales de regrabación. Aunque el concepto está dirigido a la novedad cómica en un círculo reducido, las principales plataformas de contenido ven el potencial para la distribución mundial.
- Formación y simulación corporativas: Varias empresas crean vídeos deepfake personalizados para la formación en políticas y la seguridad interna. Pueden mostrar a un director ejecutivo pronunciando discursos motivadores personalizados o un escenario "incorrecto" con los rostros reales del personal. Aunque se trata de una manipulación límite, este enfoque puede generar un mayor compromiso. Claramente etiquetado, aclara "qué es el deepfake en un entorno empresarial", utilizando ilusiones para enseñar lecciones útiles.
- Campañas de marketing personalizadas: Las marcas están experimentando con ilusiones de IA que saludan a los usuarios por su nombre o con embajadores de marca, repitiendo frases personalizadas. Utilizan un mapeo facial avanzado para ajustar la participación del público y vincular el entretenimiento con el marketing. La comercialización de los deepfakes se mueve en una delgada línea entre la novedad y la intrusión, despertando la curiosidad de algunos y suscitando preocupaciones sobre la privacidad y la autenticidad en otros.
- Narración de historias en museos históricos o culturales: Los museos o los educadores pueden animar a personajes históricos (Abraham Lincoln o Cleopatra) para que pronuncien monólogos en exposiciones inmersivas. Con el objetivo de educar, no de engañar, estos deepfakes van acompañados de avisos legales. El público puede ver "historia viva" y establecer vínculos emocionales con acontecimientos del pasado. Las organizaciones controlan cuidadosamente el uso de ilusiones para despertar la curiosidad y tender puentes entre los registros antiguos y el público moderno.
¿Cómo se utilizan habitualmente los deepfakes?
Los deepfakes tienen usos legítimos o creativos, pero la pregunta más habitual es: "¿Cómo se utilizan los deepfakes en la vida real?". La técnica es tan fácil de usar que se está generalizando su adopción, lo que significa que se utiliza desde intercambios cómicos de caras hasta el robo malicioso de identidades.
A continuación, señalaremos los escenarios de uso más comunes que contribuyeron a la creación del debate global sobre qué son los deepfakes en la IA.
- Reto de intercambio cómico de caras: TikTok o Reddit son lugares donde se realizan todo tipo de retos cómicos de intercambio de caras, en los que los usuarios se superponen a sí mismos en rutinas de baile o escenas de películas virales. Estas ilusiones lúdicas se vuelven virales rápidamente y se convierten en los mejores deepfakes para entrar en la cultura pop mainstream. A pesar de ser inofensivos en la mayoría de los casos, incluso los usos cómicos pueden dar lugar a información errónea si no se etiquetan. Es un fenómeno que ilustra la aceptación casual de las ilusiones en la vida cotidiana.
- Pornografía no consentida: El lado más oscuro surge cuando los autores incluyen a personas (a menudo famosos o exparejas) en vídeos explícitos sin su consentimiento. Esta invasión de la privacidad en particular utiliza la tecnología deepfake como arma para la humillación sexual o el chantaje. El contenido se difunde en plataformas poco fiables y es difícil de eliminar. El debate social sigue siendo acalorado y muchos exigen intervenciones legales estrictas para contener este tipo de explotación abusiva.
- Comunicaciones comerciales fraudulentas: Un ejemplo es recibir una llamada telefónica que parece provenir de un socio conocido, pero que en realidad es una sofisticada duplicación de voz deepfake. Los ataques se orquestan como cambios finales en los detalles de pago o acciones financieras urgentes. Estas ilusiones logran eludir las señales de alerta habituales del correo electrónico o los mensajes de texto porque el personal confía en el "reconocimiento de voz". Pero este escenario de deepfake centinela es lo que se está volviendo cada vez más frecuente en los registros de riesgos corporativos a medida que la técnica madura.
- Calumnias y propaganda políticas: Se han utilizado discursos manipulados en elecciones de varios países para hacer que un candidato parezca incompetente, corrupto u odioso. Un breve clip viral puede formar opiniones antes de que los canales oficiales puedan desmentirlo como falso. Se hace rápidamente, utilizando el "factor sorpresa" y las redes sociales impulsadas por el intercambio. Este uso tiene una "potencia de vídeo deepfake" que socava el libre discurso y la integridad electoral.
- Sátira impulsada por la IA o expresión artística: Aunque existen usos negativos de la tecnología deepfake, algunos artistas y cómicos la utilizan para entretener al público con la ayuda de sketches cómicos, cortometrajes y danza interpretativa. Estas obras de arte se marcan como deepfakes para que los espectadores sepan que el contenido representado es puramente ficticio. Este tipo de entretenimiento ofrece a los creadores la oportunidad de representar el futuro, por ejemplo, con la ayuda de musicales, en los que se representa a personajes históricos viviendo en la actualidad. Estos artistas han conseguido que la gente se familiarice con la IA generativa y sus posibilidades utilizándola de forma creativa.
Amenazas y riesgos de los deepfakes
Si la amenaza es lo suficientemente grave como para influir en las opiniones, manchar la reputación o mermar las arcas de las empresas, las organizaciones deben tener un control claro sobre la amenaza subyacente.
En esta sección, se analizan cinco amenazas y riesgos importantes relacionados con los deepfakes para centrar la atención en las medidas avanzadas de detección y políticas.
- Llamadas de voz sintéticas: Los ciberdelincuentes utilizan llamadas de voz sintéticas de un "ejecutivo" o "miembro de la familia" que presiona a la víctima para que actúe de inmediato (normalmente para transferir dinero o revelar datos). Una cara o voz familiar tiene credibilidad emocional y evita la sospecha habitual. Cuando estos dos elementos se combinan, alteran los controles de identidad estándar. Si el personal se basa en una verificación mínima basada en la voz, el riesgo para las empresas es alto.
- Propaganda avanzada u operaciones de influencia: Se puede mostrar a figuras públicas respaldando ideologías extremistas o forjando alianzas que nunca han hecho. Las ilusiones en regiones inestables incitan al malestar o al pánico y provocan disturbios o socavan la confianza en el gobierno. Cuando se denuncian las falsificaciones, la opinión pública ya está influenciada. Se trata de un ataque a la veracidad de los medios de comunicación que intensifica las estrategias globales de "ciberseguridad deepfake".
- Desacreditar pruebas legítimas: Por el contrario, el acusado puede desautorizar un vídeo real de una infracción como "deepfake". El problema de este fenómeno es que amenaza los sistemas legales al eclipsar las pruebas videográficas creíbles con la afirmación de que se trata de "noticias falsas". Sin embargo, esto traslada la responsabilidad a los expertos forenses en complicados procesos judiciales. Con el tiempo, la "negación deepfake" podría convertirse en una astuta estrategia de defensa en disputas penales o civiles graves.
- Manipulación bursátil: Un vídeo falso de un director ejecutivo sobre adquisiciones o renuncias puede hacer que los precios de las acciones suban o bajen antes de que las renuncias reales lleguen a las noticias. Los atacantes se aprovechan de la viralidad de las redes sociales y de las ilusiones temporales cercanas a las ventanas de negociación. El pánico o la euforia del mercado se producen debido a esta confusión y los iniciados tienen la oportunidad de vender en corto o en largo las acciones. Estas manipulaciones son un subconjunto de las preocupaciones de ciberseguridad relacionadas con los deepfakes, que pueden tener un efecto desastroso en los mercados financieros.
- Disminución de la confianza en la comunicación digital: Una vez que las ilusiones están por todas partes en los medios digitales, los empleados y los consumidores comienzan a dudar de las llamadas de Zoom y los boletines de noticias. Los equipos que solicitan verificaciones presenciales o comprobaciones de identidad multifactoriales para tareas rutinarias perjudican la productividad. El escenario más amplio de los "riesgos de deepfake" erosiona la confianza en el ecosistema digital y requiere que las organizaciones y las plataformas se unan para encontrar soluciones de autenticación de contenidos.
Ejemplos reales de deepfakes
Más allá de la teoría, los deepfakes han aparecido en varios incidentes de gran repercusión en todo el mundo. Estas ilusiones tienen consecuencias tangibles, desde parodias cómicas en YouTube hasta sofisticados robos corporativos.
A continuación se recogen algunos ejemplos de cómo los deepfakes influyen en diversos ámbitos de la realidad.
- Fraude deepfake con Elon Musk: En diciembre de 2024, apareció un vídeo falso con Elon Musk en el que afirmaba que estaba regalando 20 millones de dólares en criptomonedas. El vídeo parecía indicar que Musk estaba promocionando el sorteo e instando a los espectadores a enviar dinero para participar. Esta noticia falsa se compartió en varias cuentas de redes sociales y mucha gente la dio por cierta. El suceso suscitó dudas sobre el posible uso de la tecnología deepfake para cometer fraudes y la importancia de desarrollar una mayor conciencia para distinguir entre la información verdadera y la falsa.
- El incidente deepfake de la empresa de ingeniería Arup: En enero de 2024, la consultora de ingeniería británica Arup fue víctima de un sofisticado fraude con deepfakes que le costó a la empresa más de 25 millones de dólares. Los empleados de la empresa fueron víctimas de deepfakes durante una videoconferencia en la que los suplantadores de su director financiero y otros empleados autorizaron varias transacciones a cuentas bancarias en Hong Kong. Este incidente demuestra cómo la tecnología deepfake supone una grave amenaza para las organizaciones empresariales y por qué es necesario contar con mejores medidas de seguridad en las organizaciones.
- Llamada automática deepfake de Joe Biden: En enero de 2024, se realizó una Estafa de clonación de voz con Jay Shooster: En septiembre de 2024, unos estafadores lograron imitar la voz de Jay Shooster a partir de una muestra de solo 15 segundos de su reciente aparición en televisión. Llamaron a sus padres y les dijeron que había tenido un accidente y que necesitaba 30 000 dólares para pagar la fianza. Este caso ilustra cómo la tecnología de clonación de voz puede emplearse en casos de fraude y malversación.
- Deepfake Audio Targeting Baltimore Principal: En abril de 2024, se difundió en los medios de comunicación y las redes sociales un clip de audio deepfake de Eric Eiswert, director de un instituto de Baltimore, que contenía comentarios racistas sobre la comunidad afroamericana. Esto provocó numerosas reacciones negativas y amenazas contra el director, lo que llevó a su suspensión hasta que se desmintió que se trataba de una noticia falsa. Este caso también demuestra la capacidad de los deepfakes para causar malestar social y manchar la reputación de alguien, incluso si se trata de noticias falsas.
El futuro de los deepfakes: retos y tendencias
Con el avance de la IA generativa, los deepfakes se encuentran en una encrucijada, lo que significa que pueden potenciar la creatividad en la sociedad o impulsar el fraude. Los expertos creen que, en los próximos años, el intercambio de rostros en las videoconferencias comerciales será casi en tiempo real, lo que significa una alta adopción.
A continuación se presentan cinco tendencias que describen el futuro de los deepfakes desde el punto de vista técnico y social.
- Avatares en tiempo real: Los usuarios pronto podrán utilizar GPU basadas en la nube para realizar operaciones faciales o de voz en tiempo real en streaming o llamadas grupales. Las personas podrían tener cuerpos sintéticos reales o transformarse en cualquier persona sobre la marcha. Aunque se trata de un concepto bastante divertido, plantea problemas de identidad y amenazas de infiltración en otras oficinas dispersas. Garantizar la identificación de los participantes en medio de la llamada se convierte en algo crucial cuando se trata de transformaciones deepfake.
- Regulación y normas de autenticidad de contenidos: Prepárese para la legislación nacional sobre el uso de avisos legales o "marcas de agua basadas en hash" en los contenidos generados por IA. La propuesta de Ley Europea de IA menciona el control de los medios manipulados, mientras que Estados Unidos fomenta la formación de asociaciones entre empresas tecnológicas para armonizar las normas de detección. De este modo, cualquier deepfake que se ofrezca al público deberá ir acompañado de avisos legales. Sin embargo, la aplicación de estas leyes sigue siendo un reto si los creadores alojan las ilusiones en otros países.
- Blockchain y verificación criptográfica: Algunos expertos recomiendan que se incluyan firmas criptográficas en el momento de la creación de imágenes o vídeos auténticos. De este modo, se pueden verificar las señales con los mensajes previstos y, por lo tanto, asegurarse de que son auténticos. Si faltan o no coinciden, se plantea la cuestión de si se trata simplemente de una falsificación o de un deepfake. Mediante la integración de la creación de contenidos con la cadena de bloques, se minimiza el ámbito de las actividades fraudulentas. Sin embargo, como se ha visto anteriormente, la adopción solo es posible si existe un amplio apoyo por parte del conjunto del sector.
- Dualidad de la detección de deepfakes basada en IA: A medida que los modelos generativos se vuelven más sofisticados, la detección debe añadir comparaciones de patrones más complejas y múltiples verificaciones cruzadas. Puede capturar microexpresiones, cambios de iluminación o "rastros de IA", que no son distinguibles por el ojo humano. Sin embargo, los falsificadores mejoran las redes neuronales para superar estas comprobaciones, lo que es una señal de un ciclo perpetuo de evolución. Para las organizaciones, las actualizaciones de las soluciones de detección siguen siendo una parte importante del concepto de ciberseguridad de los deepfakes.
- Fronteras éticas y artísticas en evolución: Además de las amenazas, las oportunidades creativas disponibles son enormes. Los documentales pueden traer de vuelta a personajes históricos para entrevistas en directo, o el público global puede ver sus programas localizados sincronizadosen su idioma. Surge la pregunta de dónde podemos hablar de innovación y dónde somos víctimas de una ilusión creada para manipular nuestros pensamientos. A medida que se extienden los Deepfakes, se hace crucial permitir su uso con fines buenos y, al mismo tiempo, garantizar su detección cuando se utilizan con fines malos.
Ciberseguridad basada en IA
Mejore su postura de seguridad con detección en tiempo real, respuesta a velocidad de máquina y visibilidad total de todo su entorno digital.
DemostraciónConclusión
Los deepfakes son un buen ejemplo de cómo la IA puede utilizarse con fines artísticos, así como para engañar al público. Avanzan a un ritmo rápido y sitúan a las organizaciones y a la sociedad ante escenarios de invasión de deepfakes, desde phishing llamadas telefónicas del máximo responsable de la empresa hasta la difusión de vídeos falsos de políticos. Cuando la imagen del objeto es más creíble que el propio objeto, la identificación se convierte en la base de la credibilidad digital. Al mismo tiempo, los estafadores utilizan sus mejores deepfakes para evitar los controles de identidad o difundir noticias falsas. Para las empresas, quedan tres pasos esenciales que incluyen la detección, el desarrollo de directrices sólidas y la formación del personal para garantizar el uso seguro de la IA en los medios de comunicación. La batalla entre la creación y la detección de ilusiones sigue en curso, y es fundamental hacer hincapié en el enfoque multinivel necesario, que comienza con el usuario y termina con el escáner basado en IA.
Así pues, esperamos que ahora haya recibido la respuesta a "¿qué es un deepfake en ciberseguridad?". Pero, una duda: ¿está preparado para afrontar los peligros de las falsificaciones generadas por IA? Si no es así, elija las soluciones adecuadas y proteja su empresa de la creciente amenaza de los deepfakes hoy mismo.
"FAQs
Un deepfake en ciberseguridad se refiere a medios sintéticos generados por IA que suplantan a personas reales con gran fidelidad. Estos vídeos o grabaciones de audio manipulados pueden utilizarse para cometer fraudes, difundir desinformación o eludir controles de seguridad.
Los deepfakes pueden utilizarse para ataques de ciberseguridad. Los ciberatacantes pueden utilizarlos para suplantar a personas respetadas, manipular comunicaciones o evadir la autenticación biométrica.
Los deepfakes suponen graves amenazas para las organizaciones, como la pérdida de reputación, el fraude financiero y la pérdida de confianza en las comunicaciones digitales. Los deepfakes maliciosos pueden suplantar la identidad de ejecutivos, manipular la opinión pública o eludir los controles de seguridad.
Las manipulaciones de imágenes tradicionales, como Photoshop o los simples intercambios de caras, implican una edición manual y a menudo dejan rastros visibles. Los deepfakes, sin embargo, se basan en algoritmos de aprendizaje profundo para generar contenido muy realista, como vídeos o audio, con una intervención humana mínima. Esto da lugar a resultados más convincentes que pueden ser más difíciles de detectar y desenmascarar.
La legalidad de los deepfakes varía en función de la jurisdicción y la intención. Producir o compartir medios manipulados no es ilegal en sí mismo en muchos lugares, pero utilizar deepfakes para cometer fraude, difamación o acoso puede infringir la ley. Algunas regiones están introduciendo legislación para penalizar la creación y distribución maliciosa de deepfakes, lo que refleja la creciente preocupación por su uso indebido.
Los deepfakes pueden erosionar la confianza en los medios digitales al crear imágenes, vídeos o audios convincentes pero falsos. Pueden utilizarse para difundir información errónea, manipular la opinión pública o incriminar a personas en situaciones comprometedoras. Los ciberdelincuentes explotan los deepfakes para estafas, chantajes y espionaje corporativo, lo que los convierte en una potente amenaza para la privacidad personal, la reputación y la seguridad.
Sí. Los investigadores utilizan sofisticados algoritmos de IA para detectar artefactos o inconsistencias en imágenes, vídeos o audios deepfake. Los métodos de detección analizan los movimientos faciales, las anomalías a nivel de píxeles o los metadatos en busca de signos de manipulación. Sin embargo, a medida que evoluciona la generación de deepfakes, estas técnicas de detección deben adaptarse continuamente, lo que hace que la identificación de deepfakes sea un desafío constante en la ciberseguridad.
La IA suele emplear redes generativas adversarias (GAN) para producir deepfakes. Un modelo generador crea contenido sintético, mientras que un modelo discriminador evalúa su autenticidad. A través de ciclos de entrenamiento repetidos, el generador refina los resultados hasta que parecen convincentemente reales. Este proceso permite a la IA fabricar rostros, voces o escenarios completos con un alto grado de realismo.
La creación de deepfakes básicos se ha vuelto más accesible gracias a las aplicaciones fáciles de usar y los tutoriales en línea. Sin embargo, la producción de deepfakes altamente convincentes y de alta resolución todavía requiere hardware avanzado, conocimientos técnicos y una potencia de procesamiento significativa. El nivel de dificultad depende en gran medida de la calidad y el realismo deseados, pero en general las barreras se han reducido, lo que suscita preocupación por un uso indebido generalizado.
Busque movimientos faciales poco naturales, iluminación o sombras inconsistentes y sincronización labial incómoda. Preste atención a anomalías sutiles en la textura de la piel, patrones de parpadeo o reflejos que no coinciden. El audio también puede presentar una entonación o un ritmo extraños. Además, utiliza herramientas de análisis de vídeo o detectores basados en inteligencia artificial para verificar la autenticidad. Comprueba siempre las fuentes antes de confiar en medios sospechosos.
La tecnología deepfake todavía tiene limitaciones a la hora de reproducir expresiones faciales extremas, fondos complejos o iluminación dinámica. Para obtener resultados de alta calidad se necesitan importantes recursos informáticos y conocimientos técnicos. Además, las restricciones éticas y legales limitan sus aplicaciones legítimas, como el entretenimiento o la investigación académica. A medida que se amplían las regulaciones, el uso responsable debe equilibrar la innovación con la privacidad y la seguridad.
Las organizaciones pueden implementar la autenticación multifactorial y los controles biométricos para confirmar las identidades, reduciendo la dependencia de las señales visuales o auditivas únicamente. También es útil formar periódicamente al personal sobre las amenazas de deepfake y verificar las solicitudes inusuales a través de canales seguros. El despliegue de herramientas de detección de deepfake basadas en IA, la supervisión de las redes sociales y la colaboración con expertos en ciberseguridad refuerzan las estrategias de defensa generales.
Sí. Los atacantes pueden crear imitaciones realistas de ejecutivos, políticos o empleados para engañar a sus víctimas y que revelen información confidencial, autoricen transacciones o influyan en decisiones. Las voces deepfake en llamadas telefónicas o los vídeos alterados de forma convincente pueden eludir los métodos de verificación tradicionales.

