Fake news: la realidad sintética

Pucherazo en Eslovaquia
Septiembre de 2023, Eslovaquia está a punto de celebrar sus elecciones generales. El panorama es turbulento, tensionado por las diferencias entre candidatos.
Los social demócratas nacionalistas de Smer, liderados por Robert Fico, venían de ostentar el cargo pocos años atrás. Sin embargo, en 2018 Fico tuvo que renunciar a su puesto como primer ministro siguiendo una ola de protestas tras el asesinato de un periodista. Cinco años más tarde, estaba listo para volver a las urnas, prometiendo estrechar lazos con Moscú, controlar la inmigración, y retirar el apoyo militar a Ucrania.
El partido Progressive Slovaquia, también de izquierdas, se mostraba como un posible contendiente. Establecido en 2017, este ofrecía una alternativa pro-Europea a la izquierda de Smer. El joven Michal Šimečka estaba al frente del partido, y formaba parte del parlamento europeo desde 2019.
Dos días antes de las elecciones, comienzan a circular unos audios que parecían poder enterrar la carrera política de Michal. Se le podía oír junto a una conocida periodista, hablando de una posible compra de votos para amañar las elecciones. Estos audios se viralizaron rápidamente en Facebook, a la par que otros donde el candidato prometía subir enormemente los impuestos a las bebidas alcohólicas.
El 30 de Septiembre, PS perdió las elecciones contra Smer, y se desconoce hasta qué punto este resultado fue influenciado por las grabaciones. Lo que sí se supo con certeza poco después es que dichos audios eran falsos. Michal había denunciado ya este hecho, incluso la plataforma de Meta era consciente de la falsedad de los audios que estaban difundiendo. Sin embargo estos no fueron retirados, la normativa de Facebook solo atacaba a falsificaciones en forma de vídeo, donde se mostrase a la persona hablando.
Este suceso sirvió como un oscuro aviso a todas las democracias del mundo. Por primera vez en la historia, había una forma económica y creíble para manufacturar la información que consumimos, y el mundo no tenía recursos para combatirlo.
Un caso tras otro
Hablamos de deepfakes, un método impulsado por IA que permite generar artificialmente cualquier tipo de contenido incluyendo vídeos, fotos y audios. Desde que esta tecnología se puso en manos de la población, se han hecho posibles escándalos tan diversos como frecuentes. Dada la versatilidad de esta tecnología, cuesta visualizar el alcance que pueden tener los deepfakes. Lo que sí tenemos claro es que nos afectan en todos los apartados de nuestra vida, basta con fijarse en las situaciones que se han dado conforme se adoptaban estas tecnologías.
Secuestrando la bolsa
En mayo de 2023, una imagen generada con IA mostró una enorme explosión cerca del Pentágono en Arlington, Virginia.
Durante la mañana del 22 de mayo, la imagen comenzó a circular por Twitter, llegando a ser publicada por una cuenta verificada que se hacía pasar por el medio periodístico Bloomberg. La “noticia” fue detectada por diversos algoritmos automatizados de Trading de Alta Frecuencia (HFT), los cuales no lograron identificar la imagen como falsa, y tomaron lo que parecía la decisión más lógica. En pocos minutos se vendieron grandes cantidades de acciones, causando un descenso del 0.29% en el S&P 500. Si bien las consecuencias fueron temporales, esto mostró el riesgo que existe al responder de forma automatizada a una realidad sujeta a ser falsificada.
Fake deepfakes?
Nos movemos a 2018 para revisar un caso tan precoz como excepcional. En el oeste africano, en Gabón, el presidente Ali Bongo llevaba un largo tiempo sin hacer una aparición pública. Había sufrido un derrame cerebral, el cual puso su salud y capacidad de gobernar en riesgo. Para calmar a la población y silenciar ciertos rumores, Ali Bongo hizo un comunicado televisivo el día 31 de Diciembre. Dado su estado físico, el entonces presidente se movía de forma inusual, su habla era poco natural, y su expresión rígida. Los críticos se lanzaron a señalar dichos factores como “fallos técnicos”, los cuales parecían demostrar que se trataba de un deepfake. Pese a la opinión contraria de los expertos forenses digitales, se especuló que el presidente estaba empleando un doble digital para ocultar la realidad. La presunta falsedad del video trajo una tensión que desembocó en violencia política. Una semana después de publicarse el vídeo, parte del ejército gabonés orquestó un fallido golpe de estado. La desconfianza instaurada por los deepfakes tuvo consecuencias reales, cobrándose vidas y llevando a la detención de 8 militares.
Cómo hundir una vida
En 2024, en Pikesville, Maryland, un alarmante audio comenzó a circular por redes sociales. En este aparecía el entonces director del instituto de Pikesville haciendo comentarios racistas, antisemitas y derogatorios sobre el alumnado y los empleados del centro. Como era de esperar, el audio causó una contundente respuesta por parte de la comunidad, causando el cese del director, y una serie de amenazas de muerte dirigidas a este y su familia. Resultó que el audio era una falsificación generada por un empleado del instituto, que buscaba tomar represalias tras una investigación iniciada por el director en torno a su trabajo. Si bien la escala de este suceso no es comparable a la de otros que hemos mencionado, muestra el enorme impacto que los deepfakes pueden tener a nivel personal.
Un mal día en el trabajo
Una vez los deepfakes se volvieron más que realistas, en 2024, su influencia comenzó a notarse en espacios cada vez más sensibles. Un empleado de la empresa británica Arup, en la sede de Hong Kong, recibió una invitación de un alto directivo de la compañía para una importante reunión. Tras una llamada entre el empleado y varios directivos de la empresa, se organizaron 15 transacciones con un valor total de 25 millones de dólares estadounidenses. Para sorpresa del empleado, y pánico de los verdaderos directivos, la videollamada era una fabricación generada a raíz de imágenes y voces reales de los directivos. La estafa fué detectada varias semanas después del incidente, y los fondos no pudieron ser recuperados. Los deepfakes no solo pueden actuar para sesgar a las masas, también operan de forma individual y personalizada. Hablaremos más de esto en el futuro, ya que es un fenómeno tan común como peligroso.
El alcance real de los deepfakes
El límite de esta herramienta y su mal uso es aquel de la creatividad de quienes la explotan. Ha cambiado elecciones, causado histeria colectiva, impulsado golpes de estado, y facilitado estafas multimillonarias. A día de hoy la población no parece estar familiarizada del todo con esta nueva pieza del ajedrez social, y los números lo avalan. Según Reuters, en 2025, un 43% de la población está conforme con consumir contenido asistido por IA como fuente de información. Esto hace ver que el contenido sintético parece estar siendo asimilado como legítimo pese a los repetidos escándalos. Paradójicamente, un 83.4% opina que la IA tiene un papel preocupante en propagar desinformación.
La simultánea adopción y rechazo de la IA tiene una explicación: Las personas están preocupadas por las noticias falsas, pero tienden a pensar que no les afectan a ellos sino a los demás. Son conscientes de la existencia de deepfakes, pero descartan haber sido víctimas de su uso. Por desgracia, lo son. Actualmente la capacidad humana para detectar deepfakes es similar a la probabilidad de acertar cara o cruz al tirar una moneda (55-60%). En el caso de la falsificación de imágenes faciales, la IA ya logra resultados que son percibidos como más realistas que la propia realidad.
La tecnología avanza a un ritmo incesante, y nuestra limitada capacidad para identificar deepfakes pronto será nula. Sin embargo nuestras herramientas para combatir este fenómeno no avanzan al mismo ritmo, nuestra sociedad no es capaz de combatir la proliferación de contenido falso. Si bien puede demostrarse que un contenido es artificial, es muy difícil borrar el impacto que ciertas imágenes, vídeos o audios tienen en la opinión pública. Los contenidos sensacionalistas tienden a lograr un alcance mucho mayor que las explicaciones que los siguen.
La otra cara de las mentiras, el Dividendo del Mentiroso
Si bien la población es algo consciente de su existencia, la calidad de las falsificaciones es cada vez mayor. Tal es la magnitud de este problema que muchos, hartos de una constante exposición a contenido falso, han pasado a desconfiar de forma instintiva de todo lo que ven. Este fenómeno, cada vez más común, se conoce como el “Dividendo del Mentiroso”.
Se llama así porque abre un margen para que sea razonable siempre el desconfiar de la realidad aunque la tenga uno delante de sus ojos. Si todo contenido puede ser sintético, todo es falso hasta que se demuestre lo contrario. Cualquier video, audio, texto o foto es candidato a ser acusado de ser falso, sobre todo si afecta negativamente a alguien. Esto es especialmente cierto a más incriminante sea su contenido. Cuesta imaginar qué sucederá cuando el contenido sintético sea completamente indistinguible del real, aunque poco a poco nos acercamos a esa situación.
La IA, los deepfakes, abren una ventana creíble para descartar cualquier prueba gráfica como una falsificación. Acusaciones que en su día podrían hundir carreras pasan a un segundo plano, todo es IA hasta que se demuestre lo contrario.
La lucha por la verdad
La alarma causada por la proliferación de los deepfakes ha traído consigo una ola de respuestas, algunas de ellas muy contundentes.
En España, principios de 2025, se hizo público desde el portal de la Moncloa un proyecto de Ley Orgánica que proponía penalizar la creación de deepfakes con contenido sexual. De forma pionera, este proyecto de Ley también penaliza el uso de identidades y contenidos falsos cuando estos se emplean para engañar a menores, acción conocida como “grooming”. Llegado 2026, se ha dado un paso más allá, catalogando la difamación mediante deepfakes como un crimen contra el honor.
A nivel europeo, se han tomado medidas como la obligada inclusión de marcas de agua que identifiquen los contenidos sintéticos como falsos. Aunque, por desgracia, esto puede ser facilmente eludido mediante el uso de otros modelos de IA especializados en eliminar dicha marca. Introducida en el AI Act, esta ley escuda aquellos contenidos que tengan un fin artístico, creativo o satírico.
¿Deepfakes para hacer justicia?
En términos generales, podríamos calificar de bienintencionado el Reglamento Europeo de la IA o AI Act, pero en sus más de cien artículos figuran algunos pasajes preocupantes, cuando no surrealistas. Por ejemplo, los primeros dos puntos del artículo 50, que establecen que puede haber sistemas de IA “autorizados por ley para detectar, prevenir, investigar o enjuiciar delitos”. Si se diera ese caso, no habría obligación de informar a las personas de que están interactuando con una inteligencia artificial (punto 1), a no ser que esas personas usen el sistema para denunciar crímenes. Y por si fuera poco, con los fines antes citados se permite generar deepfakes (punto 2) no etiquetados como tales. Las consecuencias que esto puede tener hielan la sangre a poco que lo pensemos.
Desde febrero de 2025, queda también prohibido el uso de sistemas de IA para “técnicas subliminales o manipuladoras” que tengan el objetivo de distorsionar el comportamiento de la población, o sistemas que exploten vulnerabilidades de ciertos grupos demográficos.
En EEUU, existe una creciente tensión entre libertad de expresión y protección de la población. En este país se ha tratado de prohibir la distribución de deepfakes políticos en los 120 días previos a una elección. Esto se hizo mediante la ley AB 2839, la cual fue rápidamente tumbada bajo el pretexto de proteger la libertad de expresión. Si bien no han logrado aprobar restricciones penales contundentes en torno al uso de deepfakes, en EEUU se ha abierto un medio para la demanda a nivel individual de contenidos digitales explícitos en los que uno figure.
El sistema más estricto es sin duda el de China. Desde enero de 2023, los proveedores de servicios que permitan crear deepfakes están obligados a autenticar la identidad real de los usuarios. Queda prohibido el uso anónimo de generadores de voz o faciales. Para generar contenido a raíz de información biométrica real, el proveedor debe contar con el consentimiento de la persona implicada. A su vez, todo contenido sintético debe ser etiquetado como tal, y los proveedores deben garantizar poder detectar y combatir aquellas noticias falsas que surjan de sus productos, reportando a las autoridades lo sucedido.
Y ahora qué?
Encontramos un pequeño margen para la esperanza en la respuesta que ciertas naciones están dando a los deepfakes. Pese a esto, es una realidad a la que aún no hemos logrado adaptarnos del todo. La clave reside en un equilibrio entre responsabilidad, rendición de cuentas, y alfabetización de la sociedad. Ya que los propios sistemas de detección de deepfakes de las redes sociales actuales han mostrado ser incapaces de lidiar con este tema, la solución probablemente pase por limitar la propia creación de los deepfakes, y obligar a su identificación como tal.
Mientras tanto, lo que sí podemos hacer es informarnos respecto al tema y hacer saber del alcance de los deepfakes, sobre todo a aquellos grupos más vulnerables.
✍️Este documento fue redactado al 100% por humanos.