Deepfakes & Fake News: La primera gran víctima de la IA es la verdad

La IA está atacando frontalmente algo menos visible que nuestros empleos o nuestra creatividad. Su primera gran víctima no es ni más ni menos que la verdad. Por ahora, las verdades filosóficas o científicas están relativamente a salvo. Pero en lo que respecta a la verdad cotidiana, hemos llegado a un punto en el que cada vez resulta más difícil confiar en lo que vemos, en lo que oímos y en lo que nos cuentan. Así que ya podemos preguntarnos si este borrado progresivo de la verdad en beneficio de la mentira no es una tendencia más o menos deliberada. Porque cuando se observa con atención la progresión del tecnofascismo, hay motivos más que sobrados para plantearse la pregunta muy en serio.
La dictadura florece en el terreno de la ignorancia. George Orwell
Por el momento, puede que no veas venir realmente el problema. Quizás porque te manejas bien con la informática y eres capaz de distinguir con facilidad lo verdadero de lo falso. Pero habrás notado que a veces hay que mirar dos veces para no caer en la trampa. Y puede que tampoco te preocupe demasiado porque todavía no has leído un artículo de fondo sobre el tema. Lo cual es bastante normal, si se me permite decirlo, dado que no es la preocupación de los medios mainstream que utilizan o retransmiten cada vez más contenidos generados por IA. Sencillamente porque eso complace a quienes dan las órdenes y les permite al mismo tiempo reducir sus plantillas. Hay por tanto serios motivos de preocupación en lo que respecta al acceso a un periodismo de calidad. Pero esto también plantea problemas aún mucho más graves que vamos a repasar en este artículo.
¿Qué es el tecnofascismo?
Antes de ir más lejos, vamos a repasar la definición de tecnofascismo porque es indispensable para entender bien lo que viene a continuación…
El tecnofascismo es la convergencia entre el poder tecnológico concentrado en manos de un puñado de actores privados y las derivas autoritarias del poder político. Dicho de otro modo, es el momento en que las big techs y ciertos gobiernos dejan de ser entidades separadas para convertirse en las dos caras de una misma moneda. Una aporta la potencia de las nuevas tecnologías, la otra aporta la legitimidad y la fuerza de ley. Y juntas pueden controlar la información y el relato. Y de ese modo pueden actuar ampliamente sobre la percepción de la realidad. Por cierto, Orwell lo entendió todo mucho antes de que esta palabra existiera.
El lenguaje político está diseñado para hacer que las mentiras parezcan verdaderas, los asesinatos respetables y para dar apariencia de solidez a lo que no es más que viento. George Orwell
Lo que Orwell describía con palabras, la IA lo hace ahora con imágenes, voces, vídeos y textos enteros. La propaganda siempre ha existido, pero siempre chocaba con sus propios límites técnicos. Ahora esos límites están cayendo uno tras otro. Y lo peor está por llegar.
Antes de la IA, los contenidos falsos eran difíciles de producir
Durante mucho tiempo tuvimos suerte sin saberlo del todo. Porque el mejor montaje en Photoshop acababa siempre por traicionarse a causa de una sombra mal colocada, un píxel sospechoso, un desenfoque que no encajaba con el resto… Hasta entonces, el ojo entrenado podía todavía marcar la diferencia. El vídeo gozaba por su parte de un estatus casi sagrado, considerado como una prueba incontestable. De hecho, una grabación de audio o vídeo era admisible ante un tribunal y podía inclinar la balanza de un juicio. Estos referentes estructuraron durante mucho tiempo nuestra relación con la realidad y permitieron mantener una línea, imperfecta sí, pero real, entre lo verdadero y lo fabricado.
Y no era solo una cuestión de dificultad técnica. Porque fabricar un contenido falso convincente requería mucho tiempo, competencias extremadamente especializadas, programas costosos y a menudo un equipo entero. Clonar una voz, falsificar un vídeo, manipular un audio de forma creíble era algo reservado a los estudios de Hollywood o a los servicios de inteligencia. En definitiva, todas esas dificultades limitaban de forma natural la propagación de lo falso haciendo que la manipulación a gran escala fuera difícil, costosa y sobre todo identificable.
Pero ese tiempo está prácticamente acabado. Y con él desaparece la capacidad de confiar al cien por cien en una prueba. Porque en un futuro próximo, es prácticamente seguro que una grabación de audio o vídeo no valdrá nada ante un tribunal, ya que cualquiera podrá argumentar que se trata de elementos generados por IA. Es una bomba de relojería para nuestros sistemas judiciales y casi nadie parece preocupado por ello.
La marca de agua IA es una salvaguarda ya ampliamente superada
Algunos veían en el marcado de los contenidos generados por IA la solución milagrosa. La idea era simple: añadir una firma digital invisible a cada imagen, vídeo o audio producido por una IA, de manera que se pudiera identificar fácilmente su origen. Sobre el papel, tenía sentido.
Pero en la práctica, eso ya está liquidado! Porque con una estación de trabajo equipada con dos o tres tarjetas gráficas potentes y una IA de código abierto, hoy cualquiera puede generar contenidos sin el menor rastro de uso de una IA. Y el resultado son fakes muy difíciles de detectar que cualquier individuo malintencionado puede producir con una inversión al alcance de todo el mundo. Por eso estamos cada vez más inundados de contenidos de una violencia extrema o de pornografía no consentida generada a partir del rostro o la voz de cualquier persona. Y desgraciadamente, nadie está a salvo de este tipo de manipulación.
Aquí es donde la cosa se vuelve realmente escalofriante. Porque hablamos de vidas destrozadas, de reputaciones destruidas en pocas horas y de traumas reales causados por contenidos fabricados al cien por cien de forma artificial. Hoy en día ya hay mujeres que son víctimas de deepfakes pornográficos difundidos sin su consentimiento. Menores que son objetivo de estos ataques. Y las herramientas para hacerlo son gratuitas, accesibles y cada vez más potentes.
Así que lo que se suponía que iba a ser una red de seguridad se ha convertido en un colador. Y mientras los círculos institucionales siguen debatiendo sobre su eficacia, la fábrica de la mentira funciona a pleno rendimiento.
Confiar en la IA como en un oráculo es un error que puede salir muy caro
Cada vez más gente valida una información porque GPT lo ha dicho. Se ha convertido en un reflejo, casi en un automatismo. Se hace una pregunta, se obtiene una respuesta formulada con seguridad y se pasa a otra cosa. Salvo que detrás de esa apariencia de certeza se esconde una realidad bastante menos tranquilizadora.
Los grandes modelos de lenguaje mezclan fuentes de calidad muy variable. Lo que hace que puedan reproducir mal una ficha de Wikipedia porque la habrán cruzado con contenidos sesgados. Y sobre todo, alucinan! Este término técnico algo extraño designa un fenómeno bien real en el que la IA inventa hechos, fuentes, citas enteras con el mismo aplomo que si enunciara una verdad absoluta. Y como la respuesta siempre está bien formulada, es fluida y convincente, nada en la forma te pone en alerta.
Pero el problema va mucho más allá de los errores involuntarios. Estas herramientas están en manos de las big techs. Y cuanto más borrosa se vuelva la frontera entre realidad y fake, más fácil será introducir discretamente sesgos, omisiones o manipulaciones en los resultados sin que nadie se dé cuenta. No hace falta mentir descaradamente, basta con encuadrar, matizar en un sentido y hacer invisibles ciertas informaciones que no van en la línea del tecnofascismo.
Es exactamente el esquema de una pareja tóxica. Al principio es seductora, útil, tranquilizadora y disponible a cualquier hora. Así que le das tu confianza. Y es precisamente esa confianza la que usará después para manipularte mejor. El día en que te des cuenta de que algo no funciona bien, ya estarás tan acostumbrado a delegar tu pensamiento que te costará prescindir de ella. Y ya le ocurre a millones de personas que creen que la IA es inofensiva cuando en realidad es una herramienta en manos muy equivocadas.
Cuando las herramientas de desinformación están en manos de los libertarios
Hablemos de Grok, la IA del tecnofascista Elon Musk. Porque al contrario que sus competidores, que han establecido salvaguardas para limitar los usos más problemáticos, Musk ha elegido la opción contraria. Desde hace algún tiempo, Grok autoriza la generación de deepfakes, contenidos hiperrealistas fabricados a partir del rostro o la voz de personas reales. Y los resultados maléficos están claramente documentados: individuos humillados públicamente mediante contenidos fabricados, mujeres víctimas de montajes pornográficos y usos con fines pedófilos claramente establecidos.
No se trata de un error, sino de una elección deliberada! Y esa elección dice algo muy preciso sobre quien la toma. Más aún cuando se sabe que el nombre de Musk aparece en los archivos Epstein. No decimos que eso establezca una culpabilidad, pero sí decimos que ilumina la escasa prisa por proteger a los más vulnerables a la hora de diseñar estas herramientas. En cualquier caso, habla por sí solo sobre la cínica personalidad de este individuo deplorable. Este tipo quizás sea rico en dinero, pero en riqueza de corazón y de espíritu, es un cero a la izquierda!
Los libertarios del big tech tienen una visión del mundo muy binaria. La libertad absoluta para ellos y las consecuencias de su egoísmo para todos los demás. Y mientras Grok funciona a pleno rendimiento, mientras los deepfakes se multiplican y hay vidas que se destruyen, tenemos derecho a hacernos una pregunta muy simple. ¿Pero qué hace Europa? Porque entre las grandes declaraciones sobre la regulación de la IA y la realidad sobre el terreno, el abismo es tan grande que cabría un portaaviones. Y por cierto, ¿por qué solo preguntamos qué hace Europa y no América? La respuesta es sencilla: en materia de ética y humanismo ya no hay nada que esperar de los EE.UU., un país que ha naufragado completamente en el tecnofascismo desde el advenimiento de las big techs.
¿Cómo usan los regímenes autoritarios la IA para imponer su propaganda?
¿Y si dejamos de hablar de riesgos futuros para mirar lo que ya ocurre ante nuestros ojos. Los regímenes autoritarios no esperaron a que la tecnología fuera perfecta para instrumentalizarla. La utilizan ahora, masivamente y sin complejos.
Se sabe, en efecto, que la propaganda totalitaria no necesita convencer para tener éxito e incluso que no es ese su objetivo. El objetivo de la propaganda es producir el desaliento de los espíritus, persuadir a cada uno de su impotencia para restablecer la verdad a su alrededor y de la inutilidad de cualquier intento de oponerse a la difusión de la mentira. George Orwell
Rusia ha convertido la desinformación en una herramienta de guerra en toda regla. Desde la invasión de Ucrania, los ejemplos de contenidos generados por IA utilizados para alimentar la propaganda del Kremlin se cuentan por centenares. Como por ejemplo declaraciones falsas atribuidas a dirigentes ucranianos, imágenes de destrucciones fabricadas de la nada para dar la vuelta al relato, vídeos manipulados difundidos masivamente en las redes sociales… El objetivo no es necesariamente convencer a todo el mundo, sino crear la duda, ahogar lo verdadero bajo lo falso hasta que la gente no sepa ya qué creer.
Pero señalar únicamente a Rusia sería un error. Los Estados Unidos bajo Trump también han cruzado líneas rojas al dejar prosperar relatos fabricados con herramientas de IA para consolidar una base electoral y desacreditar cualquier oposición. La propaganda ya no es patrimonio exclusivo de las dictaduras clásicas. También se ha instalado cómodamente en el corazón de las democracias de fachada.
Lo que hace todo esto especialmente temible es la velocidad. Porque un contenido falso da la vuelta al mundo en pocas horas. Mientras que la rectificación llega siempre demasiado tarde, demasiado tímidamente y nunca alcanza a tanta gente como la mentira original, que está diseñada para impactar. La IA ha otorgado a la propaganda una potencia de fuego sin precedentes. Y los regímenes que han comprendido su potencial no tienen ninguna intención de detenerse. Por otra parte, ¿por qué iban a hacerlo si el plan funciona de maravilla y cada vez mejor? La pregunta queda planteada.
IA y conflictos armados: los escenarios que ponen los pelos de punta
Lo que sigue no pertenece por desgracia al ámbito de la ciencia ficción. Es simplemente la extrapolación lógica y muy cercana de lo que ya observamos hoy.
Un país podría invadir otro, arrasar ciudades enteras, masacrar civiles y cubrir todo eso en tiempo real con un flujo continuo de imágenes generadas por IA mostrando calles tranquilas y gente ocupándose de sus asuntos. Mientras caerían las bombas, la IA fabricaría una realidad paralela limpia y tranquilizadora que se difundiría masivamente en las redes sociales y sería consumida por millones de personas que no tendrían ningún motivo para dudar de ella. Sobre todo porque ya hay millones de personas ahogadas bajo toneladas de informaciones contradictorias mezcladas en medio de miles de toneladas de contenidos y dramas sin el menor interés.
El escenario inverso sería igual de escalofriante. Una agresión totalmente inventada, fabricada con imágenes de IA suficientemente creíbles para provocar la indignación internacional y utilizada como pretexto para desencadenar una invasión real. Si dudas de este escenario, no hace falta buscar muy lejos para encontrar precedentes históricos en los que pretextos totalmente fabricados han servido para justificar guerras. Pues bien, mañana esos pretextos podrían perfectamente ser generados en pocas horas por una máquina. Es simplemente la continuación lógica.
La IA generativa es un regalo sin precedentes para el conspiracionismo
Los conspiracionistas siempre han existido. Pero hasta ahora se las apañaban ensamblando teorías con hilos sueltos y mucha imaginación. Ahora tienen acceso a herramientas muy potentes que les permiten materializar sus fantasías con una credibilidad que habría sido imposible hace apenas tres años. Con vídeos deepfake que supuestamente probarían que un dirigente dijo algo que nunca dijo. O imágenes de IA que se presentan como confirmación de una conspiración. En definitiva, toda una multitud de documentos falsos generados en pocos minutos y difundidos masivamente como pruebas irrefutables.
Lo que hace especialmente peligrosos estos contenidos no es su calidad técnica, sino que explotan a fondo el terreno emocional. Principalmente el miedo, la rabia, el sentimiento de injusticia y la impresión de pertenecer a una minoría iluminada frente a una mayoría de borregos. Los algoritmos adoran eso porque la emoción genera engagement. Y el engagement genera publicidad, claro está. El conspiracionismo se ha convertido en un modelo de negocio para las big techs, que sacan un provecho muy amplio de ello.
Y detrás de la mayor parte de estos contenidos hay actores muy identificados. La extrema derecha mundial que alimenta movimientos completamente absurdos como QAnon fabricando relatos cuidadosamente diseñados para llegar a los más frágiles, esos que buscan respuestas simples a preguntas complejas. Estos movimientos no son espontáneos. Al contrario, están construidos, financiados y amplificados por redes que han comprendido perfectamente que la desinformación a gran escala es una herramienta de poder. También hay regímenes como el ruso que utilizan el conspiracionismo como arma de desestabilización de las democracias, fracturando las sociedades desde dentro. El objetivo último no es convencer a la gente de que se adhiera a una ideología concreta, sino algo bastante más sutil. Es simplemente agotarles, asquearles haciéndoles creer que todo el mundo miente. Y a fin de cuentas, empujarles hacia los extremos más capaces de destruir un país desde dentro.
Ante esta avalancha de falsedades, la tentación es grande de responder con las mismas armas. Pero sería un error fatal. Porque responder al fake con fake no es ganar la batalla, es abandonar el único terreno en el que todavía podemos luchar.
Mañana, ¿quién decidirá qué es verdad y qué es mentira en materia de información?
Es probablemente la pregunta más importante de la próxima década. Y por ahora nadie la responde en serio. En un futuro muy próximo, ¿quién se encargará de ayudarnos a determinar qué es verdad y qué es mentira?
¿Las big techs? Imposible, son juez y parte! Son ellas quienes controlan las plataformas, los algoritmos y las herramientas de generación de contenido. Así que confiarles la validación de la verdad sería como pedirle al zorro que cuide el gallinero. Ya hemos visto lo que da de sí eso con la moderación de Meta o las decisiones arbitrarias de X bajo Musk. Y precisamente, Meta ha decidido recientemente prescindir de sus fact-checkers internos sustituyéndolos por un sistema de notas comunitarias al estilo de X. Dicho de otra manera, se confía la verificación de los hechos a la multitud. La misma multitud que los algoritmos han pasado años radicalizando.
¿Los políticos? En las democracias que todavía se mantienen en pie, la tentación de un ministerio de la verdad al estilo orwelliano es real. Pero ¿quién controlaría ese ministerio? ¿Con qué criterios? ¿Y con qué garantía de que la verdad oficial no sería simplemente la verdad del partido en el poder? En los regímenes autoritarios la pregunta ni siquiera se plantea, la respuesta ya está dada.
¿Expertos acreditados? La idea es seductora sobre el papel pero choca con la realidad del terreno. Los expertos se contradicen, son falibles, pueden ser comprados, intimidados o simplemente desbordados por la velocidad a la que circula hoy la información.
¿Los medios tradicionales? Conocemos sus límites, su dependencia de los anunciantes, su concentración en manos de unos pocos grandes grupos y su tendencia a privilegiar lo espectacular frente a la estricta verdad. La mayoría de ellos ha perdido una gran parte de su credibilidad y no la recuperará fácilmente.
¿Y los fact-checkers independientes en todo esto? Los que hacen un trabajo serio, riguroso y documentado se han convertido en blancos. Son acosados por hordas de perfectos imbéciles y estrangulados económicamente porque este trabajo cuesta caro y rinde poco. Mientras tanto proliferan los falsos fact-checkers, sitios web y cuentas que exhiben todos los códigos de la verificación seria pero cuyo único objetivo es validar la desinformación que pretenden combatir. No hace falta decir que aquí se alcanza la cima del cinismo.
Sin embargo, la cuestión del tercero de confianza es central y muy urgente. Porque sin árbitro legítimo e independiente, sin instancia capaz de distinguir lo verdadero de lo falso con una autoridad reconocida por la mayoría, se impondrá la ley del más fuerte. Y el más fuerte en este momento es quien tiene el mayor presupuesto de desinformación.
¿Cómo actuar ahora mismo frente a la desinformación por IA?
Esperar a que los gobiernos resuelvan el problema sería un grave error. No porque la política no tenga papel que jugar, porque lo tiene y es importante. Pero con la lentitud del tiempo legislativo, los lobbies de las big techs tienen de sobra los medios para ralentizar o vaciar de sustancia cualquier regulación. Sin contar la velocidad a la que evoluciona la tecnología. Así que apostar únicamente por una respuesta política es realmente muy ingenuo.
La verdadera vía está en otro lugar. Es ciudadana. Y empieza por la educación en los medios de comunicación. No como una asignatura optativa que se mete entre dos clases, sino como una competencia fundamental al mismo nivel que saber leer o contar. Hay que aprender a identificar una fuente, a contrastar informaciones, a reconocer los mecanismos de manipulación emocional y a desconfiar de lo que confirma demasiado cómodamente lo que ya pensamos. Es un trabajo que debe comenzar en la escuela primaria y continuar a lo largo de toda la vida.
También hay que apoyar activamente las redes de fact-checking independientes. Acabamos de ver hasta qué punto están amenazadas, económica y físicamente. Apoyarlas no es solo un acto militante, es sobre todo un acto de supervivencia democrática. Así que suscríbete a medios independientes que hacen un trabajo serio. Comparte sus contenidos y dales a conocer a tu alrededor. Porque cada participante adicional es un balón de oxígeno para estas estructuras que a menudo tiran adelante a duras penas.
Y luego hay algo todavía más simple: adquirir el hábito de dudar. No con una duda paralizante o conspiranoica, sino con una duda sana y metódica. Así que antes de compartir una información, antes de creerla, antes de repetirla… Pregúntate quién la produce y quién se beneficia de ella.
Al final, todo esto no forma una solución milagrosa. Pero al menos ya es un buen comienzo de respuesta frente a la desinformación. Y si por tu parte tienes otras soluciones, te agradecemos que nos las indiques en los comentarios porque estamos realmente motivados para darles visibilidad en un próximo artículo.
Conclusión: La ética es la palabra clave
El propósito de este artículo no es decir que la IA sea buena o mala. Personalmente, la encuentro bastante útil en los ámbitos científico o médico. Y bastante dramática en la producción de contenidos. De todas formas, ahora que la pasta de dientes ha salido del tubo no hay manera de meterla de vuelta. Entonces, ¿si la solución se resumiera en una sola palabra? La palabra “ética“. Una ética individual y colectiva que nos empujara a interrogarnos seriamente sobre nuestra relación con las nuevas tecnologías. Y desde ese punto de vista, la pregunta es simple: ¿Debo ser una víctima de la tecnología o debo hacer que me facilite la vida?
La respuesta parece evidente, pero su aplicación mucho menos. Y para ser sincero, no soy muy optimista respecto a lo que nos reserva el futuro tecnológico. Pero si hay algo que puede devolverme la esperanza, es pensar que mayoritariamente, en nuestro fuero interno, estamos fundamentalmente apegados a la verdad antes que a la mentira. Aunque por desgracia la realidad sea tan cruel como esta cita:
En tiempos de engaño universal, decir la verdad es un acto revolucionario. George Orwell
Por nuestra parte, somos ciertamente un pequeño medio insignificante comparado con las grandes máquinas que contaminan los espíritus a escala industrial. Es un hecho. Pero al menos cumplimos nuestra misión con honestidad obligándonos a un máximo de profesionalismo. Y eso ya es algo 🙂 Así que si quieres que podamos ir más lejos, no es nada complicado. Empieza por compartir este artículo y apoya a los medios libres. No por simple caridad, sino con la idea de participar en poner sobre la mesa las verdades que incomodan. Gracias por haber leído hasta aquí y hasta muy pronto para nuevas aventuras. Y para concluir, rindamos homenaje al talentoso George Orwell que nos ha acompañado a lo largo de todo este texto.
¿Quieres dejar un comentario?
Crear una cuenta gratuita Iniciar sesión