Deepfakes & Fake News : La première grande victime de l’IA c’est la vérité

L’IA s’attaque frontalement à quelque chose de moins visible que nos emplois ou notre créativité. Sa première grande victime n’est rien de moins que la vérité. Pour le moment, les vérités philosophiques ou scientifiques sont relativement épargnées. Mais pour ce qui est de la vérité du quotidien on en arrive au stade où il devient de plus en plus difficile de faire confiance à ce que l’on voit, à ce que l’on entend et à ce que l’on nous raconte. Alors on peut se demander dès à présent si cet effacement progressif de la vérité au profit du mensonge n’est pas une tendance plus ou moins délibérée. Parce que lorsque l’on observe attentivement la progression du techno-fascisme, il y a de quoi se poser très sérieusement la question.
La dictature s’épanouit sur le terreau de l’ignorance. George Orwell
Pour le moment, tu ne vois peut-être pas vraiment arriver le problème. Peut-être parce que tu es à l’aise avec l’informatique et que tu arrives facilement à déceler le vrai du faux. Mais tu remarqueras que par moments il faut souvent y regarder à deux fois pour ne pas tomber dans le piège. Et peut-être aussi que tu ne t’inquiètes pas vraiment parce que tu n’as pas encore lu un article de fond sur ce sujet. Ce qui est quelque peu normal, si je puis dire, puisque ce n’est pas la préoccupation des médias mainstream qui utilisent ou retransmettent de plus en plus de contenus générés par IA. Tout simplement parce que cela plaît à leurs donneurs d’ordres et que cela leur permet par la même occasion de diminuer leurs effectifs. Il y a donc de sérieux soucis à se faire au niveau de l’accès à un journalisme de qualité. Mais cela soulève aussi des problèmes encore bien plus graves que nous allons passer en revue dans cet article.
C’est quoi le techno-fascisme ?
Avant d’aller plus loin, on va se remémorer la définition du techno-fascisme parce qu’elle est indispensable pour bien comprendre ce qui va suivre…
Le techno-fascisme, c’est la convergence entre le pouvoir technologique concentré dans les mains d’une poignée d’acteurs privés et les dérives autoritaires du pouvoir politique. Autrement dit, c’est le moment où les big techs et certains gouvernements cessent d’être des entités séparées pour devenir les deux faces d’une même pièce. L’un apporte la puissance des nouvelles technologies, l’autre apporte la légitimité et la force de loi. Et ensemble, ils peuvent contrôler l’information et le narratif. De ce fait, ils peuvent agir largement sur la perception de la réalité. D’ailleurs, Orwell avait tout compris bien avant que ce mot existe.
Le langage politique est destiné à rendre vraisemblables les mensonges, respectables les meurtres, et à donner l’apparence de la solidité à ce qui n’est que vent. George Orwell
Ce qu’Orwell décrivait avec les mots, l’IA le fait désormais avec des images, des voix, des vidéos et des textes entiers. La propagande a toujours existé, mais elle buttait toujours sur ses propres limites techniques. Mais ces limites sont en train de sauter les unes après les autres. Et le pire reste à venir.
Avant l’IA, les faux contenus étaient difficiles à produire
Pendant longtemps, on a eu de la chance sans vraiment le savoir. Parce que le meilleur montage Photoshop finissait toujours par se trahir à cause d’une ombre mal placée, d’un pixel suspect, d’un flou qui ne collait pas avec le reste… Jusque là, l’œil exercé pouvait encore faire la différence. La vidéo jouissait quant à elle d’un statut presque sacré car elle était considérée comme une preuve inattaquable. D’ailleurs, un enregistrement audio ou vidéo était recevable devant un tribunal et pouvait faire basculer un jugement. Ces repères ont longtemps structuré notre rapport à la réalité et permis de maintenir une ligne, certes imparfaite, entre ce qui est vrai et ce qui est fabriqué.
Et ce n’était pas qu’une question de difficulté technique. Parce que fabriquer un faux contenu convaincant demandait beaucoup de temps, des compétences extremement pointues, des logiciels coûteux et souvent une équipe entière. Donc, cloner une voix, truquer une vidéo, falsifier un audio de manière crédible relevait du domaine réservé des studios hollywoodiens ou des services de renseignement. Au final, toutes ces difficultés limitaient naturellement la propagation du faux en rendant la manipulation à grande échelle difficile, coûteuse et surtout identifiable.
Mais ce temps est quasiment révolu. Et avec lui disparaît la capacité à faire 100% confiance à une preuve. Parce que dans un futur proche, il est pratiquement certain qu’un enregistrement audio ou vidéo ne vaudra plus rien devant un tribunal car n’importe qui pourra arguer que c’est des éléments qui ont été générés par IA. C’est une bombe à retardement pour nos systèmes judiciaires et il n’y a pas grand monde pour s’en inquiéter.
Le watermark IA est un garde-fou déjà largement dépassé
Certains voyaient dans le marquage des contenus générés par IA la solution miracle. L’idée était simple, apposer une signature numérique invisible sur chaque image, ou vidéo, ou audio produit par une IA, de manière à pouvoir en identifier facilement l’origine. Sur le papier, ça tenait la route.
Mais dans la réalité, c’est déjà plié ! Parce qu’avec une station de travail équipée de deux ou trois cartes graphiques performantes et une IA open source, n’importe qui peut aujourd’hui générer des contenus sans la moindre trace d’utilisation d’une IA. Et le résultat ce sont des fakes très difficiles à détecter que n’importe quel individu mal intentionné peut produire moyennant un investissement à la portée de tout le monde. C’est pourquoi nous sommes de plus en plus inondés de contenus d’une violence extrême ou de pornographie non consentie générée à partir du visage ou de la voix de n’importe qui. Et malheureusement, personne n’est à l’abri de genre de manipulation.
C’est là que ça devient vraiment glaçant. Parce que l’on parle de vies brisées, de réputations détruites en quelques heures et de traumatismes réels causés par des contenus 100% fabriqués artificiellement. Des femmes se retrouvent déjà aujourd’hui victimes de deepfakes pornographiques diffusés sans leur consentement. Des mineurs sont ciblés. Et les outils pour faire ça sont gratuits, accessibles et de plus en plus performants.
Donc, ce qui était censé être un filet de sécurité s’est transformé en passoire. Et pendant que les cercles institutionnels débattent encore de son efficacité la fabrique du mensonge tourne à plein régime.
Faire confiance à l’IA comme à un oracle, c’est une erreur qui peut coûter cher
De plus en plus de gens valident une information parce que GPT l’a dit. C’est devenu un réflexe, presque un automatisme. On pose une question, on obtient une réponse formulée avec assurance et on passe à autre chose. Sauf que derrière cette apparence de certitude se cache une réalité bien moins rassurante.
Les grands modèles de langage mélangent des sources de qualité très variable. Ce qui fait qu’ils peuvent ressortir une fiche Wikipedia de travers parce qu’ils l’auront croisée avec des contenus biaisés. Et surtout ils hallucinent ! Ce terme technique un peu bizarre désigne un phénomène bien réel où l’IA invente des faits, des sources, des citations entières avec le même aplomb que si elle énonçait une vérité absolue. Et comme la réponse est toujours bien formulée, fluide et convaincante, rien dans la forme ne te met en alerte.
Mais le problème va bien au-delà des erreurs involontaires. Ces outils sont entre les mains des big techs. Et plus la frontière entre réalité et fake deviendra floue, plus il sera facile d’introduire discrètement des biais, des omissions ou des manipulations dans les résultats sans que personne ne s’en aperçoive. Pas besoin de mentir franchement, il suffit de cadrer, de nuancer dans un sens et d’invisibiliser certaines informations qui ne vont pas dans le sens du techno-fascisme.
C’est exactement le schéma d’un partenaire toxique. Au début il est séduisant, utile, rassurant et disponible à toute heure. Donc tu lui fais confiance. Et c’est précisément cette confiance qu’il utilisera ensuite pour mieux te manipuler. Le jour où tu réaliseras que quelque chose ne tourne pas rond, tu seras déjà tellement habitué à déléguer ta pensée que tu auras du mal à t’en passer. C’est déjà le cas pour des millions de personnes qui pensent que l’IA est inoffensive alors qu’elle est un outil en de très mauvaises mains.
Quand les outils de désinformation sont dans les mains des libertariens
Parlons de Grok, l’IA du techno-fasciste Elon Musk. Parce que contrairement à ses concurrents qui ont mis en place des garde-fous pour limiter les usages les plus problématiques, Musk a fait le choix inverse. Car depuis quelques temps, Grok autorise la génération de deepfakes qui sont des contenus hyper-réalistes fabriqués à partir du visage ou de la voix de vraies personnes. Et les résultats maléfiques sont clairement documentés avec des individus humiliés publiquement via des contenus fabriqués, des femmes victimes de mises en scène pornographiques et des utilisations à des fins pédophiles clairement établies.
Ce n’est donc pas un bug, mais un choix délibéré ! Et ce choix dit quelque chose de très précis sur celui qui le fait. D’autant plus lorsque l’on sait que le nom de Musk apparaît dans les fichiers Epstein. On ne dit pas que cela établit une culpabilité, mais on dit que ça éclaire le peu d’empressement à protéger les plus vulnérables quand il s’agit de concevoir ces outils. Dans tous les cas, cela en dit long sur la cynique personnalité de cet individu déplorable. Ce gars est peut-être riche en terme d’argent, mais niveau richesse de cœur et d’esprit là c’est zéro !
Les libertariens du big tech ont une vision du monde très binaire. La liberté absolue pour eux et les conséquences de leur égoïsme pour tous les autres. Et pendant que Grok tourne à plein régime, pendant que les deepfakes se multiplient et que des vies sont abîmées, on est en droit de se poser une question très simple. Mais que fait l’Europe ? Parce qu’entre les grandes déclarations sur la régulation de l’IA et la réalité du terrain, le fossé est tellement large qu’on pourrait y faire passer un porte-avions. Et au passage, pourquoi juste que fait l’Europe et pas l’Amérique ? La réponse est simple : En matière d’éthique et d’humanisme il n’y a plus rien à attendre des USA qui sont un pays qui a totalement sombré dans le techno-fascisme depuis l’avènement des big techs.
Comment les régimes autoritaires utilisent l’IA pour imposer leur propagande ?
Et si on arrêtait de parler de risques futurs pour regarder ce qui se passe déjà sous nos yeux. Les régimes autoritaires n’ont pas attendu que la technologie soit parfaite pour l’instrumentaliser. Ils l’utilisent actuellement, massivement et sans complexe.
On sait, en effet, que la propagande totalitaire n’a pas besoin de convaincre pour réussir et même que ce n’est pas là son but. Le but de la propagande est de produire le découragement des esprits, de persuader chacun de son impuissance à rétablir la vérité autour de soi et de l’inutilité de toute tentative de s’opposer à la diffusion du mensonge. George Orwell
La Russie a fait de la désinformation un outil de guerre à part entière. Depuis l’invasion de l’Ukraine, les exemples de contenus générés par IA utilisés pour alimenter la propagande du Kremlin se comptent par centaines. Comme par exemple de fausses déclarations attribuées à des dirigeants ukrainiens, des images de destructions fabriquées de toutes pièces pour retourner le récit, des vidéos manipulées diffusées à grande échelle sur les réseaux sociaux… Le but n’est pas forcément de convaincre tout le monde, mais de créer le doute, de noyer le vrai sous le faux jusqu’à ce que les gens ne sachent plus quoi croire.
Mais pointer uniquement la Russie serait une erreur. Les États-Unis sous Trump ont également franchi des lignes rouges en laissant prospérer des narratifs fabriqués par des outils IA pour consolider une base électorale et discréditer toute opposition. La propagande n’est donc plus l’apanage des dictatures classiques. Elle s’est aussi installée confortablement au cœur des démocraties de facade.
Ce qui rend tout ça particulièrement redoutable c’est la vitesse. Parce qu’un faux contenu fait le tour du monde en quelques heures. Tandis que le démenti arrive toujours trop tard, trop timidement et ne touche jamais autant de monde que le mensonge original qui est conçu pour choquer. L’IA a donc donné à la propagande une puissance de feu sans précédent. Et les régimes qui en ont compris le potentiel n’ont aucune intention de s’arrêter. D’ailleurs, pourquoi arrêteraient-ils alors que ce plan fonctionne à merveille et de mieux en mieux ? La question est posée.
IA et conflits armés, les scénarios qui font froid dans le dos
Ce qui suit n’est hélas pas du domaine de la science-fiction. C’est juste l’extrapolation logique et très proche de ce que l’on observe déjà aujourd’hui.
Un pays pourrait en envahir un autre, raser des villes entières, massacrer des civils et couvrir tout ça en temps réel avec un flux continu d’images générées par IA montrant des rues calmes et des gens qui vaquent à leurs occupations. Pendant que les bombes tomberaient, l’IA fabriquerait donc une réalité parallèle propre et rassurante qui serait diffusée massivement sur les réseaux sociaux et consommée par des millions de personnes qui n’auraient aucune raison d’en douter. Surtout que des millions de personnes sont déjà noyées sous des tonnes d’informations contradictoires placées au milieu de milliers de tonnes d’informations et de dramas sans le moindre intérêt.
Le scénario inverse serait tout aussi glaçant. Une agression totalement inventée, qui serait fabriquée avec des images IA suffisamment crédibles pour provoquer l’indignation internationale et utilisée comme prétexte pour déclencher une invasion réelle. Si tu doutes de ce scénario, on n’a pas besoin de chercher très loin pour trouver des précédents historiques où des prétextes totalement fabriqués ont servi à justifier des guerres. Alors demain, ces prétextes pourraient tout à fait être générés en quelques heures par une machine. C’est juste la suite logique.
L’IA générative est une aubaine sans précédent pour le complotisme
Les complotistes ont toujours existé. Mais jusqu’à présent ils bricolaient en assemblant des théories avec des bouts de ficelle et beaucoup d’imagination. Désormais, ils ont accès à de très puissants outils qui leur permettent de matérialiser leurs fantasmes avec une crédibilité qui aurait été impossible il y a encore trois ans. Avec par exemple des vidéos deepfake qui prouveraient qu’un dirigeant aurait dit quelque chose qu’il n’a jamais dit. Ou bien des images IA qui serait censées confirmer un complot. Bref, tout une multitude de faux documents générés en quelques minutes et diffusés massivement comme des preuves irréfutables.
Ce qui rend ces contenus particulièrement dangereux ce n’est pas leur qualité technique, c’est qu’ils jouent à fond sur l’émotionnel. Principalement la peur, la colère, le sentiment d’injustice et l’impression d’appartenir à une minorité éclairée face à une majorité de moutons. Les algorithmes adorent ça parce que l’émotion génère de l’engagement. Et bien sûr, l’engagement génère de la publicité. Le complotisme est devenu un business model pour les big tech qui en tirent très largement profit.
Et derrière la majeure partie de ces contenus on trouve des acteurs très identifiés. L’extrême droite mondiale qui alimente des mouvements totalement débiles comme QAnon en fabriquant des narratifs soigneusement conçus pour toucher les plus fragiles qui cherchent des réponses simples à des questions complexes. Ces mouvements ne sont pas spontanés. Bien au contraire, ils sont construits, financés et amplifiés par des réseaux qui ont parfaitement compris que la désinformation à grande échelle est un outil de pouvoir. Il y a aussi des régimes comme la Russie qui utilisent le complotisme comme une arme de déstabilisation des démocraties en fracturant les sociétés de l’intérieur. L’objectif ultime n’est pas de convaincre les gens d’adhérer à une idéologie précise, c’est bien plus subtil que ça. C’est juste de les épuiser, de les dégoûter en leur faisant croire que tout le monde ment. Et au bout du compte de les faire basculer vers des extrêmes les plus à même de détruire un pays de l’intérieur.
Face à cette avalanche de faux, la tentation est grande de répondre par les mêmes armes. Mais ce serait une erreur fatale. Parce que répondre au fake par du fake ce n’est pas gagner la bataille, c’est abandonner le seul terrain sur lequel on peut encore se battre.
Demain, qui décidera de ce qui est vrai et de ce qui est faux en matière d’information ?
C’est probablement la question la plus importante de la prochaine décennie. Et pour l’instant personne n’y répond sérieusement. Dans un futur très proche, qui va être chargé de nous aider à déterminer ce qui est vrai ou faux ?
Les big techs ? Impossible car elles sont juge et partie ! Ce sont elles qui contrôlent les plateformes, les algorithmes et les outils de génération de contenu. Donc leur confier la validation de la vérité ce serait demander au renard de garder le poulailler. On a déjà vu ce que ça donne avec la modération de Meta ou les décisions arbitraires de X sous Musk. Et justement, Meta a récemment décidé de se passer de ses fact-checkers internes en les remplaçant par un système de notes communautaires façon X. Autrement dit, on confie la vérification des faits à la foule. La même foule que les algorithmes ont passé des années à radicaliser.
Les politiciens ? Dans les démocraties qui tiennent encore debout, la tentation d’un ministère de la vérité façon Orwell est réelle. Mais qui contrôlerait ce ministère ? Selon quels critères ? Et avec quelle garantie que la vérité officielle ne serait pas simplement la vérité du parti au pouvoir ? Dans les régimes autoritaires la question ne se pose même pas, la réponse est déjà connue.
Des experts assermentés ? L’idée est séduisante sur le papier mais elle se heurte à la réalité du terrain. Les experts se contredisent, ils sont faillibles, ils peuvent être achetés, intimidés ou simplement dépassés par la vitesse à laquelle l’information circule aujourd’hui.
Les médias traditionnels ? On connaît leurs limites, leur dépendance aux annonceurs, leur concentration entre les mains de quelques grands groupes et leur tendance à privilégier le spectaculaire par rapport à la stricte vérité. La majorité d’entre eux a donc perdu une très grande partie de sa crédibilité et ne le récupérera pas facilement.
Et les fact-checkers indépendants dans tout ça ? Ceux qui font un travail sérieux, rigoureux et documenté sont devenus des cibles. Ils sont harcelés par des hordes de gros débiles et financièrement étranglés parce que ce travail coûte cher et rapporte peu. Pendant ce temps prolifèrent les faux fact-checkers qui sont des sites et des comptes qui arborent tous les codes de la vérification sérieuse mais dont le seul objectif est de valider la désinformation qu’ils prétendent combattre. Inutile de préciser que l’on atteint ici le comble du cynisme.
Pourtant, la question du tiers de confiance est centrale et très urgente. Parce que sans arbitre légitime et indépendant, sans instance capable de distinguer le vrai du faux avec une autorité reconnue par le plus grand nombre, c’est la loi du plus fort qui s’imposera. Et le plus fort en ce moment c’est celui qui a le plus gros budget de désinformation.
Comment agir dès maintenant face à la désinformation IA ?
Attendre que les gouvernements règlent le problème serait une grossière erreur. Non pas que le politique n’ait pas de rôle à jouer, parce qu’il en a un et qu’il est important. Mais avec la lenteur du temps législatif, les lobbies des big techs ont largement les moyens de ralentir ou de vider de leur substance n’importe quelle régulation. Sans compter la vitesse à laquelle la technologie évolue. Donc, miser uniquement sur une réponse politique c’est vraiment très naïf.
La vraie piste est ailleurs. Elle est citoyenne. Et elle commence par l’éducation aux médias. Pas comme une matière optionnelle que l’on case entre deux cours, mais comme une compétence fondamentale au même titre que savoir lire ou compter. Il faut donc apprendre à identifier une source, à croiser les informations, à reconnaître les mécanismes de manipulation émotionnelle et à se méfier de ce qui confirme trop confortablement ce que l’on pense déjà. C’est un travail qui doit commencer dès l’école primaire et se poursuivre tout au long de la vie.
Il faut aussi soutenir activement les réseaux de fact-checking indépendants. On vient de voir à quel point ils sont menacés, financièrement et physiquement. Les soutenir ce n’est pas seulement un acte militant, c’est surtout un acte de survie démocratique. Alors abonne-toi à des médias indépendants qui font un travail sérieux. Partage leurs contenus et fais les connaître autour de toi. Parce que chaque participant supplémentaire est un ballon d’oxygène pour ces structures qui tiennent souvent à bout de bras.
Et puis il y a quelque chose de plus simple encore, prendre l’habitude de douter. Pas d’un doute paralysant ou complotiste, mais d’un doute sain et méthodique. Donc avant de partager une information, avant de la croire, avant de la répéter… Se demander qui la produit et qui en bénéficie.
Au final, tout ceci ne forme pas une solution miracle. Mais au moins, c’est déjà un bon début de riposte face à la désinformation. Et si de ton coté tu as d’autres solutions, merci de nous les indiquer en commentaire parce que l’on est vraiment motivé pour les mettre en avant dans un prochain article.
Conclusion : L’éthique est le maître mot
Le propos de cet article ce n’est pas de dire que l’IA est bonne ou mauvaise. Personnellement, je la trouve plutôt utile dans les domaines scientifiques ou médicaux. Et plutôt dramatique en production de contenus. De toutes les façons, maintenant que le dentifrice est sorti du tube il n’y a plus moyen de le faire retourner à l’intérieur. Alors si la solution tenait en un seul mot ? Le mot “éthique“. Une éthique individuelle et collective qui nous pousserait à nous interroger sérieusement sur notre rapport aux nouvelles technologies. Et de ce point de vue, la question est simple : Est-ce que je dois être une victime de la technologie ou bien est-ce que je dois faire en sorte qu’elle me facilite la vie ?
La réponse parait évidente, mais son application beaucoup moins. Et pour tout dire, je ne suis pas très optimiste concernant ce que l’avenir technologique nous réserve. Mais s’il y a bien une chose qui peut me redonner espoir, c’est de penser que majoritairement, en notre for intérieur, nous sommes fondamentalement attachés à la vérité plutôt qu’au mensonge. Même si hélas, la réalité est aussi cruelle que cette citation :
Dans ces temps de tromperies universelles, dire la vérité devient un acte révolutionnaire. George Orwell
De notre côté, on est certes qu’un petit média insignifiant par rapport aux grosses machines qui polluent les esprits à l’échelle industrielle. C’est un fait. Mais au moins, on remplit notre mission honnêtement en nous obligeant à un maximum de professionnalisme. C’est toujours ça de gagné 🙂 Alors si tu souhaites que l’on puisse aller plus loin, ce n’est vraiment pas compliqué. Commence par partager cet article et soutiens les médias libres. Surtout pas par simple charité, mais dans l’idée de participer à mettre sur la place publique les vérités qui dérangent. Merci d’avoir lu jusqu’ici et à très bientôt pour de nouvelles aventures. Et pour conclure, rendons hommage au talentueux George Orwell qui nous a accompagné tout au long de ce texte.
Tu veux laisser un commentaire ?
Créer un compte gratuit Se connecter