L’arnaque de l’IA dans nos moteurs et navigateurs il est grand temps que ça s’arrête !

Aujourd’hui je suis en colère ! Parce que trop c’est trop ! J’ai un message clair à destination des gens du secteur de la tech : Mais à quel moment vous avez pensé qu’on avait vraiment besoin d’IA dans nos navigateurs et nos moteurs de recherche ? À quel moment quelqu’un s’est dit que les gens ne savaient plus lire ? Que trois lignes pondues par un obscur algorithme allaient remplacer le travail de quelqu’un qui a passé des heures à construire du contenu de qualité ?
Personne n’a demandé cette connerie ! Et vous l’avez fait quand même ! De l’IA partout dans nos moteurs et dans nos navigateurs. Le plus souvent au détriment du respect de notre vie privée. Et le plus souvent pour des fonctions qui sont totalement gadgets. Vous avez fait ça sans demander et sans prévenir, comme si c’était une évidence. Eh bien non ! Ce n’est pas une évidence. C’est juste inadmissible ! Et c’est ce que je vais dénoncer clairement dans cet article.
Et je vais aussi apporter des solutions radicales pour nous défendre contre cette agression. Et je pèse mes mots ! Oui c’est bien une agression qui touche à la fois les usagers du web et les créateurs de contenu. Donc, en ce qui me concerne, si tu m’agresses ne t’attends surtout pas à ce que je te tende l’autre joue. Alors les gens de la tech, ouvrez bien grandes vos oreilles : N’oubliez pas que sans usagers et que sans créateurs de contenu vous n’êtes rien ! Absolument rien ! Vous nous devez tout et on ne vous doit rien du tout ! Maintenant que le message est passé, on va pouvoir développer.
Google, Bing et maintenant GPT : Quand les entreprises américaines manipulent les résultats de recherche à leurs avantages
Venant de Google et Bing, on n’est franchement pas surpris. Ces deux-là ont toujours joué le même jeu en favorisant les sites qui payent pour apparaître et en invisibilisant les sites indépendants sans budget publicitaire. C’est leur modèle économique sur la base d’une censure qui ne dit pas son nom, on le sait depuis longtemps.
Leurs algorithmes ne sont pas neutres, ils sont au services d’un système mafieux. Et ne parlons même pas des sites qui dérangent l’idéologie libertarienne. Tel que les sites qui critiques les GAFAM, les sites anticapitalistes et les médias alternatifs qui posent les vraies questions… Ceux-là sont relégués si loin dans les résultats de recherche qu’ils n’existent quasiment plus. Au final, pourquoi risquer d’indigner le public avec une censure officielle alors que tu peux simplement limiter l’audience ? La question est posée.
Comme si cela ne suffisait pas, avec l’arrivée de GPT Search et des IA génératives directement intégrées dans les moteurs, on franchit un cap supplémentaire et encore bien plus inquiétant. Maintenant ce n’est plus seulement l’ordre des résultats de recherche qui est orienté, c’est carrément le contenu lui-même qui est filtré, résumé et réinterprété par une machine avant d’arriver jusqu’à toi. Une machine entraînée par des entreprises américaines, avec leurs biais et leurs intérêts en ligne de mire. Désormais, si tu ne fais pas d’effort, tu es dans le brouillard total. En guise de résultat, les multinationales de la tech te servent sur un plateau ce qu’elles ont décidé que tu devais savoir ou non. Cette manipulation grossière nous conduit tout droit à la mort du web indépendant.
La recherche sur internet est un bien commun, pas un marché !
La recherche sur internet doit être un service public ! Ouais on va me dire que c’est une idée communiste. Eh bien j’assume et on s’en fout totalement ! Parce que la vraie question c’est : A qui doit appartenir la porte d’entrée du web ?
Richard Stallman, Aaron Swartz, Tim Berners-Lee… Tous ses grands spécialistes des réseaux informatiques n’ont pas construit les fondations du web libre pour que trois corporations américaines se les approprient pour en faire leur fond de commerce. Berners-Lee a inventé le web et en a fait cadeau à l’humanité. Swartz s’est battu toute sa vie pour la liberté d’accès à l’information, jusqu’à en mourir. Stallman hurle depuis quarante ans que le logiciel libre n’est pas une option mais une nécessité politique.
Et nous on a laissé Google devenir la porte d’entrée unique du web. On a laissé une entreprise privée, financée par la pub, décider de ce qui existe et de ce qui n’existe pas sur internet. C’est ça le vrai scandale ! C’est n’est donc pas une question politique totalement idiote, mais une question de survie démocratique.
Ecosia, Firefox, Brave, DuckDuckGo : Vraiment, on vous aimait bien mais…
Le plus douloureux dans cette histoire c’est le comportement des moteurs et navigateurs dits alternatifs. Parce que Google et Bing on les a rayés de notre liste depuis bien longtemps. Mais les autres, vous étiez nos alternatives. Vous étiez ceux qui portaient les valeurs du web libre, de la vie privée et du respect de l’utilisateur. Alors on pouvait vous recommander avec plaisir à nos lecteurs, à nos amis et à nos familles.
Mais vous avez fait pareil que ce que l’on fuyait avec les GAFAM. Exactement pareil ! Des résumés IA par-ci, un assistant intégré par-là, une fenêtre IA qui s’ouvre sans qu’on l’ait demandé… Firefox qui intègre Copilot de Microsoft dans sa barre latérale. Ecosia qui résume tes articles à ta place pendant qu’elle plante des arbres. Brave qui te colle Leo AI dans le navigateur. DuckDuckGo et ses AI Answers activés par défaut… Cette liste me donne juste envie de vomir !
On ne va pas vous faire la guerre pour autant. On doit le reconnaître, vous permettez à beaucoup de monde de découvrir NovaFuture. Très sincèrement, merci pour ça. Mais on va vous dire la vérité entre amis : Vous avez raté une occasion historique ! Vous aviez une carte unique à jouer qui était celle d’être résolument différents, résolument humains, résolument du côté des utilisateurs et résolument du coté des créateurs de contenu. Au lieu de ça, vous avez choisi de suivre bêtement le troupeau. Alors on espère juste que ce n’était qu’un accident de parcours et que vous allez tous vous ressaisir. N’est-ce pas ?
Les résumés IA dans les moteurs de recherche sont une déclaration de guerre contre les créateurs de contenu
C’est quoi exactement un résumé IA dans un moteur de recherche ? Explications : C’est une machine qui prend le travail de quelqu’un, qui le digère, qui en sort trois lignes et qui les affiche à ta place sans que tu aies jamais besoin de visiter le site original. Le créateur de contenu ne voit donc jamais ta visite. Il ne voit jamais le retour sur son travail. Tout simplement parce qu’il n’existe plus. Alors son référencement s’effondre, sa visibilité disparaît et ses heures de travail partent à la poubelle. Quant à l’IA, elle se sert sans demander la permission et sans redonner quoi que ce soit.
Un article sur NovaFuture ce n’est pas un truc insignifiant. C’est des heures de recherche, de rédaction, de vérification et de mise en forme. C’est écrit avec deux doses d’amour : l’amour d’écrire et l’amour de partager. Chaque article long est long pour trois raisons : Parce que le sujet le mérite ! Parce que les tenants et aboutissants ne peuvent pas entrer dans trois lignes. Parce que raccourcir c’est trahir. Et quand une machine décide à ta place que tu n’as pas besoin de lire l’original, elle ne te rend pas service. Elle te vole une expérience, une nuance, un partage d’émotion et une pensée complète.
Et sur les sujets d’opinion c’est encore pire ! Un résumé IA sur un sujet politique, social ou philosophique va systématiquement aller vers ce qui te conforte, vers ce qui est consensuel, vers ce qui ne dérange personne… Bref, c’est juste une chambre d’écho automatisée. Sans parler du fait qu’un résumé peut être super facilement manipulé. Tu ne le sauras jamais puisque tu n’as pas lu le contenu original et qu’à la place tu as fait confiance à trois lignes produites par une machine dont tu ne connais ni les biais et ni les intentions véritables. En résumé : Il faut que que tout le monde réapprenne à lire bordel !
Comment bloquer les aspirateurs d’IA pour protéger son site et reprendre le contrôle en tant qu’utilisateur
Commençons par la réalité technique. Les grandes IA s’en foutent royalement de ton fichier robot.txt. C’est une convention, pas une loi. Cela revient au même que de mettre un panneau “défense d’entrer” sur une porte ouverte. Les blocages dans le .htaccess sont quant à eux déjà plus sérieux mais ils sont contournés de plus en plus facilement. Cela vient du fait que les robots changent de user-agent et d’IP pour contourner les blocages. Il vont même jusqu’à se faire passer pour des navigateurs web. Bref, c’est un éternel jeu du chat et de la souris.
La vraie solution c’est le blocage dynamique au niveau du serveur. Un système intelligent qui analyse le comportement des requêtes en temps réel, détecte les patterns caractéristiques des robots scrapers pour les bloquer automatiquement avant qu’ils aient avalé quoi que ce soit. C’est efficace. Mais c’est hélas réservé à ceux qui ont un VPS ou un serveur dédié et qui savent vraiment ce qu’ils font. Pour les hébergements mutualisés c’est mort, tu n’as tout simplement pas la main sur ce niveau de configuration.
Alors on lance un appel aux développeurs parce que le web a absolument besoin d’outils simples, accessibles et efficaces. Comme par exemple des plugins pour les CMS qui implémentent ces stratégies de blocage dynamique sans que le webmaster ait besoin d’un doctorat en administration système. C’est faisable et pas forcément complexe. Alors avis aux développeurs qui nous font l’honneur de leur présence ici. Nous on n’a pas le temps de s’investir à 100% dans un tel projet. Mais on veut bien aider à notre niveau s’il y a besoin. Pour l’instant, tout ce que l’on a observé, c’est qu’il n’y a que des algorithmes qui peuvent combattre avec efficacité des algorithmes néfastes. Tout ce qui est programme statique ne fonctionne pas, ou du moins ne fonctionne vraiment pas longtemps.
Côté utilisateurs maintenant. Si ce n’est pas encore fait, on t’invite à désactiver les résumés IA dans les paramètres de chaque moteur et navigateur quand c’est possible. A passer sur des alternatives propres comme Searx, Marginalia, Mojeek ou Librewolf. Mais surtout ne pas rester silencieux… Fais du bruit ! Sur les réseaux sociaux, sur les forums et par email directement aux éditeurs. Dis clairement à Firefox, à Ecosia, à Brave et à DuckDuckGo que tu ne veux pas de leur IA. Que tu as choisi leurs outils précisément pour échapper à ça et que tu te sens trahi… Bref, il faut mettre un maximum de pression parce que c’est une méthode qui fonctionne. Tandis que ton silence ne fait qu’amplifier les problèmes.
L’IA n’est qu’un outil. On n’est pas là pour faire le procès d’un logiciel.
Le monde n’est pas blanc ou noir. Et on serait malhonnêtes de prétendre que l’IA c’est le mal absolu. Un outil c’est un outil. Tout dépend qui tient le manche et dans quel but.
L’IA pour accélérer la recherche scientifique, pour aider les médecins à poser des diagnostics plus précis, pour améliorer les prévisions météo et mieux anticiper les catastrophes climatiques… On est 100% pour. Sans hésitation. C’est exactement le genre d’usage qui justifie les années de recherche et les milliards investis dans cette technologies. C’est utile, c’est concret et ça peut améliorer la vie.
En revanche, l’IA pour fliquer les gens, pour aspirer le contenu des créateurs sans leur demander ni les rémunérer, pour voler le travail des artistes et le régurgiter à leur place, pour résumer la pensée des autres et rendre les gens de plus en plus passifs et dépendants… C’est un non catégorique ! Et cette IA néfaste il faut la combattre dès maintenant, pas dans dix ans quand elle sera encore plus profondément ancrée dans nos usages et nos outils.
La différence entre les deux ? C’est très simple. Dans le premier cas l’IA est au service de l’humain. Dans le second c’est l’humain qui est au service de l’IA et des intérêts commerciaux de ceux qui la contrôlent. On est carrément face à un énorme choix de société.
Penser gagner du temps avec l’IA c’est une grosse illusion
On va être honnêtes parce que c’est important. Sur le papier l’IA devrait faire gagner du temps. Sauf que dans la pratique c’est beaucoup plus nuancé que ça. Parce que si tu utilises l’IA sérieusement, tu ne peux pas te permettre de lui faire confiance aveuglément. Sans aucune exception, chaque affirmation doit être vérifiée. Chaque chiffre doit être recoupé. Chaque source doit être validée. Parce que l’IA hallucine, invente, confond, simplifie… et fait tout ça avec un aplomb qui ferait passer n’importe quel menteur professionnel pour un amateur. Et si tu ne vérifies pas tout à fond, c’est ta crédibilité qui est réduite à néant. Alors au final, le gain de temps il n’est pas là du tout.
Et à côté de ça il y a un problème nouveau. Le web se remplit à une vitesse effrayante de contenu généré par IA. Des articles, des analyses, des guides complets, des études approfondies… tout ceci est produit en quantité industrielles, sans réflexion, sans expertise et sans aucune âme. Donc quand tu fais une recherche pour travailler, tu dois maintenant te méfier de ça aussi. Trier le vrai du synthétique c’est une couche de travail supplémentaire que l’on avait pas avant. Alors au final le temps gagné d’un côté se perd de l’autre. Et ça, il n’y a pas beaucoup de monde pour le dire.
Et si on construisait notre propre moteur de recherche ?
Ouais on sait ce que tu penses. Toujours le même constat, mais après on fait quoi concrètement ? Rien, comme d’habitude ? Eh bien justement. On va te répondre :
Et si on construisait notre propre moteur de recherche indépendant ? Un vrai moteur de recherche 100% libre et 100% open source. On ne plaisante pas ! On parle d’un projet réel, faisable et très utile. Pas d’une utopie de geeks en mal de grandeur. Mais d’un outil au service des utilisateurs et des créateurs de contenu.
Le concept que j’ai en tête c’est un hybride entre un moteur classique et un annuaire collaboratif. Et pour l’interface un look totalement dépouillé. Juste un champ de recherche et un bouton de validation. Comme Google en 1998 avant qu’il ne devienne le diable malgré ses belles promesses. Tu te souviens ? “Don’t be evil.” On a tous bien rigolé à l’époque parce qu’on a direct compris que ça allait mal tourner.
Techniquement parlons sérieusement. Le crawler c’est Scrapy en Python, robuste, scalable et éprouvé. Il crawle le web et en même temps il évalue chaque site selon des critères clairs et transparents. L’index est stocké dans PostgreSQL. Simple, fiable et facilement auditable.
Le scoring c’est le coeur du projet. Chaque site reçoit une note basée sur des critères pondérés. Présence de pub adwords ou bing ou autre régie détectée via analyse du DOM ? Non indexé. Trackers identifiés par comparaison avec les listes EasyList et EasyPrivacy ? Non indexé. Contenu massivement généré par IA détecté via un classifier entraîné maison ou une API comme GPTZero ? Non indexé. Les poubelles ont déjà leur place et ce ne sera pas dans ce moteur.
Pour les cas difficiles à détecter en automatique, comme les sites d’arnaque, les contenus borderline… on ajoute une couche de curation humaine collaborative. Une communauté qui signale, qui valide, qui écarte… Pas un algorithme opaque qui fait la loi dans son coin. A la place, des humains qui exercent un contrôle en toute transparence. Ce qui donnera un système hybride entre la puissance de la machine et l’intelligence du collectif.
Le backend pourrait tourner sous Flask ou FastAPI car c’est léger léger et performant. Avec une API ouverte pour que n’importe qui puisse contribuer, forker ou améliorer. Un VPS suffit pour démarrer. De cette façon l’architecture serait modulaire pour scaler si la communauté grossit. Tout est auto-hébergeable, décentralisable et libre.
Est-ce que c’est simple ? Non ! Est-ce que c’est impossible ? Absolument pas ! Il faut juste de la motivation, des compétences et de l’infrastructure. Mais surtout il faut des gens qui en ont marre de subir et qui préfèrent construire. Je suis sûr que ça te parle 😉
Tu programmes ? T’as de l’infrastructure ? Tu veux devenir modérateur ? On en discute sur NovaFlow !
Cet appel il est très sérieux. On n’est pas en train de rêver tout haut. On est en train de poser les bases d’un magnifique projet qui peut voir le jour si les bonnes personnes se manifestent.
Tu programmes en Python ? Tu connais le crawl, l’indexation et le traitement de données ? Tu as un serveur qui tourne et de la bande passante à mettre au service d’un projet qui a du sens ? Tu es admin sys, développeur, designer, ou simplement quelqu’un qui en a marre de subir et qui veut contribuer à construire quelque chose de propre ?
Alors viens en discuter sur le NovaFlow. On pose les bases ensemble. L’architecture, les priorités, les premières étapes… Parce qu’un projet comme celui-là ne se construit pas dans son coin, il se construit avec une communauté motivée, des personnes qui partagent les mêmes valeurs et qui ont envie de retrousser leurs manches. Rien ne nous arrête. Vraiment rien. Sauf l’absence de volonté. Et ça, on pense que tu en as à revendre.
Conclusion : S’exprimer sincèrement pour mieux avancer
Du fond du cœur, j’ai passé plusieurs heures à élaborer cet article. Tout ce qui m’a motivé c’est de me dire que si au moins ça peut aider une seule personne à se sentir moins seule à penser ce qu’elle pense, alors ce serait une réelle satisfaction pour moi. Ici c’est NovaFuture, des fois on peut donner l’impression que l’on est des sortes de Don Quichotte qui se battent contre des moulins. Ça m’arrive aussi de le penser. Mais ça passe vite, parce que je me dis qu’au moins on a le mérite de ne pas baisser les bras et que les monstres que l’on affronte sont bien réels. Et qu’au final on finira par gagner parce que l’on n’a rien à perdre, ni même à gagner sinon notre liberté volée.
Jamais une IA ne pourra te résumer ce ressenti. Jamais une IA n’aura de la considération pour ce que tu es vraiment. Jamais une IA ne te dira comment changer le système. Seuls de vrais échanges humains peuvent nous permettre d’avancer vers du positif. À la base, je ne suis qu’un genre de geek que l’on peut qualifier d’asocial. C’est peut-être vrai, mais toujours est-il qu’exceptionnellement j’avais réellement envie de partager le fond de ma pensée en retirant le masque austère du gars qui tape du code dans sa console Linux. Alors merci d’avoir lu jusqu’à cette fin qui n’est que le début d’une histoire qui continue de s’écrire dans les bas-fonds du web underground. Peu importe combien on est, tout ce qui compte c’est d’être solidaires dans l’idée qu’un autre monde est possible. Donc à très bientôt pour des actions concrètes.
Tu veux laisser un commentaire ?
Créer un compte gratuit Se connecter