​La lecture de tes pensées : Et si le rêve des tyrans devenait une réalité ?

novaMAG : Futurologie

Lorsque l’on s’inquiète des futurs potentiels dangers technologiques, on a plutôt tendance à penser à l’IA. Ce qui est parfaitement compréhensible étant donné qu’il s’agit d’un concept qui est entre de très mauvaises mains et qui est pratiquement hors de contrôle. On peut aussi penser à la robotique qui a réalisé des progrès spectaculaires ces dernières années. Mais désolé de ne pas te remonter le moral, parce que l’on pense qu’il y a encore pire avec les différentes technique en cours de développement dont l’objectif est de permettre de lire dans tes pensées. Toutes tes pensées, même les plus intimes.

Merci de ne pas prendre ce sujet à la légère parce que la question ce n’est plus de savoir si ça fonctionne, mais juste dans combien de temps. Personnellement, je ne sais pas si on peut encore arrêter cette folie car on ne pèse pas grand chose dans la balance par rapport aux milliards de dollars qui sont investis dans le décodage neural. Mais on peut déjà commencer par s’informer sur les tenants et aboutissants de cette technique afin de pouvoir militer efficacement pour qu’elle soit au strict minimum très fortement encadré. Commençons donc par un petit tour d’horizon. Tu vas voir que c’est littéralement vertigineux.

Comprendre le décodage neural à l’aide d’une interface cerveau-ordinateur

Ton cerveau n’arrête jamais de fonctionner. Chaque pensée, chaque émotion, chaque intention produit une activité électrique qui est mesurable. On appelle ça les ondes cérébrales. Partant de ce principe, la technologie BCI (Brain-Computer Interface) permet de capter ces signaux pour les traduire en données exploitables. Et c’est là que l’IA entre en jeu. Parce que sans algorithmes d’apprentissage automatique capables de traiter des milliards de micro-signaux en temps réel, ces ondes ne sont qu’un bruit incompréhensible. C’est donc la combinaison entre des capteurs de plus en plus sensibles et une IA de plus en plus puissante qui va faire basculer cette technologie du domaine médical à celui de la surveillance.

Les implants cérébraux pour quand la précision exige une opération chirurgicale

Le principe repose sur des électrodes posées directement sur ou dans le cortex. Cela permet d’obtenir un signal propre et une précision maximale. C’est la technique qu’ont choisi Neuralink, BrainGate, et c’est la direction que prend la recherche militaire américaine via la DARPA. C’est pour l’instant cantonné aux cas médicaux extrêmes, mais les brevets déposés ne parlent pas que de médecine. Loin de là !L’avantage pour qui veut espionner ton cerveau c’est que le signal est net, interprétable et exploitable. En revanche, le gros inconvénient majeur c’est que cela nécessite une intervention chirurgicale. Ce qui n’est pas très pratique pour surveiller une population entière. A moins de rendre obligatoire l’implantation d’électrodes pour une partie de la population, voire même son ensemble.

L’électroencéphalographie c’est le Saint Graal des techno-fascistes

Cette fois, plus de chirurgie du tout. Juste un casque, un bandeau qui plaquent des électrodes sur le crâne. C’est suffisant pour que l’EEG capte l’activité électrique cérébrale à travers la boîte crânienne. C’est pour l’instant beaucoup moins précis qu’un implant, mais ça progresse très vite. Et surtout, ça peut se déployer très rapidement à très grande échelle. A noter que le brain fingerprinting est déjà utilisé dans des procédures judiciaires en Inde. Et en 2023 des chercheurs de l’Université du Texas ont réussi à reconstituer des phrases entières depuis un signal EEG. Ce ne sont donc pas des spéculations, mais des recherches qui font l’objet de publications scientifiques et d’applications concrètes dès à présent.

Qui pousse les interfaces cerveau-machine et avec quel argent ?

Le marché mondial des interfaces cerveau-ordinateur a franchi un seuil impressionnant. En deux ans, les investissements en capital-risque dans le secteur ont été multipliés par 3,5 en passant de 662 millions de dollars en 2022 à 2,3 milliards en 2024. Cinq des plus grandes fortunes mondiales ont engagé des fonds personnels. Sans surprise, le bras financier de la CIA est aussi dans le lot. Et depuis septembre 2025, Meta commercialise déjà pour le grand public le premier bracelet neural.

Il s’agit de la première tentative concrète de la part d’une Big Tech. Derrière cette accélération se trouve aussi un réseau d’acteurs officiels, de géants technologiques opérant en sous-main, de fonds souverains du Golfe, d’agences militaires et de milliardaires idéologiquement motivés. Voici donc qui pousse cette technologie, comment et avec quels moyens financiers :

Neuralink domine le secteur par sa capitalisation et sa visibilité. Fondée en 2016 par Elon Musk, la société a levé environ 1,3 milliard de dollars en six tours de table, pour obtenir une valorisation atteignant 9 milliards en juin 2025. Musk a carrément injecté personnellement 100 millions lors du financement initial. Le dernier tour, bouclé en mai 2025 à hauteur de 650 millions, a attiré ARK Invest, Sequoia Capital, le Founders Fund de Peter Thiel, mais aussi G42 qui est lié au fonds souverain d’Abu Dhabi et la Qatar Investment Authority. Fin 2025, douze patients portent l’implant N1 Link dans quatre pays. Le premier d’entre eux, Noland Arbaugh, qui est tétraplégique, utilise son interface environ dix heures par jour pour naviguer sur internet et jouer aux échecs.

Synchron occupe la deuxième place stratégique avec 345 millions de dollars levés et une valorisation proche du milliard. Son approche est différente de celle de Neuralink parce que le Stentrode se déploie via la veine jugulaire sans qu’il soit nécessaire d’ouvrir le crâne. Ce profil moins invasif séduit un éventail d’investisseurs particulièrement révélateur. On y trouve Jeff Bezos via Bezos Expeditions, Bill Gates via Gates Frontier, Khosla Ventures, la Qatar Investment Authority et surtout In-Q-Tel qui est le bras d’investissement de la CIA qui a confirmé sa participation de 200 millions en novembre 2025. Synchron collabore désormais avec Apple pour permettre le contrôle d’iPhone et d’iPad par la pensée et avec Nvidia pour réduire la latence de l’interface via l’intelligence artificielle.

Mais il y aussi d’autres acteurs tout aussi inquiétants qui complètent cet écosystème en expansion rapide. Blackrock Neurotech, fabricant de l’Utah Array implanté chez plus de 40 patients depuis 2004, a été racheté majoritairement par Tether pour 200 millions de dollars en avril 2024. Peter Thiel y avait investi dès 2021. Precision Neuroscience, fondée par Benjamin Rapoport qui avait cofondé Neuralink avant d’en partir pour des raisons de sécurité, a levé 155 à 180 millions de dollars dont un tour de 102 millions en décembre 2024 avec la participation du family office de Stanley Druckenmiller. Son électrode Layer 7, non pénétrante, a obtenu l’autorisation FDA en mars 2025. Paradromics, basée à Austin, a réalisé son premier implant humain en mai 2025 après avoir bénéficié de 18 millions de financements directs de la DARPA et vient de recevoir un investissement de NEOM, la mégapole futuriste d’Arabie Saoudite qui souhaite y installer un centre d’excellence BCI. Kernel, fondée par Bryan Johnson avec un engagement personnel de 100 millions tirés de la vente de Braintree à PayPal a pivoté vers le non-invasif, mais il reste en retrait depuis 2020. Merge Labs, cofondée en 2025 par Sam Altman avec OpenAI comme principal investisseur, a bouclé un tour de table de 250 millions pour développer une interface ultrasonore non implantable.

Les GAFAM, quant à eux, avancent masqués. Leur stratégie relève davantage de l’infiltration silencieuse que de l’annonce officielle. Parce que les brevets, les acquisitions discrètes et les partenariats stratégiques dessinent une présence bien plus profonde que ce que les communiqués de presse laissent paraître.

Actuellement, Meta est le plus avancé et le seul à avoir franchi le cap commercial. En 2019, Facebook rachetait CTRL-labs pour un montant estimé entre 500 millions et 1 milliard de dollars. Il s’agit d’une startup qui avait auparavant attiré Google Ventures, le Alexa Fund d’Amazon et Founders Fund. Six ans plus tard, le 30 septembre 2025, Meta lance le Neural Band qui est un bracelet à 16 électrodes d’électromyographie de surface. Ce cheval de Troie est vendu 799 dollars avec les lunettes Ray-Ban de Meta. Le système détecte les signaux nerveux musculaires pour contrôler des interfaces sans contact. Pour ce faire, il a été entraîné sur les données de près de 200000 participants. Un article dans Nature de juillet 2025 en documente les fondements scientifiques.

Apple joue la carte des brevets et de l’accessibilité avec une discrétion calculée. Un premier brevet déposé en janvier 2023 décrit des écouteurs de type AirPods équipés d’électrodes EEG, EMG et EOG capables de capter l’activité cérébrale avec sélection dynamique des capteurs par apprentissage automatique. Un second brevet de mars 2024 intègre des capteurs neuronaux dans le bandeau d’un futur Apple Vision Pro. En novembre 2025, Apple publie une étude sur l’apprentissage auto-supervisé pour l’EEG à partir de données de capteurs auriculaires. Et en mai 2025, la collaboration Apple-Synchron étend le framework d’accessibilité Switch Control pour permettre le contrôle d’iPhone, d’iPad et de Vision Pro directement par la pensée.

Google Ventures a participé au tour C de Neuralink en 2021 et avait investi dans CTRL-labs avant son rachat par Meta. DeepMind, cofondé par le neuroscientifique Demis Hassabis, maintient un programme de recherche en neurosciences computationnelles qui constitue un socle stratégique pour de futures applications BCI. Microsoft détient un brevet de 2018 décrivant le contrôle d’applications par bandeau EEG intégrable au HoloLens et son groupe de recherche poursuit activement les travaux sur les BCI interactives.

Samsung développe en partenariat avec l’université Hanyang un dispositif EEG auriculaire atteignant une précision de 92,86 % dans l’identification des préférences vidéo avec une application directe au neuromarketing. Et Gabe Newell, fondateur de Valve, a cofondé avec OpenBCI le casque Galea intégrant EEG, EMG et eye-tracking dans une sangle de casque VR, déclarant publiquement que le monde réel finira par paraître car il serait censé devenir plat et terne comparé aux expériences que l’on pourra créer directement dans le cerveau des gens.

La DARPA est l’architecte historique de toute cette industrie. Bizarrement, ce fait est rarement mis en avant dans les articles de presse grand public. Pourtant, pratiquement chaque avancée majeure du secteur BCI remonte à un financement militaire américain. L’agence a lancé au moins 40 programmes de neurotechnologie en 24 ans, avec des budgets oscillant entre 50 et 100 millions de dollars chacun, pour un investissement cumulé qui dépasse le milliard de dollars depuis les années 2000. La moitié des entreprises américaines de BCI invasif sont directement ou indirectement issues de programmes DARPA.

Le programme N3, lancé en 2018 avec un budget de 104 à 125 millions de dollars, vise à développer des interfaces bidirectionnelles non chirurgicales pour des militaires valides et non pour des patients. Son objectif déclaré est de permettre à un soldat de contrôler des essaims de drones et des systèmes de cyberdéfense par la pensée. Le programme NESD, doté de 65 millions, a financé directement Paradromics et Brown University pour développer des interfaces capables d’interagir avec un million de neurones simultanément. SUBNETS, avec 70 millions sur cinq ans, a produit les premiers prototypes d’implants cérébraux en boucle fermée pour traiter le stress post-traumatique et la dépression chez les vétérans. Et le programme Silent Talk, mené conjointement avec l’armée de terre, visait explicitement la communication télépathique entre soldats par analyse des signaux neuronaux pré-vocaux.

La Chine a structuré une stratégie nationale adossée à la fusion civilo-militaire et n’en fait pas mystère. Le China Brain Project, lancé en 2016, est doté d’environ un milliard de dollars jusqu’en 2030 et cible explicitement le développement de technologies d’intelligence cerveau-machine. En décembre 2021, le Département du Commerce américain a sanctionné l’Académie des sciences médicales militaires de l’Armée populaire de libération et onze instituts affiliés pour avoir utilisé des procédés biotechnologiques à des fins militaires, y compris des armes présumées de contrôle cérébral. La doctrine militaire chinoise conceptualise désormais la domination cognitive comme un nouveau domaine de guerre. Sur le plan industriel, BrainCo a levé 287 millions de dollars en janvier 2025, le plus gros tour de table BCI jamais réalisé hors des États-Unis. Un fonds gouvernemental de 11,6 milliards de yuans pour les neurosciences a été annoncé fin 2025 à Shenzhen. La Chine compte aujourd’hui environ 170 entreprises actives dans le secteur BCI.

Israël, de son côté, a publiquement confirmé en février 2026 que sa Division de neurotechnologie du ministère de la Défense développe des interfaces permettant à un seul opérateur de contrôler plusieurs drones par signaux neuronaux en réponse directe à la doctrine d’essaims de drones des proxies iraniens.

Comme à son habitude, la Russie reste plus opaque. Mais elle n’est pas en reste car le programme Balalaika développe une interface neurale multimodale. D’ailleurs, Kommersant rapportait en 2021 l’approbation personnelle de Poutine pour un programme de recherche sur les puces cérébrales. Ce n’est ni confirmé, ni formellement démenti depuis.

La cartographie financière révèle enfin des connexions que les annonces officielles ne mettent délibérément pas en avant. La Qatar Investment Authority se distingue comme le fonds souverain le plus actif en ayant investi à la fois dans Neuralink et dans Synchron lors de leurs derniers tours de table respectifs. G42, une entité émiratie adossée à Mubadala, a participé au même tour de table pour Neuralink. L’Arabie Saoudite intervient via NEOM sur Paradromics. Et Tether, l’émetteur du stablecoin USDT, contrôle désormais majoritairement Blackrock Neurotech après avoir injecté 200 millions. Ce qui place une entreprise de cryptomonnaie à l’opacité documentée au cœur de l’industrie neurotechnologique mondiale.

In-Q-Tel, le véhicule d’investissement de la CIA qui travaille avec quinze agences, dont le FBI et la NSA, a confirmé sa position dans Synchron fin 2025. C’est le premier investissement direct documenté d’In-Q-Tel dans une entreprise BCI. Et ce signal est loin d’être anodin car il indique que la communauté du renseignement américain considère désormais les interfaces cerveau-ordinateur comme un domaine d’intérêt opérationnel, au-delà du cadre de recherche militaire déjà bien établi.

Le seul pays à avoir inscrit les neurodroits dans sa Constitution est le Chili depuis 2021. A coté de ça, L’UNESCO alerte. Le Comité international de la Croix-Rouge a publié en août 2025 une analyse questionnant la conformité des BCI militaires avec le droit international humanitaire, soulevant le risque que les combattants soient réduits à des composants de systèmes d’armes. Mais l’argent coule plus vite que les régulations ne se mettent en place. En une seule année, 2,3 milliards de dollars d’investissement privé ont irrigué le secteur. Le marché, estimé entre 2 et 3 milliards aujourd’hui, devrait atteindre 9 à 14 milliards d’ici 2033. Mais Morgan Stanley évalue le marché commercial potentiel à 400 milliards aux seuls États-Unis si toutes les applications médicales et grand public se matérialisent.

Une fois de plus, la question n’est donc plus de savoir si les interfaces cerveau-ordinateur arriveront dans nos vies. Elle est de savoir qui les contrôlera, dans quel but et si nous aurons encore notre mot à dire quand ce moment sera venu. Rien n’est moins sûr !

Comment on est en train de nous vendre le décryptage de nos cerveaux ?

C’est toujours la même histoire. Lorsqu’une technologie risque de créer du rejet, le marketing se met en action pour que ça passe en douceur. Pour les interfaces cerveau-machine, les porteurs de ce projet disent que c’est pour le bien des handicapés. C’est très bien joué ! Parce qu’à moins d’être un horrible individu, qui peut être contre le fait qu’un tétraplégique puisse retrouver de l’autonomie ? Alors on aimerait bien y croire, mais le problème c’est que les gens qui investissent des milliards dans cette technique sont très loin d’être de grands philanthropes. De ce fait, Ils n’ont donc pas de grosses sommes à engager sur un marché de niche.

Ça c’était la première phase de leur plan. La seconde consiste à habituer progressivement la population à carrément porter de la technologie sur elle. Cela passe aussi bien par les montres connectées et surtout par les lunettes connectées. D’ailleurs, à ce propos, si quelqu’un a le malheur de venir me parler avec ce genre de lunettes sur le nez, il a plutôt intérêt à courir vite parce que je ne suis vraiment pas prêt à supporter ça ! Je ne comprends même pas comment ces genres de gadgets totalement intrusifs concernant la vie privée ont pu obtenir une autorisation de commercialisation.

Mais ce n’est pas encore la phase finale. La troisième étape, celle qui est déjà en cours, consiste à faire disparaître la technologie dans des objets que l’on ne perçoit plus comme étant contre-nature. Tels que les bracelets connectés vendus comme accessoires de sport ou de suivi de santé qui sont l’exemple le plus répandu. Et désormais c’est les bandeaux de mesure des ondes cérébrales qui commencent à suivre le même chemin sous couvert d’aide à la méditation ou d’optimisation des performances cognitives. Sans oublier les écouteurs que des millions de personnes portent des heures par jour ou les vêtements “intelligents”. Et demain vont arriver les lunettes de vue connectées qui seront presque impossibles à différencier des lunettes de vue ordinaires ! À ce stade, la question du consentement devient franchement épineuse parce que la frontière entre un objet du quotidien et un dispositif de collecte neuronale passive s’efface complètement. Et bien sûr, personne ne signe un formulaire avant de mettre ses AirPods. C’est précisément le but ultime qui est recherché.

Les interfaces cerveau-machine représentent un danger sans précédent pour l’humanité entière

Imagine un peu les dégâts lorsque cette technologie sera totalement opérationnelle. Dans des dictatures comme celle de ces malades mentaux de Poutine ou Kim Jong-Un ce sera un véritable carnage ! Avec ce type d’individus totalement paranoïaques au pouvoir, à la moindre suspicion de déloyauté il leur suffira de mettre un bandeau sur la tête de leurs subordonnés pour savoir ce qu’ils pensent vraiment. Et dans une théocratie, beaucoup de personnes risqueraient de finir avec un bandeau sur la tête pour vérifier s’ils croient vraiment en Dieu. Dans le cas contraire ils finiraient en rééducation, voire même assassinés pour apostasie.

Au niveau des big techs cela fait des années qu’elles n’économisent aucun moyen pour percer tous les secrets de notre vie privée. Avec l’accès aux données neurales, on passerait à une dimension totalement inédite. Ce ne sont plus tes clics, tes achats ou tes déplacements qu’elles analyseraient, mais carrément tes émotions brutes, tes intentions avant même que tu les formules, tes réactions inconscientes face à une publicité, un candidat politique ou une information. Cambridge Analytica, dont le scandale avait pourtant provoqué un tollé mondial, n’était qu’un brouillon comparé à ce que permettrait un accès même partiel à tes signaux cérébraux. Et contrairement à un mot de passe ou à un numéro de carte bancaire, tu ne peux pas changer ton cerveau quand il a été compromis.

Dans le monde du travail, les dérives potentielles sont tout aussi vertigineuses. Des employeurs pourraient exiger le port de dispositifs de mesure neuronale pour évaluer la concentration, la loyauté ou le niveau de stress de leurs salariés. Certaines compagnies d’assurance pourraient conditionner leurs tarifs à des profils neuraux. Des systèmes de contrôle aux frontières pourraient intégrer la lecture d’ondes cérébrales comme outil de détection de menaces, aux côtés de la reconnaissance faciale qui est déjà déployée dans des dizaines de pays. Et dans les démocraties qui se fissurent, celles où l’état de droit recule à vitesse accélérée, les partis au pouvoir auraient entre les mains l’outil de contrôle politique le plus redoutable jamais conçu par l’être humain.

Au final, la question qui doit se poser est très simple, même si la réponse l’est beaucoup moins. Est-ce que tous les risques ont vraiment été pris en compte ? Est-ce que les gouvernements, les régulateurs, les institutions internationales ont pris la pleine mesure de ce qui est en train de se construire sous leurs yeux ? La réponse est non ! Et il y a une autre question qui mérite d’être posée sans détour, une question que les grandes conférences sur l’éthique de l’intelligence artificielle esquivent soigneusement. Est-ce un hasard si les principaux financeurs de cette technologie sont soit des multinationales technologiques dont le modèle économique repose intégralement sur l’exploitation des données personnelles, soit des fonds souverains liés à des théocraties du Golfe où les droits fondamentaux s’arrêtent aux portes du palais royal, soit des régimes autoritaires qui ont fait de la surveillance de masse un instrument de gouvernement ? Est-ce vraiment un hasard si ceux qui mettent les milliards sur la table sont précisément ceux qui ont le plus à gagner à savoir ce que les gens pensent vraiment, avant même qu’ils ouvrent la bouche ? La réponse appartient à chacun. Mais l’histoire des technologies de surveillance nous a appris une chose avec une constance absolue : Elles ne restent jamais entre les mains de ceux qui prétendent les contrôler et elles ne servent jamais uniquement les buts qui ont été annoncés au départ.

A partir de quel moment une pensée devient-elle un crime ?

Il y a une question que personne ne se pose encore vraiment. Pourtant, tout le monde devrait se la poser dès maintenant avant qu’il ne soit trop tard. À partir de quel moment une pensée devient-elle un crime ? La question peut sembler philosophique, voire même presque abstraite. Mais elle ne l’est pas du tout. Parce que dès lors qu’une technologie sera capable de lire les signaux cérébraux et d’en interpréter le contenu émotionnel ou potentiellement intentionnel, la tentation de l’utiliser comme outil judiciaire sera irrésistible pour certains. Et cette tentation existe déjà parce que des juristes, des criminologues et des responsables policiers se frottent déjà publiquement les mains à l’idée que les interfaces cerveau-ordinateur pourraient révolutionner le travail de la justice. Mais révolutionner dans quel sens exactement ?

Prenons un exemple que tout le monde comprendra parce que tout le monde est concerné. Les fantasmes sexuels. Sans exception, absolument tout le monde en a. Et la grande majorité des gens ne les réalise jamais intégralement. Ce qui se passe dans la tête d’un être humain n’est pas un programme d’action. C’est un espace mental dans lequel l’imaginaire, le désir, la peur, la colère et la transgression coexistent sans jamais nécessairement franchir le seuil du passage à l’acte. Partant de ce principe, est-ce qu’une pensée sexuelle sur quelqu’un qui n’a pas consenti à être l’objet de cette pensée constitue une agression ? Si la réponse est non, et elle l’est dans tous les systèmes juridiques qui fonctionnent encore sur la base d’actes et non d’intentions, alors pourquoi cette même pensée captée par un dispositif neural deviendrait-elle soudainement une preuve recevable devant un tribunal ?

Et si on pousse le raisonnement jusque dans la sphère intime, on arrive très vite à des situations qui feraient sourire si elles n’étaient pas si révélatrices. Imagine la scène : Chéri(e), est-ce que tu m’as trompé ? Mets ton interface, je veux savoir ! Et là, catastrophe ! Il s’avère que la personne n’a pas trompé son partenaire mais qu’elle a fantasmé sur des collègues, des voisins, des inconnus croisés dans la rue. Ce que font absolument tous les êtres humains depuis que l’espèce existe. Bilan de l’opération : Je demande le divorce ! Le tribunal des pensées sera donc ouvert à tout le monde, et les audiences pourront commencer. On peut toujours en rire pour le moment, pourtant ce scénario grotesque repose exactement sur la même logique que celle que certains veulent appliquer dans les prétoires. La confusion entre la pensée et l’acte, entre le désir et sa réalisation, entre ce qui traverse un cerveau et ce qu’une personne choisit réellement de faire.

Le même raisonnement s’applique à des situations bien plus banales. Qui n’a jamais pensé un lundi matin, coincé dans les transports ou face à un supérieur hiérarchique insupportable, qu’il avait envie de l’étrangler ? Cette pensée traverse des millions de cerveaux chaque jour. Peut-être même des milliards. Mais elle ne se transforme en acte que dans une très infime minorité de cas. Des cas qui relèvent généralement d’un contexte clinique très particulier. Il suffit donc qu’un dispositif neural capte ce signal au mauvais moment, dans un contexte judiciaire ou sécuritaire pour qu’il devienne quoi ? Une preuve ? Un indicateur de dangerosité ? Un motif de mise en surveillance renforcée ?

Le problème fondamental c’est que le cerveau humain ne fonctionne pas comme un tribunal. Il produit des pensées contradictoires, des pulsions passagères, des scénarios imaginaires que la conscience traite, filtre et dépasse en permanence. Donc, lire une pensée à un instant T sans accéder à l’intégralité du processus mental qui la précède et qui la suit c’est comme juger un roman sur une seule phrase arrachée à son contexte. Les risques d’erreur judiciaire seraient colossaux. Et les risques de manipulation le seraient tout autant. Parce qu’un signal neural peut être mal interprété, parce que les algorithmes qui les décodent sont entraînés sur des données biaisées et parce que l’histoire de la médecine légale est jonchée de certitudes scientifiques qui se sont révélées fausses des décennies plus tard.

On a déjà un aperçu de ce que cela donne en pratique. En Inde, le système BEOS est utilisé depuis des années dans des centaines d’enquêtes policières et une condamnation pour meurtre a été prononcée en 2008 en partie sur la base de ses résultats. La Cour suprême indienne a certes posé des limites, mais le dispositif continue d’être exporté dans une douzaine de pays. C’est le laboratoire grandeur nature de ce qui nous attend à plus grande échelle si personne n’impose de sérieux garde-fous.

Car c’est bien là que réside le danger le plus immédiat. Pas dans la science-fiction d’un régime totalitaire qui lirait les pensées de toute une population en temps réel parce que c’est un scénario qui reste pour l’instant hors de portée technique. Mais dans la normalisation progressive d’un usage judiciaire et sécuritaire de données neurales partielles, imprécises et hautement manipulables qui seront présentées à des jurés et à des juges comme des preuves scientifiques objectives. Et comme le mot “scientifique” a une capacité redoutable à clore les débats avant même qu’ils ne commencent, c’est exactement sur cette capacité que comptent ceux qui militent pour l’introduction des neurotechnologies dans les prétoires.

Depuis quand les big techs sont-elles obligées de te communiquer leur agenda ?

Il y a une mécanique que les grandes entreprises technologiques maîtrisent parfaitement, parce qu’elles l’ont déjà utilisée pour construire l’intelligence artificielle telle qu’on la connaît aujourd’hui. Elle consiste à faire porter les coûts les plus lourds et les risques les plus élevés par d’autres tout en récupérant l’essentiel de la valeur produite. Et pour les interfaces cerveau-ordinateur, cette mécanique est déjà à l’œuvre !

La partie visible est celle dont on parle dans les médias. Des tétraplégiques, des personnes atteintes de SLA ou d’autres pathologies lourdes, qui acceptent de se faire ouvrir la boîte crânienne pour recevoir un implant expérimental. Ces patients sont prêts à tout. Et on les comprend à 100% parce que la technologie leur offre une perspective de retrouver une forme d’autonomie qu’ils pensaient avoir perdue pour toujours. Personne ne remet en cause leur courage ni leur choix. Mais il faut appeler les choses par leur nom : Ces implantations permettent aux entreprises qui les financent d’obtenir les données neurales les plus précises qui existent. Celles que seules des électrodes posées directement sur le cortex peuvent produire.

Chaque patient implanté est aussi, qu’il le sache ou non, un contributeur involontaire à la construction d’un codex neural. Plus explicitement, une sorte de dictionnaire de référence qui fait correspondre des signaux cérébraux spécifiques à des intentions, des émotions et des commandes motrices. Plus ce codex est riche et précis, plus les algorithmes de décodage qui s’entraînent dessus deviennent performants. Et plus ils deviennent performants, moins il sera nécessaire d’avoir recours à des implants invasifs pour obtenir des résultats exploitables avec des dispositifs non invasifs grand public.

Mais construire ces algorithmes de décodage représente un travail colossal d’annotation et d’entraînement des données. Un travail répétitif et fastidieux qui ne nécessite pas de compétences très poussées mais qui exige un volume de main d’œuvre considérable. Et c’est là qu’intervient la deuxième mécanique, celle que les grandes plateformes d’intelligence artificielle ont déjà rodée avant eux. Quand Meta, Google ou OpenAI avaient besoin de faire annoter des millions d’images, de textes ou de vidéos pour entraîner leurs modèles, ils ont eu recours à des travailleurs du clic en Afrique, en Asie du Sud-Est ou en Amérique latine. Ils étaient rémunérés quelques centimes par tâche via des plateformes comme Mechanical Turk ou Remotasks.

Des enquêtes journalistiques ont documenté ces pratiques, révélant des conditions de travail épuisantes et des rémunérations misérables pour des tâches mentalement éprouvantes, comme l’annotation de contenus violents ou pornographiques. Il n’y a aucune raison de penser que l’entraînement des IA spécialisées dans le décodage cérébral échappera à cette logique. Au contraire, le caractère sensible des données neurales rend encore plus probable le fait que ce travail se fasse loin des regards, dans des pays où la réglementation sur la protection des données est inexistante ou non appliquée.

Et c’est précisément parce que tout cela est sensible que cela ne se crie pas sur les toits. Les entreprises qui travaillent sur le décodage neural en sous-main n’ont aucun intérêt à détailler publiquement leurs méthodes d’entraînement, leurs sources de données ou leurs partenariats avec des prestataires offshore. Ce que le public voit, c’est Neuralink qui annonce qu’un tétraplégique joue aux échecs par la pensée, Meta qui présente son bracelet neural comme un gadget d’accessibilité, Apple qui dépose des brevets formulés dans le langage rassurant de la santé et du bien-être. Ce que le public ne voit pas, c’est l’infrastructure invisible qui se construit en parallèle, les bases de données neurales qui s’accumulent, les algorithmes qui s’affinent et les brevets techniques qui se déposent discrètement dans des domaines que personne ne surveille encore vraiment.

Ce que l’on observe aujourd’hui n’est donc que la partie émergée de l’iceberg. Les implants expérimentaux, les bracelets connectés, les brevets d’AirPods à électrodes EEG… tout cela n’est que la surface visible d’un processus d’accumulation de données et de construction technologique qui se déroule à une tout autre échelle. Et le jour où l’iceberg émergera complètement, quand les dispositifs de lecture neuronale seront suffisamment précis, suffisamment miniaturisés et suffisamment banalisés pour s’intégrer dans des objets du quotidien sans que personne n’y prête attention, il sera probablement trop tard pour se poser les questions que l’on aurait dû se poser bien plus tôt. C’est exactement ce qui s’est passé avec les réseaux sociaux. C’est exactement ce qui s’est passé avec les smartphones. Et il n’y a aucune raison sérieuse de penser que l’histoire ne va pas se répéter une troisième fois.

Conclusion : Agir dès maintenant avant qu’il ne soit trop tard

Et maintenant, on fait quoi ? Comme pour le reste ? Dans le meilleur des cas tu mets un like sur cet article. Au mieux tu le partages. Et puis on attend… on attend encore… Et pendant ce temps là les interfaces neurales s’installent sur le marché. Tranquillement, comme pour l’IA. Sans aucune réflexion citoyenne et donc sans aucune éthique. Au début on préfère prendre ça à la rigolade parce que c’est moyennement au point. Et 3 ans plus tard, plus personne ne rigole parce que c’est trop tard. Alors c’est maintenant qu’il faut mettre un gros panneau STOP sur cette technologie. Parce que je suis d’accord, en matière d’asservissement technologique toutes les lignes rouges sont franchies depuis longtemps. Mais celle-ci, celle qui consiste à décoder nos pensées, c’est la frontière ultime vers un point de non retour qui va nous conduire tout droit vers le techno-fascisme absolu.

Donc tu fais comme tu veux. Tu peux dire que tout ça c’est du délire de science-fiction. Mais documente toi quand même au passage, on t’a donné tous les éléments pour ça. Ou alors tu décides qu’il faut poser des limites de toute urgence. Dans ce cas, le point de départ c’est de faire circuler l’information le plus largement possible sur ce sujet. Par exemple, en partageant cet article avec une réelle motivation pour ouvrir un débat plus que nécessaire. Tu peux aussi republier, imprimer… Et bien sûr, prendre conscience que toi aussi tu es un média et t’emparer de ce sujet pour participer à ce que tout le monde puisse réaliser à quel type de danger nous seront confrontés dans un futur très proche. De notre coté, on ne va pas économiser nos forces pour mettre en lumière tous les méfaits de ceux qui jouent aux apprentis sorcier. Mais on ne se fait pas de grandes illusions car c’est comme si tout le monde était devenu totalement blasé concernant l’extrême dangerosité des big techs. En attendant, à très bientôt pour de nouvelles aventures.

Partager sur MastodonPartager sur LemmyPartager sur BlueskyPartager sur Hacker NewsPartager sur TelegramPartager par emailCopier le lien