La lectura de tus pensamientos: ¿Y si el sueño de los tiranos se convirtiera en realidad?

Cuando nos preocupamos por los peligros tecnológicos del futuro, solemos pensar en la IA. Lo cual es perfectamente comprensible dado que se trata de un concepto que está en muy malas manos y que está prácticamente fuera de control. También podemos pensar en la robótica, que ha experimentado avances espectaculares en los últimos años. Pero siento no poder animarte más, porque creemos que hay algo aún peor con las distintas técnicas en desarrollo capaces de leer tus pensamientos. Todos tus pensamientos, incluso los más íntimos.
Por favor, no tomes este tema a la ligera, porque la cuestión ya no es si funciona, sino simplemente cuánto tiempo falta. Personalmente, no sé si todavía podemos detener esta locura, porque no pesamos gran cosa en la balanza frente a los miles de millones de dólares que se invierten en la decodificación neural. Pero al menos podemos empezar por informarnos sobre los entresijos de esta técnica para poder luchar eficazmente por imponerle, como mínimo, una regulación muy estricta. Empecemos entonces con un pequeño panorama. Vas a ver que es literalmente vertiginoso.
Entender la decodificación neural mediante una interfaz cerebro-ordenador
Tu cerebro nunca deja de funcionar. Cada pensamiento, cada emoción, cada intención produce una actividad eléctrica que es medible. A eso se le llama ondas cerebrales. Partiendo de este principio, la tecnología BCI (Brain-Computer Interface) permite captar estas señales para traducirlas en datos utilizables. Y aquí es donde entra la IA. Porque sin algoritmos de aprendizaje automático capaces de procesar miles de millones de microseñales en tiempo real, estas ondas no son más que un ruido incomprensible. Es por tanto la combinación entre sensores cada vez más sensibles y una IA cada vez más potente lo que va a llevar esta tecnología del ámbito médico al de la vigilancia.
Los implantes cerebrales para cuando la precisión exige una intervención quirúrgica
El principio se basa en electrodos colocados directamente sobre o dentro del córtex. Esto permite obtener una señal limpia y una precisión máxima. Es la técnica que han elegido Neuralink y BrainGate, y es la dirección que toma la investigación militar estadounidense a través de la DARPA. Por ahora está limitada a casos médicos extremos, pero las patentes registradas no hablan solo de medicina. ¡Ni mucho menos! La ventaja para quien quiera espiar tu cerebro es que la señal es clara, interpretable y aprovechable. En cambio, el gran inconveniente es que requiere una intervención quirúrgica. Lo cual no es muy práctico para vigilar a una población entera. A menos que se haga obligatoria la implantación de electrodos en una parte de la población, o incluso en su totalidad.
La electroencefalografía es el Santo Grial de los tecnofascistas
Esta vez, nada de cirugía. Solo un casco o una diadema que presionan electrodos contra el cuero cabelludo. Es suficiente para que el EEG capte la actividad eléctrica cerebral a través de la caja craneal. Por ahora es mucho menos preciso que un implante, pero avanza muy rápido. Y sobre todo, puede desplegarse de forma muy rápida y a gran escala. Cabe señalar que el brain fingerprinting ya se utiliza en procedimientos judiciales en India. Y en 2023, investigadores de la Universidad de Texas consiguieron reconstruir frases enteras a partir de una señal EEG. No son especulaciones, sino investigaciones que son objeto de publicaciones científicas y de aplicaciones concretas desde ya.
¿Quién impulsa las interfaces cerebro-máquina y con qué dinero?
El mercado mundial de las interfaces cerebro-ordenador ha superado un umbral impresionante. En dos años, las inversiones de capital riesgo en el sector se multiplicaron por 3,5, pasando de 662 millones de dólares en 2022 a 2.300 millones en 2024. Cinco de las mayores fortunas del mundo han comprometido fondos personales. Como era de esperar, el brazo financiero de la CIA también está en el lote. Y desde septiembre de 2025, Meta ya comercializa para el gran público la primera pulsera neural.
Se trata del primer intento concreto por parte de una Big Tech. Detrás de esta aceleración hay también una red de actores oficiales, gigantes tecnológicos que operan entre bambalinas, fondos soberanos del Golfo, agencias militares y multimillonarios ideológicamente motivados. Te presentamos quién impulsa esta tecnología, cómo y con qué medios financieros:
Neuralink domina el sector por su capitalización y su visibilidad. Fundada en 2016 por Elon Musk, la empresa ha recaudado aproximadamente 1.300 millones de dólares en seis rondas de financiación, con una valoración que alcanzó los 9.000 millones en junio de 2025. Musk inyectó personalmente 100 millones en la financiación inicial. La última ronda, cerrada en mayo de 2025 por 650 millones, atrajo a ARK Invest, Sequoia Capital, el Founders Fund de Peter Thiel, pero también a G42, vinculado al fondo soberano de Abu Dabi, y a la Qatar Investment Authority. A finales de 2025, doce pacientes llevan el implante N1 Link en cuatro países. El primero de ellos, Noland Arbaugh, que es tetrapléjico, utiliza su interfaz unas diez horas al día para navegar por internet y jugar al ajedrez.
Synchron ocupa el segundo lugar estratégico con 345 millones de dólares recaudados y una valoración cercana a los mil millones. Su enfoque es diferente al de Neuralink porque el Stentrode se despliega a través de la vena yugular sin necesidad de abrir el cráneo. Este perfil menos invasivo atrae a un abanico de inversores especialmente revelador. Encontramos a Jeff Bezos a través de Bezos Expeditions, a Bill Gates a través de Gates Frontier, a Khosla Ventures, a la Qatar Investment Authority y sobre todo a In-Q-Tel, que es el brazo de inversión de la CIA y que confirmó su participación de 200 millones en noviembre de 2025. Synchron colabora ahora con Apple para permitir el control del iPhone y el iPad con el pensamiento, y con Nvidia para reducir la latencia de la interfaz mediante inteligencia artificial.
Pero hay otros actores igual de inquietantes que completan este ecosistema en rápida expansión. Blackrock Neurotech, fabricante del Utah Array implantado en más de 40 pacientes desde 2004, fue adquirida mayoritariamente por Tether por 200 millones de dólares en abril de 2024. Peter Thiel había invertido en ella desde 2021. Precision Neuroscience, fundada por Benjamin Rapoport, que había cofundado Neuralink antes de abandonarla por razones de seguridad, ha recaudado entre 155 y 180 millones de dólares, incluida una ronda de 102 millones en diciembre de 2024 con la participación del family office de Stanley Druckenmiller. Su electrodo Layer 7, no penetrante, obtuvo la autorización de la FDA en marzo de 2025. Paradromics, con sede en Austin, realizó su primer implante humano en mayo de 2025 tras haberse beneficiado de 18 millones de financiación directa de la DARPA y acaba de recibir una inversión de NEOM, la megápolis futurista de Arabia Saudí que quiere instalar allí un centro de excelencia BCI. Kernel, fundada por Bryan Johnson con un compromiso personal de 100 millones procedentes de la venta de Braintree a PayPal, ha pivotado hacia lo no invasivo, aunque permanece en un segundo plano desde 2020. Merge Labs, cofundada en 2025 por Sam Altman con OpenAI como principal inversor, ha cerrado una ronda de 250 millones para desarrollar una interfaz ultrasónica no implantable.
Las GAFAM, por su parte, actúan en la sombra. Su estrategia se parece más a una infiltración silenciosa que a un anuncio oficial. Porque las patentes, las adquisiciones discretas y las alianzas estratégicas dibujan una presencia mucho más profunda de lo que los comunicados de prensa dejan entrever.
Actualmente, Meta es la más avanzada y la única que ha dado el paso comercial. En 2019, Facebook compró CTRL-labs por un importe estimado entre 500 millones y 1.000 millones de dólares. Se trata de una startup que anteriormente había atraído a Google Ventures, al Alexa Fund de Amazon y al Founders Fund. Seis años después, el 30 de septiembre de 2025, Meta lanza el Neural Band, una pulsera con 16 electrodos de electromiografía de superficie. Este caballo de Troya se vende a 799 dólares junto con las gafas Ray-Ban de Meta. El sistema detecta las señales nerviosas musculares para controlar interfaces sin contacto. Para ello, fue entrenado con datos de casi 200.000 participantes. Un artículo en Nature de julio de 2025 documenta sus fundamentos científicos.
Apple juega la baza de las patentes y la accesibilidad con una discreción calculada. Una primera patente registrada en enero de 2023 describe unos auriculares tipo AirPods equipados con electrodos EEG, EMG y EOG capaces de captar la actividad cerebral con selección dinámica de sensores por aprendizaje automático. Una segunda patente de marzo de 2024 integra sensores neurales en la diadema de un futuro Apple Vision Pro. En noviembre de 2025, Apple publica un estudio sobre el aprendizaje autosupervisado para EEG a partir de datos de sensores auriculares. Y en mayo de 2025, la colaboración Apple-Synchron extiende el framework de accesibilidad Switch Control para permitir el control del iPhone, el iPad y el Vision Pro directamente con el pensamiento.
Google Ventures participó en la ronda C de Neuralink en 2021 y había invertido en CTRL-labs antes de su compra por Meta. DeepMind, cofundado por el neurocientífico Demis Hassabis, mantiene un programa de investigación en neurociencias computacionales que constituye una base estratégica para futuras aplicaciones BCI. Microsoft posee una patente de 2018 que describe el control de aplicaciones mediante una diadema EEG integrable en el HoloLens, y su grupo de investigación prosigue activamente los trabajos sobre BCI interactivas.
Samsung desarrolla en colaboración con la universidad Hanyang un dispositivo EEG auricular que alcanza una precisión del 92,86 % en la identificación de preferencias de vídeo, con una aplicación directa al neuromarketing. Y Gabe Newell, fundador de Valve, cofundó junto a OpenBCI el casco Galea, que integra EEG, EMG y eye-tracking en una correa de casco de realidad virtual, declarando públicamente que el mundo real acabará pareciendo plano y aburrido comparado con las experiencias que se podrán crear directamente en el cerebro de la gente.
La DARPA es la arquitecta histórica de toda esta industria. Curiosamente, este hecho raramente se menciona en los artículos de prensa para el gran público. Sin embargo, prácticamente cada avance importante del sector BCI se remonta a una financiación militar estadounidense. La agencia ha puesto en marcha al menos 40 programas de neurotecnología en 24 años, con presupuestos que oscilan entre 50 y 100 millones de dólares cada uno, para una inversión acumulada que supera los mil millones de dólares desde los años 2000. La mitad de las empresas estadounidenses de BCI invasivo proceden directa o indirectamente de programas de la DARPA.
El programa N3, lanzado en 2018 con un presupuesto de entre 104 y 125 millones de dólares, tiene como objetivo desarrollar interfaces bidireccionales no quirúrgicas para soldados en plenas facultades y no para pacientes. Su objetivo declarado es permitir que un soldado controle enjambres de drones y sistemas de ciberdefensa con el pensamiento. El programa NESD, dotado de 65 millones, financió directamente a Paradromics y a la Universidad de Brown para desarrollar interfaces capaces de interactuar con un millón de neuronas simultáneamente. SUBNETS, con 70 millones a lo largo de cinco años, produjo los primeros prototipos de implantes cerebrales de bucle cerrado para tratar el estrés postraumático y la depresión en veteranos. Y el programa Silent Talk, llevado a cabo conjuntamente con el ejército de tierra, apuntaba explícitamente a la comunicación telepática entre soldados mediante el análisis de señales neurales pre-vocales.
China ha estructurado una estrategia nacional apoyada en la fusión civil-militar y no lo oculta en absoluto. El China Brain Project, lanzado en 2016, cuenta con aproximadamente mil millones de dólares hasta 2030 y apunta explícitamente al desarrollo de tecnologías de inteligencia cerebro-máquina. En diciembre de 2021, el Departamento de Comercio estadounidense sancionó a la Academia de Ciencias Médicas Militares del Ejército Popular de Liberación y a once institutos afiliados por utilizar procedimientos biotecnológicos con fines militares, incluidas presuntas armas de control cerebral. La doctrina militar china conceptualiza ahora la dominación cognitiva como un nuevo dominio de guerra. En el plano industrial, BrainCo recaudó 287 millones de dólares en enero de 2025, la mayor ronda de financiación BCI jamás realizada fuera de Estados Unidos. A finales de 2025 se anunció en Shenzhen un fondo gubernamental de 11.600 millones de yuanes para las neurociencias. China cuenta actualmente con unas 170 empresas activas en el sector BCI.
Israel, por su parte, confirmó públicamente en febrero de 2026 que su División de Neurotecnología del Ministerio de Defensa está desarrollando interfaces que permiten a un solo operador controlar varios drones mediante señales neurales, en respuesta directa a la doctrina de enjambres de drones de los proxies iraníes.
Como de costumbre, Rusia se mantiene más opaca. Pero no se queda atrás, ya que el programa Balalaika está desarrollando una interfaz neural multimodal. De hecho, Kommersant informó en 2021 de la aprobación personal de Putin para un programa de investigación sobre chips cerebrales. Algo que no ha sido confirmado ni desmentido desde entonces.
El mapa financiero revela por último conexiones que los anuncios oficiales deliberadamente no destacan. La Qatar Investment Authority se distingue como el fondo soberano más activo, al haber invertido tanto en Neuralink como en Synchron en sus respectivas últimas rondas de financiación. G42, una entidad emiratí respaldada por Mubadala, participó en la misma ronda de Neuralink. Arabia Saudí interviene a través de NEOM en Paradromics. Y Tether, el emisor del stablecoin USDT, controla ya mayoritariamente Blackrock Neurotech tras inyectar 200 millones. Lo que sitúa a una empresa de criptomonedas de opacidad documentada en el corazón de la industria neurotecnológica mundial.
In-Q-Tel, el vehículo de inversión de la CIA que trabaja con quince agencias, incluidas el FBI y la NSA, confirmó su posición en Synchron a finales de 2025. Es la primera inversión directa documentada de In-Q-Tel en una empresa BCI. Y esta señal está lejos de ser anodina, porque indica que la comunidad de inteligencia estadounidense considera ahora las interfaces cerebro-ordenador como un ámbito de interés operacional, más allá del marco de investigación militar ya bien establecido.
El único país que ha inscrito los neuroderechos en su Constitución es Chile, desde 2021. Paralelamente, la UNESCO alerta. El Comité Internacional de la Cruz Roja publicó en agosto de 2025 un análisis que cuestiona la conformidad de los BCI militares con el derecho internacional humanitario, señalando el riesgo de que los combatientes queden reducidos a componentes de sistemas de armas. Pero el dinero fluye más rápido de lo que la regulación tarda en ponerse en marcha. En un solo año, 2.300 millones de dólares de inversión privada irrigaron el sector. El mercado, estimado entre 2.000 y 3.000 millones hoy, debería alcanzar entre 9.000 y 14.000 millones antes de 2033. Pero Morgan Stanley evalúa el mercado comercial potencial en 400.000 millones de dólares solo en Estados Unidos si todas las aplicaciones médicas y de gran consumo se materializan.
Una vez más, la cuestión ya no es si las interfaces cerebro-ordenador llegarán a nuestras vidas. Es saber quién las controlará, con qué objetivo y si aún tendremos algo que decir cuando llegue ese momento. ¡Todo está por ver!
¿Cómo nos están vendiendo el descifrado de nuestros cerebros?
Siempre es la misma historia. Cuando una tecnología corre el riesgo de generar rechazo, el marketing entra en acción para que todo pase con suavidad. Con las interfaces cerebro-máquina, los promotores de este proyecto dicen que es por el bien de las personas con discapacidad. ¡Está muy bien jugado! Porque a no ser que seas una persona horrible, ¿quién puede estar en contra de que un tetrapléjico recupere su autonomía? Nos gustaría creerlo, pero el problema es que las personas que invierten miles de millones en esta técnica están muy lejos de ser grandes filántropos. Por eso no tienen grandes sumas que comprometer en un mercado de nicho.
Esa era la primera fase de su plan. La segunda consiste en habituar progresivamente a la población a llevar encima tecnología. Esto pasa tanto por los relojes conectados como, sobre todo, por las gafas conectadas. A propósito de esto, si alguien tiene la mala idea de venir a hablarme con ese tipo de gafas en la nariz, más le vale salir corriendo, porque no estoy en absoluto dispuesto a tolerarlo! No entiendo siquiera cómo esos artilugios completamente invasivos en materia de privacidad han podido obtener autorización de comercialización.
Pero tampoco es aún la fase final. La tercera etapa, que ya está en marcha, consiste en hacer desaparecer la tecnología dentro de objetos que ya no percibimos como algo antinatural. Como las pulseras conectadas vendidas como accesorios deportivos o de seguimiento de salud, que son el ejemplo más extendido. Y ahora son las diademas de medición de ondas cerebrales las que empiezan a seguir el mismo camino, bajo el pretexto de ayudar a la meditación o de optimizar el rendimiento cognitivo. Sin olvidar los auriculares que millones de personas llevan horas al día, ni la ropa “inteligente”. Y mañana llegarán las gafas graduadas conectadas, que serán casi imposibles de distinguir de las gafas normales! A partir de ese punto, la cuestión del consentimiento se vuelve francamente espinosa, porque la frontera entre un objeto cotidiano y un dispositivo de recopilación neural pasiva desaparece por completo. Y por supuesto, nadie firma un formulario antes de ponerse los AirPods. Ese es precisamente el objetivo final que se persigue.
Las interfaces cerebro-máquina representan un peligro sin precedentes para toda la humanidad
Imagínate un poco los estragos cuando esta tecnología sea totalmente operativa. En dictaduras como la de esos enfermos mentales de Putin o Kim Jong-Un será una auténtica masacre! Con ese tipo de individuos completamente paranoicos en el poder, a la mínima sospecha de deslealtad les bastará con ponerle una diadema en la cabeza a sus subordinados para saber lo que piensan de verdad. Y en una teocracia, mucha gente se arriesgaría a acabar con una diadema en la cabeza para comprobar si de verdad creen en Dios. En caso contrario, acabarían en un centro de reeducación, o incluso asesinados por apostasía.
En cuanto a las big techs, llevan años sin escatimar medios para descubrir todos los secretos de nuestra vida privada. Con el acceso a los datos neurales, pasaríamos a una dimensión completamente inédita. Ya no serían tus clics, tus compras o tus desplazamientos lo que analizarían, sino directamente tus emociones en bruto, tus intenciones antes de que las formules, tus reacciones inconscientes ante un anuncio, un candidato político o una información. Cambridge Analytica, cuyo escándalo provocó un clamor mundial, no era más que un borrador comparado con lo que permitiría incluso un acceso parcial a tus señales cerebrales. Y a diferencia de una contraseña o de un número de tarjeta bancaria, no puedes cambiar tu cerebro cuando ha sido comprometido.
En el mundo laboral, las derivas potenciales son igual de vertiginosas. Los empleadores podrían exigir el uso de dispositivos de medición neural para evaluar la concentración, la lealtad o el nivel de estrés de sus empleados. Algunas compañías de seguros podrían condicionar sus tarifas a perfiles neurales. Los sistemas de control en fronteras podrían integrar la lectura de ondas cerebrales como herramienta de detección de amenazas, junto al reconocimiento facial que ya está desplegado en decenas de países. Y en las democracias que se agrietan, aquellas donde el estado de derecho retrocede a velocidad acelerada, los partidos en el poder tendrían entre manos el instrumento de control político más formidable jamás concebido por el ser humano.
En definitiva, la pregunta que hay que plantearse es muy sencilla, aunque la respuesta lo sea mucho menos. ¿Se han tenido en cuenta realmente todos los riesgos? ¿Han tomado los gobiernos, los reguladores y las instituciones internacionales plena conciencia de lo que se está construyendo ante sus ojos? ¡La respuesta es no! Y hay otra pregunta que merece plantearse sin rodeos, una pregunta que las grandes conferencias sobre ética de la inteligencia artificial esquivan cuidadosamente. ¿Es casualidad que los principales financiadores de esta tecnología sean bien multinacionales tecnológicas cuyo modelo de negocio se basa íntegramente en la explotación de los datos personales, bien fondos soberanos vinculados a teocracias del Golfo donde los derechos fundamentales se detienen a las puertas del palacio real, bien regímenes autoritarios que han hecho de la vigilancia masiva un instrumento de gobierno? ¿Es realmente una casualidad que quienes ponen los miles de millones sobre la mesa sean precisamente quienes más tienen que ganar sabiendo lo que la gente piensa de verdad, antes incluso de que abra la boca? La respuesta le corresponde a cada uno. Pero la historia de las tecnologías de vigilancia nos ha enseñado algo con una constancia absoluta: nunca permanecen en manos de quienes afirman controlarlas, y nunca sirven únicamente a los fines que se anunciaron al principio.
¿A partir de qué momento un pensamiento se convierte en un delito?
Hay una pregunta que nadie se plantea todavía de verdad. Sin embargo, todo el mundo debería hacérsela ahora, antes de que sea demasiado tarde. ¿A partir de qué momento un pensamiento se convierte en un delito? La pregunta puede parecer filosófica, casi abstracta. Pero no lo es en absoluto. Porque en cuanto una tecnología sea capaz de leer señales cerebrales e interpretar su contenido emocional o potencialmente intencional, la tentación de utilizarla como herramienta judicial resultará irresistible para algunos. Y esa tentación ya existe, porque juristas, criminólogos y responsables policiales se frotan ya públicamente las manos ante la idea de que las interfaces cerebro-ordenador podrían revolucionar el trabajo de la justicia. Pero revolucionar, ¿en qué sentido exactamente?
Pongamos un ejemplo que todo el mundo entenderá, porque a todo el mundo le concierne. Las fantasías sexuales. Sin excepción, absolutamente todo el mundo las tiene. Y la gran mayoría de las personas nunca las lleva a cabo por completo. Lo que ocurre en la cabeza de un ser humano no es un plan de acción. Es un espacio mental en el que la imaginación, el deseo, el miedo, la rabia y la transgresión conviven sin que ello implique necesariamente cruzar el umbral del acto. Partiendo de esto, ¿un pensamiento sexual sobre alguien que no ha consentido ser objeto de ese pensamiento constituye una agresión? Si la respuesta es no, y lo es en todos los sistemas jurídicos que aún funcionan sobre la base de actos y no de intenciones, ¿por qué ese mismo pensamiento captado por un dispositivo neural se convertiría de repente en una prueba admisible ante un tribunal?
Y si llevamos el razonamiento hasta la esfera íntima, llegamos muy rápido a situaciones que harían gracia si no fueran tan reveladoras. Imagínate la escena: Cariño, ¿me has puesto los cuernos? ¡Ponte la interfaz, quiero saberlo! Y ahí, catástrofe. Resulta que la persona no ha engañado a su pareja, pero sí ha fantaseado con colegas, vecinos, desconocidos cruzados por la calle. Lo que hacen absolutamente todos los seres humanos desde que la especie existe. Balance de la operación: ¡Pido el divorcio! El tribunal de los pensamientos estará abierto para todos, y las audiencias pueden comenzar. Todavía podemos reírnos de ello por el momento, aunque este escenario grotesco se basa exactamente en la misma lógica que algunos quieren aplicar en los estrados. La confusión entre el pensamiento y el acto, entre el deseo y su realización, entre lo que cruza un cerebro y lo que una persona elige realmente hacer.
El mismo razonamiento se aplica a situaciones mucho más banales. ¿Quién no ha pensado un lunes por la mañana, atascado en el transporte o frente a un superior insoportable, que tenía ganas de estrangularlo? Ese pensamiento cruza millones de cerebros cada día. Quizás incluso miles de millones. Pero solo se transforma en acto en una proporción ínfima de casos, que generalmente responden a un contexto clínico muy particular. Basta entonces con que un dispositivo neural capte esa señal en el momento equivocado, en un contexto judicial o de seguridad, para que se convierta en ¿qué? ¿Una prueba? ¿Un indicador de peligrosidad? ¿Un motivo de vigilancia reforzada?
El problema fundamental es que el cerebro humano no funciona como un tribunal. Produce pensamientos contradictorios, impulsos pasajeros, escenarios imaginarios que la conciencia procesa, filtra y supera constantemente. Leer un pensamiento en un instante T sin acceder a la totalidad del proceso mental que lo precede y lo sigue es como juzgar una novela por una sola frase arrancada de su contexto. Los riesgos de error judicial serían colosales. Y los riesgos de manipulación lo serían igualmente. Porque una señal neural puede ser malinterpretada, porque los algoritmos que las decodifican se entrenan con datos sesgados y porque la historia de la medicina forense está sembrada de certezas científicas que resultaron falsas décadas después.
Ya tenemos un anticipo de lo que esto significa en la práctica. En India, el sistema BEOS lleva años utilizándose en cientos de investigaciones policiales y en 2008 se pronunció una condena por asesinato basada en parte en sus resultados. El Tribunal Supremo indio ha impuesto ciertos límites, pero el dispositivo sigue exportándose a una docena de países. Es el laboratorio a escala real de lo que nos espera a mayor escala si nadie impone salvaguardas serias.
Porque ahí reside el peligro más inmediato. No en la ciencia ficción de un régimen totalitario que leyera los pensamientos de toda una población en tiempo real, ya que ese escenario permanece por ahora fuera del alcance técnico. Sino en la normalización progresiva de un uso judicial y de seguridad de datos neurales parciales, imprecisos y altamente manipulables, que se presentarán ante jurados y jueces como pruebas científicas objetivas. Y como la palabra “científico” tiene una capacidad formidable para cerrar los debates antes de que empiecen, es exactamente en esa capacidad en la que confían quienes abogan por la introducción de las neurotecnologías en los estrados.
¿Desde cuándo las big techs están obligadas a comunicarte su agenda?
Hay una mecánica que las grandes empresas tecnológicas dominan a la perfección, porque ya la utilizaron para construir la inteligencia artificial tal como la conocemos hoy. Consiste en hacer que otros carguen con los costes más elevados y los riesgos más altos, mientras ellas se quedan con lo esencial del valor producido. Y con las interfaces cerebro-ordenador, esa mecánica ya está en marcha!
La parte visible es la que aparece en los medios. Personas tetrapléjicas, con ELA u otras patologías graves, que aceptan que les abran el cráneo para recibir un implante experimental. Esos pacientes están dispuestos a todo. Y los entendemos al cien por cien, porque la tecnología les ofrece la perspectiva de recuperar una forma de autonomía que pensaban haber perdido para siempre. Nadie cuestiona su valentía ni su elección. Pero hay que llamar a las cosas por su nombre: esas implantaciones permiten a las empresas que las financian obtener los datos neurales más precisos que existen. Los que solo unos electrodos colocados directamente sobre el córtex pueden producir.
Cada paciente implantado es también, lo sepa o no, un colaborador involuntario en la construcción de un diccionario neural de referencia. Más explícitamente, una base que hace corresponder señales cerebrales específicas con intenciones, emociones y comandos motores. Cuanto más rica y precisa sea esa base, más eficaces se vuelven los algoritmos de decodificación que se entrenan con ella. Y cuanto más eficaces se vuelven, menos necesario será recurrir a implantes invasivos para obtener resultados utilizables con dispositivos no invasivos de gran consumo.
Pero construir esos algoritmos de decodificación supone un trabajo colosal de anotación y entrenamiento de datos. Un trabajo repetitivo y tedioso que no requiere competencias muy avanzadas, pero que exige un volumen de mano de obra considerable. Y aquí entra en juego la segunda mecánica, la que las grandes plataformas de inteligencia artificial ya habían rodado antes que ellas. Cuando Meta, Google u OpenAI necesitaban anotar millones de imágenes, textos o vídeos para entrenar sus modelos, recurrieron a trabajadores del clic en África, en el Sudeste Asiático o en América Latina. Se les remuneraba con unos céntimos por tarea a través de plataformas como Mechanical Turk o Remotasks.
Investigaciones periodísticas han documentado estas prácticas, revelando condiciones de trabajo agotadoras y remuneraciones miserables por tareas mentalmente devastadoras, como la anotación de contenidos violentos o pornográficos. No hay ninguna razón para pensar que el entrenamiento de las IA especializadas en la decodificación cerebral escapará a esta lógica. Al contrario, el carácter sensible de los datos neurales hace aún más probable que ese trabajo se realice lejos de las miradas, en países donde la regulación sobre la protección de datos es inexistente o no se aplica.
Y es precisamente porque todo esto es sensible que no se pregona a los cuatro vientos. Las empresas que trabajan en la decodificación neural entre bambalinas no tienen ningún interés en detallar públicamente sus métodos de entrenamiento, sus fuentes de datos o sus alianzas con proveedores offshore. Lo que el público ve es Neuralink anunciando que un tetrapléjico juega al ajedrez con el pensamiento, Meta presentando su pulsera neural como un gadget de accesibilidad, Apple registrando patentes formuladas en el lenguaje tranquilizador de la salud y el bienestar. Lo que el público no ve es la infraestructura invisible que se construye en paralelo, las bases de datos neurales que se acumulan, los algoritmos que se refinan y las patentes técnicas que se registran discretamente en ámbitos que nadie vigila todavía de verdad.
Lo que observamos hoy no es por tanto más que la punta del iceberg. Los implantes experimentales, las pulseras conectadas, las patentes de AirPods con electrodos EEG… todo eso no es más que la superficie visible de un proceso de acumulación de datos y de construcción tecnológica que se desarrolla a una escala completamente diferente. Y el día en que el iceberg emerja por completo, cuando los dispositivos de lectura neural sean suficientemente precisos, suficientemente miniaturizados y suficientemente banalizados para integrarse en objetos cotidianos sin que nadie lo advierta, probablemente será demasiado tarde para plantearse las preguntas que deberíamos habernos planteado mucho antes. Eso es exactamente lo que pasó con las redes sociales. Eso es exactamente lo que pasó con los smartphones. Y no hay ninguna razón seria para pensar que la historia no va a repetirse una tercera vez.
Conclusión: Actuar ahora antes de que sea demasiado tarde
¿Y ahora qué hacemos? ¿Como con todo lo demás? En el mejor de los casos le das un like a este artículo. Como mucho lo compartes. Y luego esperamos… seguimos esperando… Y mientras tanto las interfaces neurales se instalan en el mercado. Tranquilamente, como la IA. Sin ninguna reflexión ciudadana y por tanto sin ninguna ética. Al principio preferimos tomárnoslo a risa porque está medianamente desarrollado. Y 3 años después ya nadie se ríe porque es demasiado tarde. Así que es ahora cuando hay que poner un gran cartel de STOP a esta tecnología. Porque estoy de acuerdo, en materia de servidumbre tecnológica todas las líneas rojas llevan tiempo cruzadas. Pero esta, la que consiste en descifrar nuestros pensamientos, es la frontera última hacia un punto de no retorno que nos conducirá directamente hacia el tecnofascismo absoluto.
Así que haz lo que quieras. Puedes decir que todo esto es un delirio de ciencia ficción. Pero infórmate de todas formas, te hemos dado todos los elementos para ello. O bien decides que hay que poner límites con urgencia. En ese caso, el punto de partida es hacer circular la información lo más ampliamente posible sobre este tema. Por ejemplo, compartiendo este artículo con una verdadera motivación para abrir un debate más que necesario. También puedes republicarlo, imprimirlo… Y por supuesto, tomar conciencia de que tú también eres un medio de comunicación y apoderarte de este tema para contribuir a que todo el mundo pueda darse cuenta del tipo de peligro al que nos enfrentaremos en un futuro muy próximo. Por nuestra parte, no vamos a escatimar fuerzas para poner en evidencia todos los desmanes de quienes juegan a aprendices de brujo. Pero no nos hacemos grandes ilusiones, porque es como si todo el mundo se hubiera vuelto completamente hastiado ante la extrema peligrosidad de las big techs. Mientras tanto, hasta muy pronto para nuevas aventuras.
¿Quieres dejar un comentario?
Crear una cuenta gratuita Iniciar sesión