​El timo de la IA en nuestros motores y navegadores: ¡ya va siendo hora de que esto se acabe!

By: Debugman

¡Hoy estoy furioso! Porque ya es demasiado. Tengo un mensaje claro para la gente del sector tech: ¿En qué momento pensasteis que realmente necesitábamos IA en nuestros navegadores y motores de búsqueda? ¿En qué momento alguien se dijo que la gente ya no sabía leer? ¿Que tres líneas escupidas por un algoritmo oscuro iban a reemplazar el trabajo de alguien que pasó horas construyendo contenido de calidad?

¡Nadie pidió esta estupidez! ¡Y la hicisteis igualmente! IA por todas partes en nuestros motores y en nuestros navegadores. La mayoría de las veces en detrimento del respeto a nuestra privacidad. Y la mayoría de las veces para funciones que son puro gadget. Lo hicisteis sin preguntar y sin avisar, como si fuera algo obvio. ¡Pues no! No es obvio en absoluto. Es simplemente inadmisible. Y eso es lo que voy a denunciar claramente en este artículo.

Y también voy a aportar soluciones radicales para defendernos contra esta agresión. Y escojo mis palabras con cuidado. Sí, es una agresión que afecta tanto a los usuarios de la web como a los creadores de contenido. Así que, en lo que a mí respecta, si me agredís no esperéis que ponga la otra mejilla. Entonces, gente del tech, abrid bien las orejas: ¡No olvidéis que sin usuarios y sin creadores de contenido no sois nada! ¡Absolutamente nada! ¡Nos lo debéis todo y nosotros no os debemos nada! Ahora que el mensaje está claro, podemos desarrollar el tema.

Google, Bing y ahora GPT: Cuando las empresas americanas manipulan los resultados de búsqueda en su propio beneficio

Viniendo de Google y Bing, francamente no nos sorprende. Esos dos siempre han jugado el mismo juego favoreciendo a los sitios que pagan para aparecer y haciendo invisibles a los sitios independientes sin presupuesto publicitario. Es su modelo de negocio basado en una censura que no se atreve a decir su nombre, lo sabemos desde hace mucho tiempo.

Sus algoritmos no son neutrales, están al servicio de un sistema mafioso. Y ni hablemos de los sitios que incomodan a la ideología libertaria. Como los sitios que critican a las GAFAM, los sitios anticapitalistas y los medios alternativos que hacen las preguntas de verdad… Esos están relegados tan lejos en los resultados de búsqueda que prácticamente ya no existen. Al final, ¿para qué arriesgarse a indignar al público con una censura oficial cuando puedes simplemente limitar la audiencia? La pregunta queda planteada.

Como si eso no fuera suficiente, con la llegada de GPT Search y las IA generativas integradas directamente en los motores, damos un paso más y todavía mucho más inquietante. Ahora ya no es solo el orden de los resultados de búsqueda lo que está orientado, sino que directamente el contenido en sí mismo es filtrado, resumido y reinterpretado por una máquina antes de llegar hasta ti. Una máquina entrenada por empresas americanas, con sus sesgos y sus intereses en el punto de mira. A partir de ahora, si no haces un esfuerzo, estás en la niebla total. Y el resultado es que las multinacionales de la tech te sirven en bandeja lo que han decidido que debes saber o no. Esta manipulación burda nos conduce directamente a la muerte de la web independiente.

¡La búsqueda en internet es un bien común, no un mercado!

¡La búsqueda en internet debe ser un servicio público! Ya sé que me van a decir que es una idea comunista. Pues lo asumo y nos trae sin cuidado. Porque la verdadera pregunta es: ¿A quién debe pertenecer la puerta de entrada de la web?

Richard Stallman, Aaron Swartz, Tim Berners-Lee… Todos estos grandes especialistas de las redes informáticas no construyeron los cimientos de la web libre para que tres corporaciones americanas se los apropiaran y los convirtieran en su fondo de comercio. Berners-Lee inventó la web y se la regaló a la humanidad. Swartz luchó toda su vida por la libertad de acceso a la información, hasta morir por ello. Stallman lleva cuarenta años gritando que el software libre no es una opción sino una necesidad política.

Y nosotros dejamos que Google se convirtiera en la única puerta de entrada de la web. Dejamos que una empresa privada, financiada por la publicidad, decidiera qué existe y qué no existe en internet. ¡Ese es el verdadero escándalo! No es por tanto una cuestión política totalmente estúpida, sino una cuestión de supervivencia democrática.

Ecosia, Firefox, Brave, DuckDuckGo: De verdad os queríamos, pero…

Lo más doloroso de esta historia es el comportamiento de los motores y navegadores llamados alternativos. Porque a Google y Bing los borramos de nuestra lista hace mucho tiempo. Pero vosotros, erais nuestras alternativas. Erais los que defendíais los valores de la web libre, de la privacidad y del respeto al usuario. Entonces podíamos recomendaros con gusto a nuestros lectores, a nuestros amigos y a nuestras familias.

Pero hicisteis exactamente lo mismo de lo que huíamos con las GAFAM. ¡Exactamente igual! Resúmenes de IA por aquí, un asistente integrado por allá, una ventana de IA que se abre sin que la hayamos pedido… Firefox que integra Copilot de Microsoft en su barra lateral. Ecosia que te resume los artículos mientras planta árboles. Brave que te mete Leo AI en el navegador. DuckDuckGo con sus AI Answers activados por defecto… ¡Esta lista me da ganas de vomitar!

Pero tampoco os vamos a declarar la guerra por eso. Hay que reconocerlo, permitís que mucha gente descubra NovaFuture. De verdad, gracias por eso. Pero os vamos a decir la verdad entre amigos: ¡Perdisteis una oportunidad histórica! Teníais una carta única que jugar, que era la de ser resueltamente diferentes, resueltamente humanos, resueltamente del lado de los usuarios y resueltamente del lado de los creadores de contenido. En lugar de eso, elegisteis seguir al rebaño como borregos. Así que solo esperamos que haya sido un tropiezo puntual y que todos os vayáis a enmendar. ¿Verdad que sí?

Los resúmenes de IA en los motores de búsqueda son una declaración de guerra contra los creadores de contenido

¿Qué es exactamente un resumen de IA en un motor de búsqueda? Una aclaración: es una máquina que coge el trabajo de alguien, lo digiere, saca tres líneas y las muestra en tu lugar sin que hayas necesitado jamás visitar el sitio original. El creador de contenido nunca ve tu visita. Nunca ve el retorno de su trabajo. Sencillamente porque ya no existe. Entonces su posicionamiento se hunde, su visibilidad desaparece y sus horas de trabajo van a la basura. En cuanto a la IA, se sirve sin pedir permiso y sin devolver absolutamente nada.

Un artículo en NovaFuture no es una cosa insignificante. Son horas de investigación, redacción, verificación y maquetación. Está escrito con una doble dosis de amor: el amor de escribir y el amor de compartir. Cada artículo largo es largo por tres razones: ¡Porque el tema lo merece! Porque los antecedentes y las consecuencias no caben en tres líneas. Porque acortar es traicionar. Y cuando una máquina decide por ti que no necesitas leer el original, no te está haciendo ningún favor. Te está robando una experiencia, un matiz, un intercambio de emoción y un pensamiento completo.

¡Y en los temas de opinión es todavía peor! Un resumen de IA sobre un tema político, social o filosófico va a ir sistemáticamente hacia lo que te reafirma, hacia lo que es consensual, hacia lo que no molesta a nadie… En definitiva, es solo una cámara de eco automatizada. Sin contar con que un resumen puede ser manipulado con una facilidad pasmosa. Nunca lo sabrás puesto que no has leído el contenido original y en su lugar le has dado tu confianza a tres líneas producidas por una máquina de la que no conoces ni los sesgos ni las verdaderas intenciones. En resumen: ¡Hay que conseguir que todo el mundo vuelva a aprender a leer, joder!

Cómo bloquear las aspiradoras de IA para proteger tu sitio y recuperar el control como usuario

Empecemos por la realidad técnica. A las grandes IA les importa un bledo tu archivo robots.txt. Es una convención, no una ley. Viene a ser lo mismo que poner un cartel de “prohibido el paso” en una puerta abierta. Los bloqueos en el .htaccess son ya algo más serios, pero cada vez se sortean con más facilidad. Esto se debe a que los robots cambian de user-agent y de IP para esquivar los bloqueos. Incluso llegan a hacerse pasar por navegadores web. En fin, es un eterno juego del gato y el ratón.

La verdadera solución es el bloqueo dinámico a nivel del servidor. Un sistema inteligente que analiza el comportamiento de las peticiones en tiempo real, detecta los patrones característicos de los robots scrapers para bloquearlos automáticamente antes de que hayan tragado nada. Es eficaz. Pero desgraciadamente está reservado a quienes tienen un VPS o un servidor dedicado y saben realmente lo que hacen. Para los alojamientos compartidos, es imposible, simplemente no tienes control sobre ese nivel de configuración.

Entonces lanzamos una llamada a los desarrolladores porque la web necesita absolutamente herramientas simples, accesibles y eficaces. Como por ejemplo plugins para CMS que implementen estas estrategias de bloqueo dinámico sin que el webmaster necesite un doctorado en administración de sistemas. Es factible y no tiene por qué ser complejo. Así que un aviso a los desarrolladores que nos leen: Nosotros no tenemos tiempo de implicarnos al 100% en un proyecto así. Pero estamos dispuestos a ayudar en lo que podamos si hace falta. Por el momento, todo lo que hemos observado es que solo los algoritmos pueden combatir con eficacia a los algoritmos dañinos. Todo lo que sea programa estático no funciona, o al menos no funciona durante mucho tiempo.

Ahora, del lado de los usuarios. Si todavía no lo has hecho, te invitamos a desactivar los resúmenes de IA en la configuración de cada motor y navegador cuando sea posible. A pasarte a alternativas limpias como Searx, Marginalia, Mojeek o Librewolf. Pero sobre todo no te quedes en silencio… ¡Haz ruido! En las redes sociales, en los foros y por email directamente a los editores. Dile claramente a Firefox, a Ecosia, a Brave y a DuckDuckGo que no quieres su IA. Que elegiste sus herramientas precisamente para escapar de eso y que te sientes traicionado… En definitiva, hay que ejercer la máxima presión porque es un método que funciona. Mientras que tu silencio solo amplifica los problemas.

La IA no es más que una herramienta. No estamos aquí para juzgar un software.

El mundo no es blanco o negro. Y seríamos deshonestos si pretendiéramos que la IA es el mal absoluto. Una herramienta es una herramienta. Todo depende de quién la empuña y con qué fin.

La IA para acelerar la investigación científica, para ayudar a los médicos a establecer diagnósticos más precisos, para mejorar las previsiones meteorológicas y anticipar mejor las catástrofes climáticas… Estamos 100% a favor. Sin dudarlo. Es exactamente el tipo de uso que justifica los años de investigación y los miles de millones invertidos en esta tecnología. Es útil, es concreto y puede mejorar la vida.

En cambio, la IA para espiar a la gente, para aspirar el contenido de los creadores sin pedirles permiso ni remunerarlos, para robar el trabajo de los artistas y regurgitarlo en su lugar, para resumir el pensamiento de los demás y hacer a la gente cada vez más pasiva y dependiente… ¡Eso es un no categórico! Y a esa IA dañina hay que combatirla ahora mismo, no dentro de diez años cuando esté todavía más profundamente anclada en nuestros usos y en nuestras herramientas.

¿La diferencia entre los dos casos? Es muy sencillo. En el primero la IA está al servicio del ser humano. En el segundo es el ser humano quien está al servicio de la IA y de los intereses comerciales de quienes la controlan. Estamos claramente ante una enorme elección de sociedad.

Pensar que la IA te va a ahorrar tiempo es una gran ilusión

Vamos a ser honestos porque es importante. Sobre el papel la IA debería hacer ganar tiempo. Excepto que en la práctica es mucho más matizado que eso. Porque si usas la IA en serio, no puedes permitirte fiarte de ella ciegamente. Sin excepción alguna, cada afirmación debe ser verificada. Cada cifra debe ser contrastada. Cada fuente debe ser validada. Porque la IA alucina, inventa, confunde, simplifica… y lo hace todo con un aplomo que haría quedar como un aficionado a cualquier mentiroso profesional. Y si no lo verificas todo a fondo, es tu credibilidad la que queda reducida a cero. Así que al final, el ahorro de tiempo no existe por ningún lado.

Y junto a eso hay un problema nuevo. La web se está llenando a una velocidad aterradora de contenido generado por IA. Artículos, análisis, guías completas, estudios en profundidad… todo esto se produce en cantidades industriales, sin reflexión, sin experiencia y sin ningún alma. Así que cuando haces una búsqueda para trabajar, ahora también tienes que desconfiar de eso. Separar lo real de lo sintético es una capa de trabajo adicional que antes no existía. De modo que al final el tiempo ganado por un lado se pierde por el otro. Y eso, hay muy poca gente que lo diga.

¿Y si construyéramos nuestro propio motor de búsqueda?

Ya sé lo que estás pensando. Siempre el mismo diagnóstico, pero después ¿qué hacemos concretamente? Nada, como de costumbre. Pues precisamente. Vamos a responderte:

¿Y si construyéramos nuestro propio motor de búsqueda independiente? Un motor de búsqueda 100% libre y 100% open source. ¡No es broma! Hablamos de un proyecto real, factible y muy útil. No de una utopía de geeks con delirios de grandeza. Sino de una herramienta al servicio de los usuarios y de los creadores de contenido.

El concepto que tengo en mente es un híbrido entre un motor clásico y un directorio colaborativo. Y para la interfaz un aspecto totalmente minimalista. Solo un campo de búsqueda y un botón de validación. Como Google en 1998 antes de convertirse en el diablo a pesar de sus bonitas promesas. ¿Te acuerdas? “Don’t be evil.” Todos nos reímos mucho en su momento porque enseguida entendimos que iba a acabar mal.

Hablemos en serio desde el punto de vista técnico. El crawler es Scrapy en Python, robusto, escalable y probado. Recorre la web y al mismo tiempo evalúa cada sitio según criterios claros y transparentes. El índice se almacena en PostgreSQL. Simple, fiable y fácilmente auditable.

El scoring es el núcleo del proyecto. Cada sitio recibe una puntuación basada en criterios ponderados. ¿Presencia de publicidad de Adwords, Bing u otra red detectada mediante análisis del DOM? No indexado. ¿Trackers identificados por comparación con las listas EasyList y EasyPrivacy? No indexado. ¿Contenido masivamente generado por IA detectado mediante un clasificador propio o una API como GPTZero? No indexado. La basura ya tiene su lugar y no será en este motor.

Para los casos difíciles de detectar de forma automática, como los sitios fraudulentos, los contenidos en zona gris… añadimos una capa de curación humana colaborativa. Una comunidad que señala, que valida, que descarta… No un algoritmo opaco que hace la ley en su rincón. En su lugar, personas que ejercen un control con total transparencia. Lo que dará un sistema híbrido entre la potencia de la máquina y la inteligencia del colectivo.

El backend podría correr bajo Flask o FastAPI porque es ligero y eficiente. Con una API abierta para que cualquiera pueda contribuir, hacer un fork o mejorar el proyecto. Un VPS es suficiente para empezar. De esta forma la arquitectura sería modular para escalar si la comunidad crece. Todo es autoalojable, descentralizable y libre.

¿Es fácil? ¡No! ¿Es imposible? ¡Para nada! Solo hace falta motivación, conocimientos e infraestructura. Pero sobre todo hacen falta personas que estén hartas de aguantar y que prefieran construir. Estoy seguro de que esto te resuena 😉

¿Programas? ¿Tienes infraestructura? ¿Quieres ser moderador? ¡Hablamos en NovaFlow!

Este llamamiento es muy serio. No estamos soñando en voz alta. Estamos sentando las bases de un proyecto magnífico que puede ver la luz si las personas adecuadas se manifiestan.

¿Programas en Python? ¿Conoces el crawl, la indexación y el procesamiento de datos? ¿Tienes un servidor en marcha y ancho de banda que poner al servicio de un proyecto con sentido? ¿Eres administrador de sistemas, desarrollador, diseñador, o simplemente alguien que está harto de aguantar y que quiere contribuir a construir algo limpio?

Entonces ven a hablarlo en el NovaFlow. Sentamos las bases juntos. La arquitectura, las prioridades, los primeros pasos… Porque un proyecto como este no se construye en solitario, se construye con una comunidad motivada, personas que comparten los mismos valores y que tienen ganas de arremangarse. Nada nos detiene. De verdad, nada. Excepto la falta de voluntad. Y eso, creemos que tú tienes de sobra.

Conclusión: Expresarse con sinceridad para avanzar mejor

De todo corazón, dediqué varias horas a elaborar este artículo. Lo único que me motivó fue pensar que si al menos puede ayudar a una sola persona a sentirse menos sola pensando lo que piensa, eso sería una satisfacción real para mí. Aquí es NovaFuture, a veces podemos dar la impresión de ser una especie de Don Quijotes que luchan contra molinos. A mí también me pasa pensarlo. Pero se me pasa rápido, porque me digo que al menos tenemos el mérito de no bajar los brazos y que los monstruos a los que nos enfrentamos son bien reales. Y que al final acabaremos ganando porque no tenemos nada que perder, ni siquiera nada que ganar salvo nuestra libertad robada.

Jamás una IA podrá resumirte este sentimiento. Jamás una IA tendrá consideración por lo que eres de verdad. Jamás una IA te dirá cómo cambiar el sistema. Solo los intercambios humanos reales pueden permitirnos avanzar hacia algo positivo. En el fondo, no soy más que una especie de geek que se podría calificar de asocial. Puede que sea verdad, pero el caso es que excepcionalmente tenía ganas de verdad de compartir el fondo de mi pensamiento quitándome la máscara austera del tío que teclea código en su consola Linux. Así que gracias por haber leído hasta este final que no es más que el comienzo de una historia que sigue escribiéndose en los bajos fondos de la web underground. Da igual cuántos seamos, lo único que importa es ser solidarios en la idea de que otro mundo es posible. Así que hasta muy pronto para acciones concretas.

Compartir en MastodonCompartir en LemmyCompartir en BlueskyCompartir en Hacker NewsCompartir en TelegramCompartir por emailCopiar enlace