KI in unseren Suchmaschinen und Browsern: Es wird höchste Zeit, dass dieser Schwindel aufhört!

Heute bin ich wütend! Weil es einfach zu viel ist! Ich habe eine klare Botschaft an die Leute aus der Techbranche: Wann genau habt ihr euch gedacht, dass wir wirklich KI in unseren Browsern und Suchmaschinen brauchen? Wann hat sich irgendjemand gedacht, dass die Leute nicht mehr lesen können? Dass drei Zeilen, die ein obskurer Algorithmus ausspuckt, die Arbeit von jemandem ersetzen sollen, der stundenlang daran gearbeitet hat, hochwertige Inhalte aufzubauen?
Niemand hat diesen Schwachsinn bestellt! Und ihr habt es trotzdem gemacht! KI überall in unseren Suchmaschinen und Browsern. Meistens auf Kosten unserer Privatsphäre. Und meistens für Funktionen, die absolut überflüssig sind. Ihr habt das einfach durchgezogen, ohne zu fragen und ohne zu warnen, als wäre es selbstverständlich. Nun, es ist nicht selbstverständlich. Es ist schlicht inakzeptabel! Und genau das werde ich in diesem Artikel deutlich ansprechen.
Und ich werde auch radikale Lösungen bringen, um uns gegen diesen Angriff zu wehren. Ja, ich wähle meine Worte bewusst! Das ist tatsächlich ein Angriff, der sowohl die Nutzerinnen und Nutzer des Webs als auch die Content-Ersteller trifft. Was mich betrifft: Wenn du mich angreifst, erwarte bitte nicht, dass ich die andere Wange hinhalte. Also, ihr Leute aus der Tech-Welt, macht die Ohren auf: Vergesst nicht, dass ihr ohne Nutzer und ohne Content-Ersteller absolut nichts seid! Rein gar nichts! Ihr schuldet uns alles und wir schulden euch überhaupt nichts! Jetzt, wo das gesagt ist, können wir loslegen.
Google, Bing und jetzt GPT: Wie amerikanische Konzerne Suchergebnisse zu ihrem Vorteil manipulieren
Von Google und Bing sind wir das ehrlich gesagt nicht anders gewohnt. Die beiden spielen schon immer dasselbe Spiel: Sie bevorzugen Seiten, die dafür bezahlen, dass sie ganz oben erscheinen, und machen unabhängige Seiten ohne Werbebudget unsichtbar. Das ist ihr Geschäftsmodell, basierend auf einer Zensur, die sich nicht so nennt. Das wissen wir schon lange.
Ihre Algorithmen sind nicht neutral, sie stehen im Dienst eines mafiaähnlichen Systems. Und von den Seiten, die der libertären Ideologie unbequem werden, fangen wir gar nicht erst an. Also zum Beispiel Seiten, die die GAFAM kritisieren, antikapitalistische Seiten und alternative Medien, die die wirklich wichtigen Fragen stellen… Die werden so weit nach hinten in den Suchergebnissen verdrängt, dass sie praktisch nicht mehr existieren. Warum die Öffentlichkeit mit einer offiziellen Zensur empören, wenn du einfach die Reichweite einschränken kannst? Die Frage steht im Raum.
Als ob das nicht reichen würde: Mit der Ankunft von GPT Search und generativen KI-Systemen, die direkt in die Suchmaschinen eingebaut sind, wird eine weitere und weitaus beunruhigendere Stufe gezündet. Jetzt wird nicht mehr nur die Reihenfolge der Suchergebnisse gesteuert, sondern der Inhalt selbst wird von einer Maschine gefiltert, zusammengefasst und umgedeutet, bevor er bei dir ankommt. Eine Maschine, die von amerikanischen Konzernen trainiert wurde, mit deren Vorurteilen und Interessen im Fokus. Wenn du dich nicht aktiv darum kümmerst, tappst du völlig im Dunkeln. Als Ergebnis servieren dir die Tech-Multis auf dem Tablett, was sie entschieden haben, dass du wissen sollst oder eben nicht. Diese plumpe Manipulation führt uns schnurstracks in den Tod des unabhängigen Webs.
Internetsuche ist ein Gemeingut, kein Markt!
Internetsuche muss ein öffentlicher Dienst sein! Klar, man wird mir sagen, das sei eine kommunistische Idee. Na und, ich stehe dazu, und das ist mir schnurzpiepegal! Weil die eigentliche Frage lautet: Wem soll die Eingangstür des Webs gehören?
Richard Stallman, Aaron Swartz, Tim Berners-Lee… All diese großen Netz-Pioniere haben nicht das Fundament des freien Webs gebaut, damit drei amerikanische Konzerne es sich aneignen und daraus ihr Geschäftsmodell machen. Berners-Lee hat das Web erfunden und es der Menschheit geschenkt. Swartz hat sein ganzes Leben für den freien Zugang zu Information gekämpft, bis er daran gestorben ist. Stallman schreit seit vierzig Jahren, dass freie Software keine Option, sondern eine politische Notwendigkeit ist.
Und wir haben zugelassen, dass Google zum einzigen Eingangstor des Webs wird. Wir haben einem privaten Unternehmen, das durch Werbung finanziert wird, erlaubt zu entscheiden, was im Internet existiert und was nicht. Das ist der eigentliche Skandal! Das ist also keine völlig absurde politische Frage, sondern eine Frage des demokratischen Überlebens.
Ecosia, Firefox, Brave, DuckDuckGo: Wir mochten euch wirklich, aber…
Das Schmerzhafteste an dieser Geschichte ist das Verhalten der sogenannten alternativen Suchmaschinen und Browser. Denn Google und Bing haben wir schon längst von unserer Liste gestrichen. Aber ihr anderen wart unsere Alternativen. Ihr wart diejenigen, die die Werte des freien Webs, der Privatsphäre und des Respekts gegenüber den Nutzerinnen und Nutzern verkörpert haben. Darum konnten wir euch guten Gewissens unseren Lesern, Freunden und Familien empfehlen.
Aber ihr habt genau dasselbe gemacht wie das, was wir bei den GAFAM geflohen sind. Exakt dasselbe! KI-Zusammenfassungen hier, ein integrierter Assistent dort, ein KI-Fenster, das sich öffnet, ohne dass man es verlangt hat… Firefox integriert Microsofts Copilot in seine Seitenleiste. Ecosia fasst deine Artikel für dich zusammen, während es Bäume pflanzt. Brave klebt dir Leo AI in den Browser. DuckDuckGo mit seinen standardmäßig aktivierten AI Answers… Diese Liste lässt mich einfach nur kotzen!
Wir werden euch trotzdem keinen Krieg erklären. Das müssen wir zugeben: Ihr ermöglicht es vielen Menschen, NovaFuture zu entdecken. Ganz ehrlich, danke dafür. Aber wir werden euch die Wahrheit unter Freunden sagen: Ihr habt eine historische Chance verpasst! Ihr hattet eine einzigartige Karte auszuspielen, nämlich die, entschlossen anders zu sein, entschlossen menschlich, entschlossen auf der Seite der Nutzer und entschlossen auf der Seite der Content-Ersteller. Stattdessen habt ihr euch entschieden, stumpf der Herde hinterherzulaufen. Also hoffen wir einfach, dass das nur ein Ausrutscher war und dass ihr euch alle wieder besinnt. Oder?
KI-Zusammenfassungen in Suchmaschinen sind eine Kriegserklärung gegen Content-Ersteller
Was genau ist eine KI-Zusammenfassung in einer Suchmaschine? Zur Erklärung: Das ist eine Maschine, die die Arbeit von jemandem nimmt, sie verdaut, drei Zeilen daraus macht und sie dir anzeigt, ohne dass du jemals die Originalseite besuchen müsstest. Der Content-Ersteller sieht deinen Besuch also nie. Er sieht nie die Rückmeldung zu seiner Arbeit. Ganz einfach, weil er nicht mehr existiert. Sein Ranking bricht ein, seine Sichtbarkeit verschwindet und seine Arbeitsstunden landen im Mülleimer. Die KI dagegen bedient sich, ohne um Erlaubnis zu fragen, und gibt dabei rein gar nichts zurück.
Ein Artikel auf NovaFuture ist keine Kleinigkeit. Das sind Stunden an Recherche, Schreiben, Prüfen und Aufbereiten. Er ist mit doppelter Portion Liebe geschrieben: der Liebe zum Schreiben und der Liebe zum Teilen. Jeder lange Artikel ist lang aus drei Gründen: Weil das Thema es verdient! Weil die Zusammenhänge und Hintergründe nicht in drei Zeilen passen. Weil Kürzen gleichbedeutend mit Verrat ist. Und wenn eine Maschine für dich entscheidet, dass du das Original nicht lesen musst, erweist sie dir keinen Gefallen. Sie raubt dir eine Erfahrung, eine Nuance, ein geteiltes Gefühl und einen vollständigen Gedanken.
Und bei Meinungsthemen ist es noch schlimmer! Eine KI-Zusammenfassung zu einem politischen, sozialen oder philosophischen Thema wird systematisch in Richtung dessen tendieren, was dir zusagt, was konsensual ist, was niemanden stört… Kurzum, das ist einfach eine automatisierte Echokammer. Ganz zu schweigen davon, dass eine Zusammenfassung kinderleicht manipuliert werden kann. Du wirst es nie merken, weil du den Originalinhalt nicht gelesen hast und stattdessen drei Zeilen einer Maschine vertraut hast, deren Vorurteile und wahre Absichten du nicht kennst. Fazit: Alle müssen verdammt nochmal wieder lernen zu lesen!
Wie man KI-Scraper blockiert, um seine Website zu schützen und als Nutzer die Kontrolle zurückzugewinnen
Fangen wir mit der technischen Realität an. Den großen KIs ist deine robots.txt-Datei herzlich egal. Das ist eine Konvention, kein Gesetz. Das ist so, als würde man ein “Zutritt verboten”-Schild an eine offene Tür hängen. Sperren in der .htaccess sind da schon ernsthafter, werden aber immer leichter umgangen. Das liegt daran, dass Bots User-Agent und IP-Adresse wechseln, um Sperren zu umgehen. Sie gehen sogar so weit, sich als normale Browser auszugeben. Kurz gesagt, das ist ein ewiges Katz-und-Maus-Spiel.
Die echte Lösung ist dynamisches Blocking auf Server-Ebene. Ein intelligentes System, das das Verhalten von Anfragen in Echtzeit analysiert, die charakteristischen Muster von Scraper-Bots erkennt und sie automatisch blockiert, bevor sie irgendetwas geschluckt haben. Das ist effektiv. Aber leider ist es denen vorbehalten, die einen VPS oder einen dedizierten Server haben und wirklich wissen, was sie tun. Für Shared Hosting ist es aussichtslos, du hast schlicht keinen Zugriff auf diese Konfigurationsebene.
Also richten wir einen Appell an die Entwickler, denn das Web braucht dringend einfache, zugängliche und wirksame Werkzeuge. Zum Beispiel Plugins für CMS, die diese dynamischen Blocking-Strategien implementieren, ohne dass der Webmaster einen Doktortitel in Systemadministration braucht. Das ist machbar und muss nicht zwingend komplex sein. Also ein Aufruf an die Entwickler, die uns hier die Ehre ihrer Anwesenheit schenken. Wir haben nicht die Zeit, uns zu 100% in ein solches Projekt einzubringen. Aber wir helfen gerne auf unserem Level, wenn Bedarf besteht. Bisher haben wir festgestellt, dass nur Algorithmen wirksam gegen schädliche Algorithmen ankämpfen können. Alles, was statisch programmiert ist, funktioniert nicht, oder zumindest nicht lange.
Jetzt zur Nutzerseite. Falls noch nicht geschehen, laden wir dich ein, KI-Zusammenfassungen in den Einstellungen jeder Suchmaschine und jedes Browsers zu deaktivieren, wo das möglich ist. Auf saubere Alternativen wie Searx, Marginalia, Mojeek oder Librewolf umzusteigen. Aber vor allem nicht schweigen… Mach Lärm! In sozialen Netzwerken, in Foren und per E-Mail direkt an die Anbieter. Sag Firefox, Ecosia, Brave und DuckDuckGo klar und deutlich, dass du ihre KI nicht willst. Dass du ihre Tools genau deshalb gewählt hast, um dem zu entkommen, und dass du dich verraten fühlst… Kurzum, es gilt, maximalen Druck aufzubauen, denn das ist eine Methode, die funktioniert. Dein Schweigen dagegen verstärkt die Probleme nur.
KI ist nur ein Werkzeug. Wir erheben hier keine Anklage gegen Software.
Die Welt ist nicht schwarz oder weiß. Und es wäre unehrlich zu behaupten, KI sei das absolute Böse. Ein Werkzeug ist ein Werkzeug. Alles hängt davon ab, wer den Griff hält und zu welchem Zweck.
KI, um die wissenschaftliche Forschung zu beschleunigen, um Ärzten zu helfen, präzisere Diagnosen zu stellen, um Wettervorhersagen zu verbessern und Klimakatastrophen besser vorherzusehen… Da sind wir 100% dafür. Ohne zu zögern. Das ist genau die Art von Anwendung, die die Jahre an Forschung und die Milliarden rechtfertigt, die in diese Technologie investiert wurden. Das ist nützlich, konkret und kann das Leben verbessern.
KI hingegen, um Menschen zu überwachen, um Inhalte von Erstellern zu saugen, ohne sie zu fragen oder zu vergüten, um die Arbeit von Künstlern zu stehlen und sie an deren Stelle auszuspucken, um die Gedanken anderer zusammenzufassen und die Menschen immer passiver und abhängiger zu machen… Das ist ein klares Nein! Und gegen diese schädliche KI muss man jetzt ankämpfen, nicht in zehn Jahren, wenn sie noch tiefer in unsere Gewohnheiten und Werkzeuge eingebettet ist.
Der Unterschied zwischen beiden? Ganz einfach. Im ersten Fall steht KI im Dienst des Menschen. Im zweiten steht der Mensch im Dienst der KI und der kommerziellen Interessen derer, die sie kontrollieren. Wir stehen vor einer riesigen gesellschaftlichen Weichenstellung.
Mit KI Zeit sparen? Eine große Illusion.
Wir wollen ehrlich sein, denn das ist wichtig. Auf dem Papier sollte KI Zeit sparen. Nur ist die Praxis deutlich nuancierter. Weil du, wenn du KI ernsthaft nutzt, dir nicht leisten kannst, ihr blind zu vertrauen. Ausnahmslos muss jede Aussage überprüft werden. Jede Zahl muss gegengeprüft werden. Jede Quelle muss validiert werden. Denn KI halluziniert, erfindet, verwechselt, vereinfacht… und macht das alles mit einer Selbstsicherheit, die jeden professionellen Lügner wie einen Anfänger aussehen lässt. Und wenn du nicht alles gründlich prüfst, ist deine Glaubwürdigkeit dahin. Unterm Strich ist die Zeitersparnis also überhaupt nicht vorhanden.
Und daneben gibt es noch ein neues Problem. Das Web füllt sich mit erschreckender Geschwindigkeit mit KI-generiertem Content. Artikel, Analysen, vollständige Leitfäden, tiefgehende Studien… Das alles wird in industriellen Mengen produziert, ohne Nachdenken, ohne Expertise und ohne jede Seele. Wenn du also eine Recherche für deine Arbeit machst, musst du dich jetzt auch noch davor in Acht nehmen. Das Echte vom Synthetischen zu trennen ist eine zusätzliche Schicht Arbeit, die es vorher nicht gab. Unterm Strich geht die auf der einen Seite gewonnene Zeit auf der anderen wieder verloren. Und das sagt kaum jemand laut.
Was, wenn wir unsere eigene Suchmaschine bauten?
Ja, wir wissen, was du denkst. Immer die gleiche Feststellung, aber was machen wir danach konkret? Nichts, wie immer? Nun, genau darum geht es. Hier ist unsere Antwort:
Was, wenn wir unsere eigene unabhängige Suchmaschine bauten? Eine echte Suchmaschine, 100% frei und 100% Open Source. Das ist kein Witz! Wir reden von einem realen, machbaren und überaus nützlichen Projekt. Nicht von einer Utopie größenwahnsinniger Geeks. Sondern von einem Werkzeug im Dienst der Nutzer und der Content-Ersteller.
Das Konzept, das ich vor Augen habe, ist ein Hybrid zwischen einer klassischen Suchmaschine und einem kollaborativen Verzeichnis. Und für die Oberfläche ein völlig kahles Design: nur ein Suchfeld und ein Bestätigungs-Button. Wie Google 1998, bevor es zum Teufel wurde trotz seiner schönen Versprechen. Erinnerst du dich? “Don’t be evil.” Wir haben damals alle herzlich gelacht, weil wir sofort gemerkt haben, dass das schiefgehen würde.
Reden wir technisch und ernsthaft. Der Crawler ist Scrapy in Python, robust, skalierbar und bewährt. Er crawlt das Web und bewertet dabei jede Website nach klaren und transparenten Kriterien. Der Index wird in PostgreSQL gespeichert. Einfach, zuverlässig und leicht prüfbar.
Das Scoring ist das Herzstück des Projekts. Jede Website bekommt eine Bewertung basierend auf gewichteten Kriterien. Adwords-, Bing- oder andere Werbenetzwerke über DOM-Analyse erkannt? Nicht indexiert. Tracker durch Abgleich mit EasyList- und EasyPrivacy-Listen identifiziert? Nicht indexiert. Massenhaft KI-generierter Content über einen selbst trainierten Classifier oder eine API wie GPTZero erkannt? Nicht indexiert. Der Müll hat seinen Platz schon gefunden, und der wird nicht in dieser Suchmaschine sein.
Für Fälle, die sich automatisch schwer erkennen lassen, wie Betrugsseiten, Borderline-Inhalte… fügen wir eine Ebene kollaborativer menschlicher Kuratierung hinzu. Eine Community, die meldet, validiert, aussortiert… Kein undurchsichtiger Algorithmus, der im Verborgenen Gesetze macht. Stattdessen Menschen, die in völliger Transparenz die Kontrolle ausüben. Das ergibt ein hybrides System aus der Kraft der Maschine und der Intelligenz des Kollektivs.
Das Backend könnte unter Flask oder FastAPI laufen, denn das ist schön leichtgewichtig und performant. Mit einer offenen API, damit jeder beitragen, forken oder verbessern kann. Ein VPS reicht zum Starten. Auf diese Weise wäre die Architektur modular, um zu skalieren, falls die Community wächst. Alles ist selbst hostbar, dezentralisierbar und frei.
Ist das einfach? Nein! Ist es unmöglich? Absolut nicht! Es braucht nur Motivation, Kompetenz und Infrastruktur. Vor allem aber braucht es Menschen, die es satt haben, zu erdulden, und die es vorziehen, aufzubauen. Ich bin sicher, das spricht dich an 😉
Du programmierst? Du hast Infrastruktur? Du willst Moderator werden? Lass uns das auf NovaFlow besprechen!
Dieser Aufruf ist sehr ernst gemeint. Wir träumen hier nicht laut vor uns hin. Wir legen die Grundlagen für ein wunderbares Projekt, das Wirklichkeit werden kann, wenn sich die richtigen Menschen melden.
Du programmierst in Python? Du kennst dich mit Crawling, Indexierung und Datenverarbeitung aus? Du hast einen laufenden Server und Bandbreite, die du in ein sinnvolles Projekt einbringen kannst? Du bist Sysadmin, Entwickler, Designer oder einfach jemand, dem es reicht zu erdulden und der dazu beitragen möchte, etwas Sauberes aufzubauen?
Dann komm und lass es uns auf dem NovaFlow besprechen. Wir legen gemeinsam die Grundlagen fest. Die Architektur, die Prioritäten, die ersten Schritte… Denn ein solches Projekt baut man nicht allein, es entsteht mit einer motivierten Community, mit Menschen, die dieselben Werte teilen und die Lust haben, die Ärmel hochzukrempeln. Nichts hält uns auf. Wirklich nichts. Außer dem fehlenden Willen. Und den, denken wir, hast du im Überfluss.
Schluss: Ehrlich reden, um besser voranzukommen
Von ganzem Herzen: Ich habe mehrere Stunden damit verbracht, diesen Artikel auszuarbeiten. Was mich dabei angetrieben hat, ist der Gedanke, dass es eine echte Befriedigung für mich wäre, wenn das wenigstens einer einzigen Person hilft, sich mit ihren Gedanken weniger allein zu fühlen. Hier ist NovaFuture, und manchmal könnte man den Eindruck gewinnen, wir seien eine Art Don Quijote, der gegen Windmühlen kämpft. Das denke ich auch manchmal. Aber es vergeht schnell, weil ich mir sage, dass wir zumindest das Verdienst haben, die Flinte nicht ins Korn zu werfen, und dass die Monster, gegen die wir ankämpfen, sehr real sind. Und dass wir am Ende gewinnen werden, weil wir nichts zu verlieren haben, nicht einmal zu gewinnen, außer unserer gestohlenen Freiheit.
Niemals wird eine KI dir dieses Gefühl zusammenfassen können. Niemals wird eine KI wirklich Rücksicht darauf nehmen, wer du wirklich bist. Niemals wird dir eine KI sagen, wie du das System verändern kannst. Nur echte menschliche Begegnungen können uns voranbringen, auf etwas Positives hin. Im Grunde bin ich nur eine Art Geek, den man als asozial bezeichnen könnte. Vielleicht stimmt das sogar, aber ausnahmsweise hatte ich wirklich Lust, den Grund meiner Gedanken zu teilen und die strenge Maske des Typen abzulegen, der Code in seiner Linux-Konsole eintippt. Also danke fürs Lesen bis zu diesem Ende, das nur der Anfang einer Geschichte ist, die sich weiter in den Tiefen des Underground-Webs fortschreibt. Egal wie viele wir sind, das Einzige, was zählt, ist solidarisch in dem Gedanken zu sein, dass eine andere Welt möglich ist. Also bis sehr bald für konkrete Aktionen.
Möchtest du einen Kommentar hinterlassen?
Kostenloses Konto erstellen Anmelden