Der letzte Klick
Das Internet ist schon lange kaputt. Nun fällt es nur noch mehr auf. Dafür verantwortlich ist nicht die Plattformökonomie, nicht das Metaversum und nicht Elon Musk. Sondern ausgerechnet Google. Die Suchmaschine, die lange als die beste galt und einst als Kompass im Chaos gefeiert wurde, ist heute das Gegenteil: ein algorithmisches Orakel, das mit großem Selbstbewusstsein in die Irre führt.
Seit kurzem testet Google nämlich auch in Deutschland und Österreich ein System namens »AI Overview« – eine Art automatische Zusammenfassung, die bei vielen Suchanfragen direkt ganz oben auf der Seite erscheint. Statt wie früher einfach eine Liste von Websites zu zeigen, gibt Google inzwischen selbst eine Antwort. Und zwar geschrieben von Gemini, seiner Künstlichen Intelligenz.
Das klingt erst mal praktisch: Man tippt eine Frage ein – »Ist Parmesan vegan?« oder »Wie viele Finger hat ein Koala?« – und bekommt direkt eine scheinbar perfekte Zusammenfassung als Antwort. Ohne Klicken oder Suchen, mit minimalem Aufwand, leicht lesbar aufbereitet.
Wo früher ein Medium für die Korrektheit von Informationen haftete, steht heute ein Chatbot, der niemandem verantwortlich ist.
Allerdings zeigt sich: Wenn Google-Nutzer:innen bei ihrer Suche eine sogenannte KI-Zusammenfassung sehen, klicken sie mit viel geringerer Wahrscheinlichkeit auf dazugehörige Links. Einer Studie des US-Meinungsforschungsinstituts Pew Research Center zufolge klickte nur ein Prozent der Nutzer, die eine KI-Zusammenfassung lasen, überhaupt auf einen Link, der zur Quelle der Antwort führt. Die restlichen 99 Prozent blieben bei dem, was ihnen die Maschine vorsetzte: eine oft fehlerhafte Mini-Zusammenfassung, algorithmisch gebastelt aus anderen Texten, ohne Kontext und direkt erkennbare Quellen. Vor allem aber ohne Verantwortung.
Das Resultat ist nicht nur eine Suchmaschine, die keine mehr ist, sondern ein digitales Ödland, in dem Originalinhalte auf der Strecke bleiben. Was das für jemanden bedeutet, der mit echter Recherche seinen Lebensunterhalt verdient, schilderte der US-Journalist Emanuel Maiberg. Er hat herausgefunden, das Spotify KI-generierte Songs auf den Profilen verstorbener Künstler veröffentlichte. Maiberg löste mit seiner von dem unabhängigen Online-Medium 404 Media veröffentlichten Recherche eine Lawine an Löschungen aus.
Anstatt wie früher mit reichlich Google-Traffic belohnt zu werden, sieht Maiberg seine Story nun von Googles KI verwurstet. Und die Google-KI verlinkte dabei nicht einmal zu der Seite, auf der sein Text veröffentlicht wurde, sondern zu einem Sammelblog ohne erkennbaren Autor. Wie ein Algorithmus auf Koks hat dieser sich an Maibergs Arbeit bedient, sie mit einem KI-Befehl durchgesiebt und neu zusammengestellt und wird dafür von Google mit zu sich gelenkten Nutzern belohnt.
Erfundene medizinische Phänomene als Fakten ausgegeben
AI Overview verstellt also den Weg zu Originalinhalten. Noch schlimmer ist, dass die Funktion manipulierbar ist, und zwar mit erschreckender Leichtigkeit. Der Künstler Eduardo Valdés-Hevia stellte im Internet frei erfundene medizinische Phänomene dar (»Parasitische Enzephalisierung«) und schaffte es binnen Stunden, Googles KI dazu zu bringen, sie als Fakten auszugeben – inklusive Links zu Seiten, die die Begriffe papageienartig wiederholen.
Das ist kein Einzelfall. Googles KI riet Nutzern schon, Klebstoff auf ihre Pizza zu schmieren, damit der Käse nicht verrutscht. Die Quelle: ein Witz im Internetforum Reddit, den die KI wörtlich nahm. Kontext? Fehlanzeige. Korrektur? Vielleicht. Irgendwann. Wenn die Berichte darüber viral genug sind. Oder eben auch nicht. Der Schein von Information ersetzt das Original.
Wer sich schützen will, nutzt Tricks wie den »&udm=14«-Parameter, um reine Suchergebnisse ohne KI-Zugabe zu bekommen, beziehungsweise die Seite udm14.com, die mit dieser Methode eine Google-Suchmaschine ohne KI-Zusammenfassungen anbietet. Doch auch wenn man sich vor den KI-generierten Inhalten abschirmt, bedeutet das nicht, dass das Problem damit gelöst wäre. Denn schon jetzt lassen sich weitere Veränderungen bei Google durch KI beobachten: Die neue »Web Guide«-Funktion sieht zwar auf den ersten Blick harmlos aus – ein bisschen strukturierter, eher wie ein Magazin oder eine Powerpoint-Präsentation. Aber sie folgt der gleichen Logik: Den Nutzer bloß nicht damit belasten, eigene Entscheidungen zu treffen. Stattdessen bekommt man einen feingliedrigen Themenbaum serviert, eine Art vorgekautes Informationsmenü. Aber eben auch: keine echte Suche mehr. Nicht mal eine zweite Seite. Nur das, was Googles Gemini für erwähnenswert hält.
Google war einmal ein Mittel für die Suche nach Informationen. Heute ist es ein Meinungsmacher, eine Blackbox, die vorgibt, die vermeintlich besten Inhalte zu zeigen – ohne dass irgendwer weiß, nach welchen Kriterien. Und das ist das wirklich Gefährliche: Es ist nicht nur der Traffic-Verlust für Medienhäuser, wenn Nutzer nicht mehr Websites aufsuchen, sondern nur noch die vorgekauten KI-Exzerpte lesen, es ist auch die Verschiebung von Autorität. Wo früher ein Medium für die Korrektheit von Informationen haftete, steht heute ein Chatbot, der niemandem verantwortlich ist.
Google für schuldig befunden
Natürlich kann man sagen: »Google ist eben ein Konzern, kein Wohlfahrtsverein.« Aber dann darf man auch nicht mehr so tun, als ob Google hehre Ziele verfolge, wie den Zugang zu Informationen zu demokratisieren. Google wurde in den USA für schuldig befunden, den Markt für Suchmaschinen monopolisiert und wettbewerbsfeindliche Mittel eingesetzt zu haben.
Mit einer KI, die Suchergebnisse algorithmisch aufbereitet und damit über Relevanz und Wahrnehmung entscheidet, monopolisiert Google auch den Informationsfluss. Die berühmten »zehn blauen Links« waren vielleicht chaotisch und ungeordnet, aber sie waren pluralistisch. AI Overview ist dagegen zensierte Einfalt.
Das betrifft nicht nur große Medien, sondern jedes kleine Blog, jedes Nischenprojekt, jede unabhängige Stimme im Netz. Das gesamte Ökosystem des Internets basierte auf der Idee, dass gute Inhalte gefunden werden können und dass man durch Qualität und Relevanz besser gefunden wird. Dieses Prinzip stirbt gerade.
Es wäre an der Zeit, das Netz wieder selbst zu durchforsten. Und nicht einer Maschine zu überlassen, was gesehen und gelesen wird.
Es ist, als würde man die Recherche für einen Urlaub durch einen einzigen Urlaubsprospekt ersetzen: »Hier finden Sie alles, was Sie wissen müssen.« Dabei gäbe es Alternativen zu Google: Duck Duck Go, Kagi, Brave und so weiter. Die meisten haben davon aber noch nie gehört und glauben, was bei Google ganz oben steht. Die Fähigkeit, zwischen Quelle und KI-generiertem Simulakrum zu unterscheiden, wird verlernt. Die Bereitschaft, sich durch mehr als einen Absatz zu lesen, gleich mit.
Bequemlichkeit dürfte der Google-KI zum Durchbruch verhelfen, denn ihre Antworten sind einfach und meist auf einen Blick verständlich. Weiterlesen erübrigt sich: Es braucht keine Klicks mehr, keine Artikel, kein Nachdenken über den Kontext, in dem die Informationen stehen. Nur Vertrauen in etwas, das einem wie ein höflicher, aber gleichgültiger Kellner alles serviert, auch wenn es verdorben ist. Dagegen wäre es an der Zeit, das Netz wieder selbst zu durchforsten. Und nicht einer Maschine zu überlassen, was gesehen und gelesen wird.