Welcher Adblocker ist am besten? Welcher Reifen passt zum Fahrrad? Früher hatte Google zu allem eine schnelle Antwort. Und weil Google sich seine Nutzer und Nutzerinnen merken kann, waren die Antworten oft besser als die Fragen. Früher habe sich googeln „magisch“ angefühlt, sagt auch Softwareentwicklerin und Philosophin Xe Iaso – „als würden deine Gedanken gelesen“.
Heute gehört Iaso zu einer wachsenden Gruppe von Expertinnen und Experten, die der Plattform fundamentale Probleme attestieren. Werbung und billig zusammenkopierte Inhalte nähmen überhand.
Seit Jahren verbreitet sich das Gefühl, viele Suchanfragen würden unter Werbung begraben. Leicht zu belegen ist der Eindruck nicht, allein schon, weil Google jeder Nutzerin und jedem Nutzer andere, persönlich angepasste Ergebnisse zeigen will. Softwareentwickler Dan Luu ist kürzlich in einem Versuch zu dem Ergebnis gekommen, dass die Qualität wirklich nachlasse – und das nicht nur bei Google, sondern auch bei anderen Suchanbietern.
Das Technologiemagazin „The Verge“ kommt gar zu dem Urteil, Google habe das Internet „zu einem Ort für Roboter geformt“, in dem Menschen ihre Inhalte nicht mehr nach den Bedürfnissen anderer Menschen ausrichten, sondern nur nach der bestmöglichen Platzierung bei einem Suchanbieter.
Xe Iaso hat den Weg der Suchmaschinen in einem Essay als Aufstieg und Fall beschrieben. Zuerst hätten Plattformen wie Google einen „riesigen Sprung“ bei der schnellen und gezielten Suche nach Wissen bedeutet. Dann jedoch sei das Internet von billig produzierten Inhalten überschwemmt worden. Mit Information hatten diese Inhalte wenig am Hut: Sie sollten Aufmerksamkeit und damit Werbeeinnahmen generieren.
Für ein paar Monate galten neue KI-Tools als Retter in der Not. Systeme wie ChatGPT spucken ausformulierte Antworten aus. Microsoft integrierte die Technologie in seinen Bing Chat (heute Copilot), Google brachte die eigene KI Bard an den Start. Doch es dauerte nicht lange, bis die Systeme als fehleranfällig entlarvt wurden. Im Dezember hat die Berliner Menschenrechtsorganisation Algorithm Watch in einer Studie dem Bing Chat Fehler in einem Drittel seiner Antworten nachgewiesen. Das Thema war sensibel: Die Fragen drehten sich um demokratische Wahlen.
Offensichtlich kann KI noch keine verlässlichen Antworten geben. Aber vielleicht ist schon unsere Sehnsucht nach perfekten Antwortmaschinen ein Problem. Diese These vertreten die Linguistikprofessorin Emily M. Bender und der Informationsexperte Chirag Shah. In einem Aufsatz beschreiben sie, welche Nachteile sie in der „Entfernung oder Reduzierung von Interaktionen“ bei der Suche sehen. Sprich: Wer direkt eine Antwort auf jede erdenkliche Frage bekommt, muss nicht weiter über sie nachdenken.
Suchergebnisse selbst zu verstehen und zu verifizieren ist für Bender und Shah ein „fundamentaler“ Teil des Suchens. Der Mensch vor dem Bildschirm muss die Ergebnisse selbst auswerten und das Relevante herausfiltern. Das ist keine leichte Aufgabe, aber eine wichtige.
Wenn man in Maschinen etwas sucht, bekommt man in der Regel eine Liste mit Suchergebnissen. Sprach-KIs liefern eine ausformulierte Antwort, bieten aber schlechte Bewertungsmöglichkeiten für die Qualität ihrer Ergebnisse. Doch die Verbreitung von Falschinformationen ist kein Problem, das nur Sprach-KIs hätten. Schließlich lügen Menschen mit voller Absicht. Ob etwa eine Verschwörungstheorie stimmt oder nicht, kann je nach Frage und Person zu unterschiedlichen Suchergebnissen führen. In einer viel beachteten Studie haben Politikwissenschaftler Kevin Aslett und andere nachgewiesen, dass viele Menschen auch dann noch auf Falschinformationen hereinfallen, wenn sie sie auf Google prüfen. Die Testfragen drehten sich unter anderem um die Berichterstattung zur Corona-Pandemie.
Für Josephine Schmitt vom Bochumer Center for Advanced Internet Studies ist die gezielte Verbreitung von Lügen ein „Alarmsignal für tiefgreifendere gesellschaftliche Probleme“, das man ernst nehmen müsse. Schmitt fragt, warum sich manche Menschen abgehängt oder von rechtsextremen Ideen angezogen fühlen. Sie pocht auf die „Förderung von Quellen- und Medienkompetenz“ – und das „in allen Altersgruppen“. Helfen könnte es in ihren Augen aber auch, wenn „Fact-Checking-Initiativen prominenter platziert und gefördert würden“.
Eine andere Möglichkeit ist für Philipp Müller vom Institut für Medien- und Kommunikationswissenschaft der Universität Mannheim, fragwürdige Ergebnisse weniger sichtbar zu machen. Ein Beispiel dafür, wie das gehen könne, seien die „erfolgreichen Interventionen“ etwa auf „Facebook in den USA im Anschluss an die Trump-Wahl 2016“. Damals habe das Unternehmen „effektiv die Verbreitung fragwürdiger Quellen“ reduzieren können.
Beide Fachleute sind sich einig: Die Frage, wie die Suche der Zukunft aussehen sollte, sollte man nicht den Plattformen allein überlassen. Schmitt wünscht sich etwa den politischen Willen, Plattformanbietern „in die Karten zu schauen“ – sie dazu zu bringen, „wenigstens grob“ zu erklären, wie ihre Suchalgorithmen funktionieren und sich ändern.
Auch Xe Iaso fordert mehr Medienkompetenz: „Wir müssen Menschen beibringen, selber zu recherchieren und Quellen zu prüfen.“ Vielleicht ist der Wunsch nach einer einfacheren Suche in einer komplexen Welt unmöglich.