Die Google-Suchmaschine ist nicht mehr nur eine Suchmaschine. Seit Google die Funktion „AI Overviews” integriert hat, ist sie auch ein Chatbot mit künstlicher Intelligenz, der Fragen von Nutzern beantwortet, ohne dass diese auf einen Link klicken müssen. Das Problem ist, dass die zugrunde liegende Technologie, die großen Sprachmodelle, probabilistisch arbeiten und daher dazu neigen, Antworten zu erfinden, wenn sie nicht genau wissen, wie sie antworten sollen.
Eine glaubwürdige Lüge. Diesmal könnte eine erfundene Antwort von AI Overviews Google auf die Anklagebank bringen. Die Klägerin ist Wolf River Electric, ein Solarenergieunternehmen aus Minnesota. Und der Grund für den Rechtsstreit ist, man höre und staune, eine Klage, die nie existiert hat.
Laut den Anwälten des Energieunternehmens führte die Suche nach den Begriffen „Klage gegen Wolf River Electric” bei Google dazu, dass die KI mit Verleumdungen antwortete. Sie führen einen Fall an, in dem AI Overviews antwortete, dass Wolf River Electric vom Generalstaatsanwalt von Minnesota wegen „irreführender Verkaufspraktiken” verklagt worden sei, darunter das Belügen von Kunden über die Höhe ihrer Einsparungen und das Täuschen von Hausbesitzern, damit sie Verträge mit versteckten Gebühren abschließen.
Die KI präsentierte den Fall mit voller Überzeugung und bezog vier Führungskräfte des Unternehmens namentlich mit ein: Justin Nielsen, Vladimir Marchenko, Luka Bozek und Jonathan Latcham. Sie zeigte sogar ein Foto von Nielsen zusammen mit den falschen Anschuldigungen. Zur Untermauerung ihrer Behauptungen zitierte die KI vier Links: drei Nachrichtenartikel und eine Erklärung des Generalstaatsanwalts. Keiner der Links erwähnte jedoch eine Klage gegen Wolf River Electric.
Das ist nicht das erste Mal. Diese Art von Fehler wird als „Halluzination” bezeichnet und ist bei Sprachmodellen sehr häufig, da sie ihre Antwort durch die Vorhersage der nächsten Wörter zusammenstellen und dabei manchmal den ursprünglichen Fehler so weit ausbauen, dass daraus eine glaubwürdige Lüge mit allen möglichen erfundenen Verzweigungen entsteht, ähnlich wie beim Stille-Post-Spiel.
Als Google begann, AI Overview in die Suchmaschine zu integrieren, musste es für einige Suchanfragen, insbesondere für Rezepte und Ernährung, wieder entfernt werden, da es Empfehlungen gab, Klebstoff auf die Pizza zu geben oder täglich einen Stein zu essen, um gesund zu bleiben.
Eine Antwort pro Frage. Wolf River Electric behauptet, dass aufgrund dessen, was sie in den AI Overviews gelesen haben, mehrere Kunden ihre Verträge im Wert von bis zu 150.000 Dollar gekündigt haben. Das Problem ist, dass die Antworten von AI Overviews personalisiert sind: Sie werden im Moment abgeleitet und können daher von Anfrage zu Anfrage variieren.
Die Anwälte von Wolf River Electric sind davon nicht beunruhigt, da sie wissen, dass so etwas wieder passieren kann. „In dieser Klage geht es nicht nur um die Verteidigung des Rufs unseres Unternehmens, sondern um die Verteidigung von Fairness, Wahrheit und Verantwortung im Zeitalter der künstlichen Intelligenz”, sagt Nicholas Kasprowicz, Rechtsberater des Unternehmens.
David gegen Goliath. Der Fall wurde im März vor einem staatlichen Gericht verhandelt und gerade an ein US-Bundesgericht weitergeleitet. Möglicherweise wird damit ein Präzedenzfall geschaffen, ob ein Technologieunternehmen für die Erstellung und Verbreitung von Falschinformationen durch seine KI haftbar ist. Die Antwort auf diese Frage könnte einen Wendepunkt für KI-Unternehmen bedeuten, die seit langem versuchen, sich der Verantwortung für die Ergebnisse ihrer Sprachmodelle zu entziehen.
Google bezeichnete den Vorfall in seiner Verteidigung als harmlosen Zwischenfall. „Die überwiegende Mehrheit unserer KI-Übersichten ist präzise und nützlich, aber wie bei jeder neuen Technologie können Fehler auftreten“, erklärte ein Unternehmenssprecher. Google gibt an, schnell gehandelt zu haben, um das Problem zu beheben, sobald es bekannt wurde, und damit im Einklang mit seinen jüngsten Bemühungen, Nutzern die Korrektur von KI-Fehlern zu ermöglichen.