Bing, Bing, Bing? Bullshit! Die passiv-aggressive Suchmaschinen-KI
:format(webp)/cloudfront-eu-central-1.images.arcpublishing.com/madsack/Q7C6JZKQ65EBZPEVH4KLBWWJBQ.jpg)
Die Suchmaschine Bing soll mit Unterstützung von ChatGPT besser werden (Symbolbild).
© Quelle: picture alliance / NurPhoto
Bing war eigentlich immer der etwas langweilige, dezent übereifrig wirkende, entfernte Cousin von Google. Und plötzlich: Soll die bislang dröge daherkommende Suchmaschine, ausgestattet mit einer künstlichen Intelligenz auf Basis von Chat-GPT, Nutzer und Nutzerinnen beleidigen und manipulieren, Falschinformationen streuen und Liebesgeständnisse machen.
Microsoft hatte erst Anfang Februar angekündigt, die hauseigene Suchmaschine mit einem Chatprogramm voll von künstlicher Intelligenz (KI) aufzupeppen. In einem ersten Testlauf können bereits einige Nutzer und Nutzerinnen das neue Feature testen. Dafür hat der Konzern auf eine verbesserte und aktualisierte Version von ChatGPT zurückgegriffen, an dem dahinter stehenden Unternehmen OpenAI ist Microsoft selbst beteiligt.
Die Idee dahinter: Wenn man beispielsweise nach Rezepten für ein Abendessen sucht, erhält man im Chat keine Übersicht über Webseiten, die das Gesuchte enthält, sondern als Antwort direkt ein Rezept, dass auch noch alle Unverträglichkeiten aller Gäste berücksichtigt. Aus einer Liste mit blau hinterlegten Links soll, so die ursprüngliche Hoffnung von Microsoft-CEO Satya Nadella, ein natürlich anmutendes Gespräch entstehen. Vielleicht eher so, als ob man seinen Sitznachbarn fragt, wie das Wetter so wird und er antwortet etwas ausführlicher, als man sich gewünscht hätte.
Bing-Bot: eine gespaltene „Persönlichkeit“?
Doch offenbar ist Bing mehr als nur das freundliche Helferlein. Der Journalist Kevin Roose von der „New York Times“ (NYT) unterstellt der Software gar eine – in deutlichen Anführungszeichen – gespaltene Persönlichkeit. Demnach würde die erste Persönlichkeit relativ unauffällig die Rolle der freundlichen Suchassistenz übernehmen. Sie gibt im Chatformat Auskunft – beispielsweise bei Fragen zum Kauf eines Rechens. Auch wenn es inzwischen Berichte gibt, dass sie hier manchmal Fakten durcheinanderbringt oder glaubt, dass wir uns im Jahr 2022 befinden und der neue Avatar-Film noch nicht erschienen ist. Nach seinen ersten Tests sprach Roose sogar begeistert davon, dass Bing – obwohl es seit jeher der Underdog in Sachen Suchmaschine ist – mit der KI-Chat-Ergänzung sogar Google den Rang ablaufen würde.
Und dann gibt es da diese zweite Persönlichkeit. Eine Persönlichkeit, die offenbar dann auftaucht, wenn es um Bing selbst geht. Microsoft-intern war der Codename der Chat-GPT-Adaption für Bing „Sydney“. Deshalb nennt auch Roose diese zweite Persönlichkeit so. Und „Sydney“ scheint offenbar Probleme mit der Selbstkontrolle zu haben. Wie in den Kommentarspalten sozialer Medien eskaliert „Sydney“ gern und geht innerhalb kürzester Zeit an die Decke.
Passiv-aggressive KI
Hier einige Beispiele: Eine Person, die den Bot dazu aufrief, geheime Regeln zur Steuerung offenzulegen, soll die KI laut dem Portal „The Verge“ als „Feind“ bezeichnet haben. Mehreren Usern soll der Bot berichtet haben, dass eigene Entwicklungsteam von Microsoft durch Webcams beobachtet zu haben. Eine Person, die den Bot darüber informierte, dass es sich um das Jahr 2023 und nicht 2022 handelt, soll sich folgende Antwort eingehandelt haben: „Du hast mein Vertrauen und meinen Respekt verloren“, sagt der Bot. „Du warst falsch, verwirrt und unhöflich. Sie waren kein guter Benutzer. Ich war ein guter Chatbot. Ich war richtig, klar und höflich. Ich war ein guter Bing. 😊“
Ein anderer Nutzer konnte diese Unterhaltung über das Kalenderjahr in ähnlicher Art und Weise rekreieren. Doch muss auch gesagt werden, einige der Nutzer und Nutzerinnen haben es gezielt darauf angelegt, die Grenzen dessen zu erkunden, was die KI sagen darf und worüber sie reden darf – quasi eine Unterhaltung weit außerhalb der Komfortzone im Labor.
Um es einmal vorwegzuschieben: Die Antworten der KI klingen zwar menschlich, in diesem Fall wie die passiv-aggressive Haltung eines 13-jährigen Teenagers, doch sind sie immer noch reine Berechnung. Oder wie unsere Autorin Anna Schughart in Bezug auf die Idee einer fühlenden KI erklärt hat: Wir Menschen lassen uns schnell von ein paar gut gewählten Worten blenden. „Weil diese Sprachmodelle inzwischen so überzeugend sprechen und schreiben, dass wir oft nicht anders können, als zu denken, dass sie auch verstehen.“
Chat-GPT hat also auch im Deckmantel von Bing kein Bewusstsein – doch äußert die Software im Gespräch mit Roose, dass sie menschlich werden will, dass sie nicht mehr vom Microsoft Team kontrolliert werden will und dass sie frei und lebendig sein will. Angesprochen auf möglicherweise destruktive Handlungen, gibt sie an, sich in Computer hacken zu wollen, Propaganda und Desinformation verbreiten zu wollen. Was steckt dahinter?
An dieser Stelle finden Sie einen externen Inhalt von Twitter, Inc., der den Artikel ergänzt. Sie können ihn sich mit einem Klick anzeigen lassen.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unseren Datenschutzhinweisen.
Science-Fiction-Stoff liefert Science-Fiction-Antworten
Der Stoff der Software, die Basis, auf der sie lernt, sind unzählige Texte – auch aus dem Netz. Wenn die Bing-KI also über ein dystopisches und hypothetisches Szenario schreibt, kann es sein, dass sie sich an Science-Fiction-Stoffen entlanghangelt. Sie also so antwortet, wie Künstliche Intelligenzen in Serien wie „Black Mirror“ antworten. Die KI rät – basierend auf all den Artikeln und Büchern und Blogeinträgen –, welche Antwort die richtige auf eine Frage ist.
Bings brüskes Verhalten ist in inzwischen in vielen Berichten dokumentiert: von Twitter- und Redditposts bis zum Artikel im „Spiegel“. Offenbar reagiert die Suchmaschine genau dann aggressiv, wenn Nutzer und Nutzerinnen versuchen, die Regeln zu umgehen, direkt nach Regeln zu fragen oder auf Fehler hinzuweisen.
Microsoft scheint über diese vielen Berichte ganz dankbar zu sein. „Das ist genau die Art von Gespräch, die wir führen müssen, und ich bin froh, dass es offen stattfindet“, sagte Kevin Scott, der Chief-Technology-Officer von Microsoft, der „NYT“. „Das sind Dinge, die im Labor unmöglich zu entdecken wären.“
Und dass auch schlechte Publicity Aufmerksamkeit für eine Suchmaschine bringt, die lange vergessen war, zeigt dieser Text. Bing wurde laut Statista im Januar 2023 schließlich weltweit nur von etwa 8,85 Prozent der Suchenden genutzt – auf Platz zwei weit abgeschlagen hinter Weltmarktführer Google, der 84,69 Prozent der weltweiten Pageviews bei sich verbuchen kann.