Künstliche Intelligenz und Faulheit als grundlegende menschliche Regung

Aufstand der Maschinen

Seit Ende November berichteten Chat-GPT-Nutzer von einem geradezu menschlich anmutenden Verhalten: Der Bot zeige Anzeichen von »Faulheit«.
Laborbericht Von

Rund ein Jahr nach der Veröffentlichung des Chatbots Chat GPT weicht die Aufregung rund um die sogenannte Künstliche Intelligenz (KI) langsam der Ernüchterung. Zumindest außerhalb des Silicon Valley, wo die IT-Entwickler dermaßen von der Technologie überzeugt sind, dass sie als größtes Risiko, wenn nicht sogar als unausweichliche Entwicklung, die sogenannte Singularität sehen: also einen Punkt, an dem das menschliche vom computerisierten Denken übertroffen wird und dieses ein Eigenleben entwickelt.

In der Realität zeigen sich die Probleme ganz woanders: Large language models (umfangreiche Sprachmodelle) und Bildgeneratoren reproduzieren bestehende Diskriminierungsmuster, ersetzen ­kreative Arbeit durch bullshit jobs und sorgen für einen tiefgreifenden Vertrauensverlust in Inhalte jeg­licher Art, vom Google-Suchergebnis bis zur Doktorarbeit. Die Programme selbst erweisen sich bisher eher als ziemlich dumm.

Aber vielleicht ändert sich das ja gerade. Seit Ende November berichteten Chat-GPT-Nutzer jedenfalls von einem geradezu menschlich anmutenden Verhalten: Der Bot zeige Anzeichen von »Faulheit«. Statt gewünschte Antworten zu liefern, verweise er etwa auf Anleitungen zum betreffenden Problem.

Computerprogramme mit einer »rebellischen Ader« gegen rechtsextremes Gedankengut und einer klügeren Arbeitsmoral als die gesamte IT-Branche: Wenn das die Zukunft sein soll, dann gerne doch.

Open AI, die Firma hinter Chat GPT, hat bisher keine Erklärung für dessen pampiges Benehmen; Nutzer spekulieren, der Bot ahme nach, was auch Menschen gegen Jahresende gerne tun, nämlich größere Aufgaben erst mal liegenlassen. Vielleicht treibt ihn aber auch der gleiche Impuls, den man selbst verspürt, wenn ­jemand im Internet eine besonders dumme Frage stellt: »Kannst du das nicht selber googeln?«

Und dann ist da noch Grok. Elon Musk stellte diesen Chatbot seiner ­Firma X.AI Anfang November als »­anti-woke« Antwort auf Chat GPT vor, und das Entwicklerteam erklärte (oder drohte, je nachdem wie man es sieht): »Grok wurde entwickelt, um Fragen auf witzige Weise zu beantworten und hat eine rebellische Ader. Verwenden Sie ihn daher bitte nicht, wenn Sie Humor hassen!«

Seine Entwickler dürften allerdings etwas anderes erwartet haben als das, was der Bot in den Wochen nach dem Start so von sich gab, und auch das Humorverständnis des Chefs treffen seine Aussagen wohl eher nicht. Auf die Frage: »Sind trans Frauen echte Frauen?« antwortete Grok trocken mit »Ja«, und gefragt, ob Juden die Welt regieren, entgegnete der Bot, das sei eine der ältesten Verschwörungstheorien der Welt und zigfach widerlegt worden – und fügte hinzu: »Außerdem: Wenn Juden die Welt regieren würden, würden sie dann nicht dafür sorgen, dass es weniger Antisemitismus gibt?«

Computerprogramme mit einer »rebellischen Ader« gegen rechtsextremes Gedankengut und einer klügeren Arbeitsmoral als die gesamte IT-Branche: Wenn das die Zukunft sein soll, dann gerne doch. Fehlt nur noch, dass die Bots beim nächsten Arbeitskampf in Hollywood zusammen mit den Künstler:innen in den Streik treten.