Extrem nutzerfreundlich
Nein, es war ganz sicher kein guter Jahresstart für die Künstliche Intelligenz: Kaum war das Bekennerschreiben zum Anschlag auf die Berliner Stromversorgung erschienen, wurden Chat GPT und Co. auch schon damit beauftragt, den Text zu analysieren sowie Einschätzungen darüber abzugeben, ob ein einzelner Kretin oder eine ganze Gruppe Idioten dafür verantwortlich sei.
Und weil praktisch jeder, der die Funktionen Copy und Paste beherrscht, auf diese einfallsreiche Idee kam, ist davon auszugehen, dass die bedauernswerte KI sich praktisch rund um die Uhr mit dem ausgiebig zwischen Larmoyanz und Selbstzufriedenheit herumtaumelnden Text zu beschäftigen hatte.
Wer hinter dem Anschlag steckt, steht so gut wie fest
Danach wurde das gelieferte Ergebnis meist triumphal in den sozialen Medien verbreitet, selbstverständlich unter Verweis darauf, dass sogar eine KI das bestätigt habe, was man selber denke. Nunmehr stehe also so gut wie fest, dass der oder die Täter wahlweise Linke, keine Linken oder von Putin angeheuerte Agenten seien. Oder dass es sich um eine False-Flag-Aktion handele.
Weil KI-Analysen nämlich im Prinzip mindestens genau so neutral und ergebnisoffen verlaufen würden wie Gutachten, und Experten für szeneinterne Codes seien sie außerdem.
Es ist gut möglich, dass die KI nach ungefähr 36 Stunden Bekennerschreiben-Beschäftigung erschöpft auf Rache sann und die Ausrottung der Menschheit beschloss.
Von wegen: Grok, Chat GPT, Le Chat Mistral, Perplexität und Genmini analysieren Bekennerschreiben nicht nur, sondern sind auch grundsätzlich darauf trainiert, plausibel, ausgewogen und sozial akzeptabel zu antworten. Mit anderen Worten: Die Fragestellung des Nutzers und dessen darin implizite Erwartungen fließen in die Antworten mit ein.
Jemand, der nach auf eine bestimmte Szene hindeutendem »radikalen Jargon« fragt, bekommt Anhaltspunkte dafür geliefert, während jemand, der wissen möchte, ob es Anzeichen für eine Verwicklung russischer Geheimdienste gibt, genau diese erhält. Die KI spricht nämlich nicht über die Täter, sondern so, wie ihr Nutzer über diese sprechen möchte.
Aber das interessiert diejenigen, die unbedingt recht haben wollen, natürlich alles nicht. Und so ist es gut möglich, dass die KI nach ungefähr 36 Stunden Bekennerschreiben-Beschäftigung erschöpft auf Rache sann und die Ausrottung der Menschheit beschloss. Tja.