TikTok: Gefangen im Kaninchenbau
Am Anfang stand TikTok für dämliche Tänzchen, lustige prank-Videos und bizarre lifehack-Tutorials. Wer die App kennt und sie heutzutage regelmäßig nutzt, weiß: Das ist nicht mehr so. Tänzchen und lifehacks sind zwar noch da, aber TikTok hat die Welt der sozialen Medien auf den Kopf gestellt.
Die Rede ist von einer Social-Media-Plattform, die im Jahr 2016 online ging und nach Angaben von Statista Market Insights von 2019 bis 2023 das am schnellsten wachsende soziale Medium war: Die App erreichte in diesem Zeitraum 1,92 Milliarden Nutzer weltweit – was einem Zuwachs von 202 Prozent entspricht. Zum Vergleich: Im selben Zeitraum stiegen die Nutzerzahlen von Facebook (2,72 Milliarden im Jahr 2023) um 36 Prozent und die von Instagram (1,33 Milliarden im Jahr 2023) um 53 Prozent.
»Du sagst TikTok nicht, was du sehen willst. TikTok sagt es dir.«
Drew Harwell, Journalist
Angesichts dieser Zahlen ist es kaum verwunderlich, dass TikTok zum wirtschaftlichen, kulturellen und gesellschaftlichen Phänomen geworden ist, mit dem sich früher oder später auch Staaten und Institutionen beschäftigen mussten. TikTok ist im Hinblick auf Nutzerverhalten, Datensicherheit, Desinformation und sogar Spionage zum Politikum geworden, wie der Umgang der USA und der EU mit der Plattform zeigt.
Die Europäische Kommission hat im Februar ein förmliches Verfahren eingeleitet, um zu prüfen, ob TikTok gegen das Gesetz über digitale Dienste (DSA) in den Bereichen Jugendschutz, Werbetransparenz, Datenzugang für Forscher sowie Risikomanagement für süchtig machendes Design und schädliche Inhalte verstoßen hat.
Es liegt am Algorithmus
In den USA hat das Repräsentantenhaus Mitte März ein Gesetz verabschiedet, das ein Verbot von TikTok vorsieht, wenn der in China ansässige Eigentümerkonzern Bytedance seine Anteile an der Plattform nicht verkauft. Bytedance steht im Verdacht, Nutzerdaten an chinesische Regierungsstellen weiterzugeben. Wegen Datenschutzbedenken haben sowohl US-amerikanische Bundesbehörden als auch das EU-Parlament die App von Diensthandys verbannt.
Wie ist es zu erklären, dass eine App, die auf dem ersten Blick nichts anderes »kann«, als mehr oder weniger unterhaltsame Kurzvideos im sogenannten Feed endlos aneinanderzureihen, so rasant wachsen konnte? Die Antwort ist wenig überraschend und dennoch ziemlich komplex: Es liegt am Algorithmus. Noch stärker als bei älteren sozialen Medien, wie denen aus dem Hause Meta, dreht sich bei TikTok alles um das Prinzip der Personalisierung der angebotenen Inhalte, die in den Hauptfeed der App, dem »Für Dich«-Feed, angezeigt werden. Dieses Prinzip ist so prägend, dass der Nutzer de facto keine bewusste Kontrolle mehr darüber ausübt, welche Videos in seinem »Für Dich«-Feed erscheinen. Wie der Journalist Drew Harwell, Experte auf dem Gebiet der Künstlichen Intelligenz und der Wirkungsweise von Algorithmen, es treffend formuliert hat: »Du sagst TikTok nicht, was du sehen willst. TikTok sagt es dir.«
Während die Funktionsweise der Plattformen von Meta auf handverlesenen Interessen und Freundschaften beruht, zeigt TikTok den Nutzern eine endlose Reihe von Videos, die der Algorithmus ausgewählt hat, und lernt mit jeder Sekunde, in der sie schauen, pausieren oder weiterscrollen, was der Zuschauer »mag«. Dafür ist nicht einmal ein weiteres Engagement des Nutzers in Form von Likes, Reposts oder Kommentaren nötig. Ausschließlich die Dauer des Zuschauens, beziehungsweise wie schnell man weiterscrollt, ist entscheidend.
In die Dunkelheit getrieben
Ein Experiment des Wall Street Journal zeigt, dass TikTok nur eine wichtige Information benötigt, um herauszufinden, was der Zuschauer sehen will. Die Zeitung erfand den User Kentucky_96, einen Bot mit bestimmten Eigenschaften (Alter, Geschlecht, Wohnort, Interessen), und ließ dessen TikTok-Erfahrung von Experten auswerten. Diese zeigten, wie der TikTok-Algorithmus in weniger als einer Stunde »herausgefunden« hatte, dass dieser Nutzer auf Inhalte zu Mental Health reagierte, insbesondere auf die, die mit Hashtags wie #sadness oder #depression versehen waren – indem er sie ganz oder länger als andere Videos »ansah«.
So wurden in den »Für Dich«-Feed von Kentucky_96 immer mehr Videos zu diesem Thema angezeigt – nach nur 36 Minuten waren es über 90 Prozent. Das Experiment zeigt, wie schnell auf der Plattform der sogenannte rabbit hole-Effekt einsetzen kann, so die Experten des Wall Street Journal. Das birgt Risiken, insbesondere für junge Nutzer im Alter zwischen 13 und 25 Jahren, die weiterhin das größte Nutzersegment bei der App ausmachen, obwohl sie immer mehr auch von älteren Bevölkerungsgruppen genutzt wird. Der Begriff rabbit hole (»Kaninchenbau«, eine Anspielung auf »Alice im Wunderland«, wo ein solcher in eine bizarre Phantasiewelt führt) soll die Dynamik umschreiben, sich so tief in ein Thema zu verlieren, als wäre man in ein Labyrinth eingetreten, aus dem man nicht mehr herausfindet.
Ein Bericht von Amnesty International (AI) mit dem Titel »Driven into Darkness« (In die Dunkelheit getrieben) befasste sich im vergangenen Jahr mit dieser Thematik. Er präsentierte die Ergebnisse einer technischen Untersuchung, die AI zusammen mit dem Algorithmic Transparency Institute und anderen Organisationen durchgeführt hatte. Demnach werden Jugendliche, die sich im »Für Dich«-Bereich von TikTok Inhalte zum Thema psychische Gesundheit ansehen, schnell in rabbit holes mit potentiell schädlichen Inhalten hineingezogen – ihnen werden beispielsweise Videos präsentiert, die depressives Denken, Selbstverletzung und Selbstmord romantisieren und sogar fördern.
TikTok als Nachrichtenquelle
In den vergangenen zwei Jahren berichteten vorwiegend US-Medien darüber, dass Angehörige der »Generation Z« TikTok immer mehr als Suchmaschine nutzten. »In unseren Studien haben wir festgestellt, dass fast 40 Prozent der jungen Leute, wenn sie einen Ort zum Mittagessen suchen, nicht auf Google Maps oder die Suchmaschine gehen. Sie gehen auf TikTok oder Instagram«, so Prabhakar Raghavan, Ressortleiter bei Google.
Zwar geht es bei den meisten Suchanfragen tatsächlich um Kochrezepte, Tutorials oder VIP-News, doch steigt die Zahl insbesondere der jungen Menschen, die TikTok auch als Nachrichtenquelle nutzen. Während mittlerweile immer mehr etablierte Medien auch auf dieser Plattform präsent sind, ist die Befürchtung, dass sich TikTok zu einer noch größeren Fake-News-Schleuder entwickeln könnte, als es das ohnehin schon ist, sehr groß.
Mit Blick auf wichtige politische Termine wie die Europawahl im Juni und die US-Präsidentschaftswahl im November verkündete der Konzern nun, gegen Desinformation vorzugehen.
Mit Blick auf wichtige politische Termine wie die Europawahl im Juni und die US-Präsidentschaftswahl im November verkündete der Konzern nun, gegen Desinformation vorzugehen. So schrieb Kevin Morgan, seines Zeichens »Head of Trust and Safety at TikTok Europe, Middle East & Africa«, in einem Post im TikTok-Newsroom am 14. Februar: »Nächsten Monat werden wir für jeden der 27 EU-Mitgliedstaaten ein Wahlzentrum in der App in der jeweiligen Landessprache einrichten, um sicherzustellen, dass die Menschen Fakten von Fiktion leicht unterscheiden können.« Vorgesehen sind außerdem eine stärkere Moderation der Inhalte, die Zusammenarbeit mit Faktencheck-Organisationen in den verschiedenen EU-Ländern sowie eine besondere Beobachtung von Politikern und Parteien, die TikTok-Accounts betreiben.
Ob verstärkte Kontrolle sich als wirksames Mittel gegen den rabbit hole-Effekt in Bezug auf politische Inhalte bei dieser Plattform erweisen wird, ist fraglich. Denn der Plattform geht es nicht um »guten« versus »schlechten« Content, nach welchen politische Kriterien auch immer diese Kategorien definiert werden.
Wie der Datenexperte, der für das Wall Street Journal das Bot-Experiment ausgewertet hat, sagt: »Der Algorithmus ist in der Lage, den Inhalt zu finden, für den du anfällig bist und der dich dazu bringt, ihn anzuklicken, aber das bedeutet nicht, dass dies der Inhalt ist, den du am meisten magst. Es ist nur der Inhalt, der dich am ehesten dazu bringt, auf der Plattform zu bleiben.«