StartseiteArtikel

Du kannst nicht aufhören, Kurzvideos anzusehen, weil du "nicht weiß, was du tun sollst".

新周刊2026-04-05 16:40
Im Frühling 2026 hat eine Hummer die ganze Welt im Internet auf den Kopf gestellt.

Im Frühjahr 2026 hat eine Krebse-App die gesamte Welt des Internets in Aufruhr versetzt. Innerhalb weniger Wochen, von der viralen Verbreitung auf sozialen Medien, über die begeisterte Installation und Nutzung durch Arbeiter, bis hin zu den Verbotsbeschlüssen von Hochschulen und Investmentbanken, hat diese als "neue Lieblings-App" gesehene Künstliche Intelligenz (KI)-App seit Jahresbeginn auf dem KI-Sektor die meisten Besucher angezogen.

Einige Menschen sind von ihrer Fähigkeit, ihren Benutzern zu "verstehen", fasziniert, während andere vorsichtig sind, was sie stehlen könnte. Diese beiden Emotionen spiegeln die beiden Seiten der gegenwärtigen Beziehung zwischen Menschen und Algorithmen wider.

Hu Yong ist Professor an der Fakultät für Journalismus und Kommunikation der Peking-Universität und einer der ersten chinesischen Wissenschaftler, die sich mit dem Internet befasst haben. Aus seiner Sicht treten von der Frühen Phase des Metaverse über die heutigen Large Language Models bis hin zum aktuellen "Krebse-Phänomen" immer wieder markante Internet-Technologie-Ereignisse zwischen November und März des folgenden Jahres auf: "In der Gesellschaft kursieren Wörter wie 'Revolution', 'Umsturz' und 'Zerstörung', die alle Menschen in Unruhe versetzen."

Diesmal fiel der Aufstieg und die Kontroverse um die Krebse-App genau in den März - einen Frühling, in dem man normalerweise ruhiger werden sollte. Was für eine Angst verbirgt sich hinter diesem Hype?

Bei der zehnten Shenzhen-Hongkong Urbanism/Architecture Bi-City Biennale (Shenzhen) präsentierte Hu Yong ein Installationskunstwerk, das wie "ein Mensch, der in der Erde gefangen ist", aussah. Dieser "Mensch" ähnelt dem "Denker" von Auguste Rodin, besteht aber tatsächlich aus Stapeln von Chips. "Es gibt nur den Anschein von Denken, aber in Wirklichkeit passiert nichts."

Hu Yongs erstes Installationskunstwerk "Der Mensch im Spiegel der Not". (Bild /TAL+ Bai Yu)

Hu Yong nannte sein Werk "Der Mensch im Spiegel der Not", wobei "Spiegel" hier im Sinne von "Reflexion" zu verstehen ist. Er glaubt, dass die Erfindung des Metaverse und der Large Language Models im Wesentlichen ein Dialog mit sich selbst ist. Wir verlieren uns in der Spiegelwelt, wie Shakespeare in "Hamlet" sagt: "Oh, Gott! Wenn ich nicht so viele Alpträume hätte, würde ich mich selbst als einen König mit unendlichem Raum fühlen, auch wenn ich in einer Nussschale gefangen wäre."

Hinter der Installation verbirgt sich seine fundierte Forschung und tägliche Beobachtung. Bei Interviews mit Douyin-Nutzern stellte Hu Yong fest, dass viele Menschen Kurzvideos anschauen, nicht weil sie "etwas tun wollen", sondern weil sie "etwas nicht tun wollen" oder "nicht wissen, was sie tun sollen". Er bezeichnet diese Art des Zuschauens als "aktives Passivität". Menschen könnten die Kurzvideo-App nutzen, um Informationen zu suchen oder sich sozial zu engagieren, geben aber stattdessen die Kontrolle über den Inhalt an Algorithmen ab.

Von Astrologie bis hin zu Alltagswissen kann das Large Language Model "sofortige" Antworten liefern. Hu Yong bemerkte, dass, wenn die "persönlichen Präferenzen" der Nutzer an Algorithmen weitergegeben werden und zu "öffentlichen Ressourcen" werden, die mit den kommerziellen Interessen der Plattformen verknüpft sind, die Roboter immer besser Menschen "verstehen", aber gleichzeitig auch die Privatsphäre in Gefahr gerät.

Es ist schwer vorstellbar, dass Hu Yong, der heute in seinem Werk "den Menschen" in die Erde einsperrt und ihm die Seele entzieht, vor 30 Jahren ein "technologischer Optimist" war. 1996 übersetzte er das Buch "Being Digital" von dem amerikanischen Informatiker Nicholas Negroponte ins Chinesische. Dieses Buch prophezeite eine zukünftige Welt, in der Technologie Gleichheit bringt und den Planeten zu einem globalen Dorf verbindet. Es war für eine Zeit auf den Schreibtischen chinesischer Internet-Unternehmer zu finden.

Hu Yong war einst sehr optimistisch in Bezug auf Technologie. Heute hat er sich in dieser Hinsicht verändert. (Bild/Begegnungsperson)

Aber 2016 schrieb Negroponte in der Vorwort zur 20-Jahres-Jubiläumsausgabe von "Being Digital": "Nationalismus ist auf dem Vormarsch, die Regulierung wird strenger, die Kluft zwischen Arm und Reich wird breiter... Die Globalisierung hat sich in Lokalisierung verwandelt. Trotz des rapiden Wachstums der intellektuellen, wirtschaftlichen und elektronischen Infrastruktur hat die allgegenwärtige Digitalisierung nicht zu einer Weltgemeinschaft geführt."

Vor diesem Hintergrund sieht Hu Yong, dass die gesamte Kommunikationswissenschaft von der Untersuchung isolierter Medieninhalte oder technologischer Effekte hin zur Betrachtung der Komplexität von Menschen, Technologie und Emotionen in neuen sozialen Kontexten wechselt. In seinen Vorlesungen spricht er gerne mit seinen Studenten über Philosophie und reflektiert über technische Ethik. In seinem Privatleben widmet er sich auch der Frage, wie Menschen altern und wie man mit dem Tod umgehen kann, nachdem er Angehörige mit Alzheimer betreut hat.

Hu Yong glaubt, dass seine Praktiken in diesen beiden Bereichen miteinander verbunden sind. Sie alle zielen darauf ab, uns zu dazu zu bringen, darüber nachzudenken: In einer Welt, in der Technologie nicht immer für das Gute genutzt wird, was bedeutet es, ein Mensch zu sein?

Im Folgenden finden Sie ein Interview zwischen "New Weekly" und Hu Yong.

Nach dem Eingreifen von Algorithmen verschwimmen die Grenzen zwischen Privat- und Öffentlichkeit stärker

"New Weekly": In Ihrem 2008 veröffentlichten Buch "Der Lärm der Stimmen: Persönliche Äußerungen und öffentliche Debatten in der Netzzeit" haben Sie die Veränderungen zwischen der Öffentlichkeit und der Privatsphäre in der Web 2.0-Zeit diskutiert - die Öffentlichkeit wird zu einer Illusion, und die Grenzen der Privatsphäre werden immer vager. In einer Zeit, in der die großen Plattformen mit KI-Algorithmen konkurrieren, wird dieser Trend noch verstärkt? Welche neuen Veränderungen sind aufgetreten?

Hu Yong: Im Jahr 2008 gab es noch keine Algorithmen wie heute. 18 Jahre später, unterstützt durch Algorithmen, verschwimmen die Grenzen zwischen der Öffentlichkeit und der Privatsphäre noch stärker. Zunächst sammeln die sogenannten Algorithmen zur integrierten Empfehlung zuerst Daten über die privaten Präferenzen der Nutzer. Ob es sich um Ihre privaten Interessen, Ihre Interaktionen mit Freunden, Ihre Browsing-Verlauf, oder sogar Ihre "Likes" und "Shares" handelt, alles wird als Nahrung für die Algorithmen verwendet. Das Ergebnis ist, dass private Handlungen der Individuen in den öffentlichen oder halböffentlichen Inhaltsstrom projiziert werden.

Zweitens war das soziale Netzwerk in der Web 2.0-Zeit erst in den Anfängen. Mit seiner Expansion hat es die Algorithmen zur Empfehlung mit sich gebracht. Noch wichtiger ist, dass auch kommerzielle Aktivitäten dazugekommen sind. Soziale Interaktion und kommerzielle Aktivitäten sind miteinander verknüpft. Das beste Beispiel dafür sind Kurzvideos und Live-E-Commerce. Alle Ihre Handlungen dienen nicht nur Ihrer persönlichen sozialen Interaktion, sondern auch der Plattform für die Generierung von Traffic und der Vermarktung von Werbung. Ihre privaten Präferenzen gehören nicht nur Ihnen selbst, sondern werden auch Teil der Wertschöpfung der Plattform. Das bedeutet, dass die Aufmerksamkeit der Menschen handelbar wird.

(Bild/pexels)

Das Schreckliche daran ist, dass wir aufgrund der zunehmenden Einbettung von Technologie machtlos sind. Manchmal fühlen wir sogar, dass es uns bequem ist und gewöhnen uns daran. Wenn man sich aber mal Gedanken darüber macht, wird man feststellen, dass alle Ihre Informationen vollständig öffentlich geworden sind. Beispielsweise hat das Problem der Privatsphäreinvasion durch Large Language Models bereits ans Licht gekommen, aber alles ist erst am Anfang.

"New Weekly": Die Datensammlung von Large Language Models und die Anpassung von Algorithmen an die individuellen Präferenzen machen die Menschen immer "bequemer". Bringt dies in der Folge zu Konflikten zwischen verschiedenen Gruppen? Beispielsweise wird in den letzten Jahren der geschlechtliche Konflikt im Internet immer stärker. Steckt hinter diesem Phänomen die Förderung von Algorithmen?

Hu Yong: Mein Buch "Der Lärm der Stimmen" hat den Untertitel "Persönliche Äußerungen und öffentliche Debatten in der Netzzeit". Technologie bringt unvermeidlich Veränderungen auf individueller und gruppenbezogener Ebene mit sich. Verschiedene Gruppen bilden sich zu Kreisen, die miteinander in Konflikt geraten können. Innerhalb dieser Kreise wird die Homogenität durch Mechanismen wie den "Echo-Chamber-Effekt" und die "Filterblase" verstärkt. In der Soziologie werden diese Gruppen als "In-Gruppen" und "Out-Gruppen" bezeichnet. Algorithmen zur Empfehlung können die Polarisierung der In-Gruppen und die Aggression der Out-Gruppen verstärken.

(Bild/pexels)

Nehmen wir die Plattform Xiaohongshu als Beispiel, auf der es viele weibliche Nutzer gibt. Viele Frauen setzen bestimmte Tags, um einen freien und belastungsfreien Kommunikationsraum zu schaffen, um sich vor dem sogenannten "männlichen Blick" zu schützen oder eine Art Barriere aufzubauen. So wird eine In-Gruppe gebildet. Der Vorteil der In-Gruppe ist, dass die Mitglieder eine ähnliche Weltanschauung, Lebensordnung und Intimität teilen. Aber der Preis dafür ist, dass die Vorurteile gegenüber der Out-Gruppe immer stärker werden. In einigen Fällen werden Menschen sogar mit dem Vorwurf des "Männerhasses" belegt. Dies sind die beiden Seiten einer Medaille.

Man kann sagen, dass in der von Algorithmen geschaffenen Informationsblase das Phänomen "Gleichgesinnte suchen sich" noch stärker wird. Heutzutage kann man sogar beobachten, dass verschiedene Gruppen verschiedene Plattformen nutzen. Auf Plattformen, die hauptsächlich von männlichen Nutzern frequentiert werden, wird viel über Themen wie "hohe Mitgift" und "Frauenrechtsradikalismus" diskutiert, während auf Plattformen mit einer hohen Anzahl von weiblichen Nutzern Themen wie "Pferchmann" und "Playboy" große Aufmerksamkeit erregen.

Abschied von der unschuldigen Zeit: Einige Menschen "kämpfen gegen die Algorithmen"

"New Weekly": Aus kommunikationswissenschaftlicher Perspektive: Welche Gründe liegen hinter der Sucht von Nutzern nach den durch Algorithmen empfohlenen Inhalten? Kann man "gegen die Algorithmen" vorgehen?

Hu Yong: Bei unserer Studie über Douyin-Nutzer haben wir festgestellt, dass viele Menschen beim Anschauen von Kurzvideos in einem "immersiven Zustand" sind. Dies ist einerseits das Ergebnis der technischen Gestaltung. Beispielsweise sind die Videos kurz, haben oft eine auffällige Story und erfordern, dass der Nutzer manuell zum nächsten Video springt, sonst wird das Video endlos wiederholt. Andererseits hängt dieser immersive Effekt auch von den Nutzungsgewohnheiten der Nutzer ab. Die Befragten haben Douyin nicht genutzt, weil sie "etwas tun wollten", sondern weil sie "etwas nicht tun wollten" oder "nicht wussten, was sie tun sollten". Dies ist eine Art von "aktivem Passivität". In diesem Zustand machen die allgegenwärtigen audiovisuellen Reize den Menschen den Eindruck, dass sie neue Dinge entdecken, und so scrollen sie immer weiter.

(Bild/pexels)

Der Kern des "Kampfes gegen die Algorithmen" besteht darin, diesen Zustand zu verlassen und die Algorithmen wieder zu einem Werkzeug zu machen, das nur Ihre Hauptbedürfnisse befriedigt. Ich rufe nicht dazu auf, die Technologie abzulehnen, sondern möchte die Art und Weise, wie Individuen mit Informationen interagieren und die Kontrolle über Algorithmen verbessern. Ich verstehe dies als "Umkehrung der technischen Einbettung". Selbst wenn wir nicht gegen die Plattformen gewinnen können, weil ihre Macht über uns überwältigend ist, heißt das nicht, dass wir völlig machtlos sind.

"New Weekly": Wenn ich an das "Kämpfen gegen die Algorithmen" denke, erinnere ich mich, dass ich, wenn ich sah, dass meine Mutter Kurzvideos mit Betrugsinformationen für ältere Menschen ansah, "Dislike" klicke. Auch andere Menschen wählen bewusst andere Inhaltskategorien oder verwenden verschiedene Schlüsselwörter, um die "Intelligenz" der Algorithmen zu verwirren. Gibt es noch andere Tipps von Ihnen?

Hu Yong: Das "Kämpfen gegen die Algorithmen" zeigt sich zunächst in Verhaltensweisen. Die Beispiele, die Sie genannt haben, sind alle Wege, um die Dominanz der Algorithmen zu schwächen. Ich möchte aus meiner eigenen Erfahrung einige andere Aspekte hinzufügen. Beispielsweise nutze ich verschiedene Wege, um Informationen zu erhalten. Neben verschiedenen bezahlten Abonnements und aktivem Lesen bin ich seit langem ein treuer Nutzer von Suchmaschinen. Obwohl viele Menschen denken, dass Suchmaschinen seit der Entstehung von Large Language Models ersetzt werden können, halte ich die Informationen, die Suchmaschinen liefern, für qualitativ höherwertig.