Die Videoserie "Hase auf der Trampolin" hat über 500 Millionen Aufrufe. Das am meisten beliebte künstliche - Intelligenz - Video im gesamten Netz ist das Ergebnis der menschlichen Neigung, getäuscht zu werden.
Ein Video, das wie eine Nachtüberwachungsszene von „Hasen auf einem Trampolin“ aussieht, ist auf TikTok viral geworden und hat weltweit 500 Millionen Aufrufe erreicht.
Das Video scheint von der Sicherheitskamera einer Familie aufgenommen worden zu sein. Das Licht ist trüb, das Bild unscharf, aber es fängt perfekt mehrere Hasen ein, die nacheinander springen, als ob sie eine Nachtshow geben würden.
Der Titel des Videos lautet: „Ich habe gerade die Heimüberwachung überprüft. Ich denke, es sind einige Gäste in unserem Hinterhof! @Ring“.
Die unscharfe Qualität des Überwachungsvideos und die scheinbar feiernden Hasen haben schnell die Aufmerksamkeit der Menschen erregt. Dieses süße und zugleich etwas authentische Bild hat die Menschen fasziniert.
Screenshot der Videodaten. Das Video hat auf TikTok 25 Millionen Likes erhalten.
Der Prominent @Greg, der auf der sozialen Medienplattform X Millionen von Followern hat, kommentierte auch: „Ich habe nie gemerkt, dass ich eine Gruppe von Hasen auf einem Trampolin brauche, bis heute.“
Allerdings ist diese Süße falsch. Die Hasen im Video existieren nicht in Wirklichkeit. Man hat herausgefunden, dass es ein künstlich-intelligentes (KI) generiertes Video ist.
Zwischen der 5. und 6. Sekunde verschwindet plötzlich der Hase in der linken oberen Ecke. Beim zweiten Ansehen fallen die merkwürdigen Details auf.
Im Gegensatz zu den meisten „KI-Fehler“-Videos wurde dieses Video von fast niemandem sofort als gefälscht erkannt. Selbst junge Menschen, die viel Videos schauen, riefen: „Verdammt, ich bin tatsächlich herein gefallen.“
Dies ist keine Schwindelei, sondern eher eine kleine soziale Medienkatastrophe: Es ist nicht, dass „wir herein gefallen sind“, sondern dass „wir es sogar gerne zulassen“.
Es sieht so unscharf aus wie es sein soll, aber es täuscht genau richtig
Das KI-Video hat die Menschen erfolgreich täuschen können, nicht so sehr, weil die KI-Video-Generierungstechnologie perfekt ist, sondern weil es „genau richtig täuscht“.
Es nutzt präzise unsere festen Vorstellungen von Überwachungsvideos und trifft die beliebtesten Trends, die uns dazu bringen, unsere Abwehr zu lassen.
Die unscharfe Nachtbildqualität und der statische Hintergrund verdecken genau die Schwächen der KI
Wir sind es gewohnt, dass Nachtüberwachungsaufnahmen unscharf, dunkel und mit Rauschen versehen sind. Diese vorgefasste Meinung schützt perfekt die technischen Mängel des KI-Videos, wie etwa die Probleme mit der Bewegungsflüssigkeit, den Schatten Details und der Dynamik des Hintergrunds.
Wenn das Video als „Nachtüberwachungsaufnahme“ erscheint, ist die schlechte Bildqualität eher ein Tarnmittel, das die Lücken in der Wirklichkeitssimulation verdeckt.
Außerdem, obwohl einige KI-Video-Generierungsmodelle bei der Verarbeitung des Vordergrundsobjekts bereits sehr gut sind, wirkt die Renderung des Hintergrunds oft sehr überrealistisch.
Da der Hintergrund in diesem Video statisch ist, wird ein weiteres technisches Problem für die KI umgangen.
Der Text mit „@Ring“ erhöht die Glaubwürdigkeit der Quelle
Der Video-Uploader hat klugerweise die Marke der Heimüberwachungskamera „Ring“ in den Titel gesetzt. Dadurch scheint die Quelle des Videos vertrauenswürdig und realer.
Ring ist ein intelligentes Sicherheitssystemunternehmen.
Dieses kleine Detail erzeugt den Eindruck, dass das Video von der Türsprechkamera einer anderen Familie aufgenommen wurde. Menschen klassifizieren es automatisch als „Lebensaufzeichnung“ statt als „künstlerische Arbeit“.
„Tiere treiben Nachts Schabernack“ ist ein akzeptierter Meme unter Internetnutzern
Zahlreiche viral gewordene Videos haben uns dazu gebracht, dass wir solche Szenen als real annehmen. Katzen essen Nachts Nudeln, Waschbären stürmen Nachts einen Pool und Kojoten spielen auf einem Trampolin. Tiere neigen dazu, wenn die Menschen weg sind, etwas zu unternehmen. Ein Hase auf einem Trampolin scheint also ganz normal.
Das Wichtigste: Es ist einfach zu süß! Wer würde so eine sanfte Szene in Zweifel ziehen? Wenn ein Inhalt süß und leicht genug ist, neigen wir dazu, ihm zu vertrauen.
Obwohl der plötzliche Verschwinden des Hasen in der linken oberen Ecke das KI-Generierte offenbart, wird dieser Moment von den meisten Kurzzeitvideo-Betrachtern übersehen.
Während das Hasen-Trampolin-Video die Aufmerksamkeit auf sich zog, teilte Elon Musk auch die erstaunlichen Fortschritte der KI-Video-Technologie.
Vor 10 Tagen dauerte es 60 Sekunden, um ein 6-Sekunden-Video zu rendern. Dann ging es auf 45 Sekunden, dann auf 30 Sekunden und jetzt ist es auf 15 Sekunden gesunken.
Diese Woche werden wir es vielleicht sogar auf weniger als 12 Sekunden bringen können.
Er sagte auch, dass die Echtzeit-Video-Renderungstechnologie in 3 bis 6 Monaten möglich sein könnte.
Screenshot von Elon Musks X-Post
Dies bedeutet, dass die Fehler wie das „verschwindende Hase“ in einigen Monaten kaum noch zu erkennen sein werden.
Wenn KI-Videos technisch fehlerfrei sind, ist es sinnlos, darüber zu diskutieren, wie man zwischen echt und gefälscht unterscheiden kann.
Wir müssen unser Augenmerk daher von der Technologie selbst auf die Kernfrage lenken.
Es ist nicht die KI, die uns täuscht und in Rausch bringt
Nachdem die Wahrheit über das Video bekannt wurde, fühlten sich viele Nutzer wie wenn ihr Glaube zerbrochen wäre.
Ein TikTok-Nutzer sagte: „Dies ist das erste KI-Video, das ich für echt gehalten habe. Wenn ich alt bin, bin ich verloren.“ Ein anderer Nutzer meinte: „Jetzt denke ich, dass ich in Zukunft ein solcher altes, leicht täuschter Mensch sein werde.“
Diese Stimmungswende von Selbstvertrauen zu Panik ist ein neues Netzwerkphänomen geworden.
Wenn wir das Problem nur auf die „zu schnelle Entwicklung der KI“ oder die Tatsache, dass „wir zu leicht hereinfallen“, zurückführen, übersehen wir möglicherweise die tieferen Gründe. Der Kern dieser Angelegenheit liegt vielleicht nicht in der KI-Technologie selbst, sondern in der Funktionsweise der sozialen Medienplattformen.
Wenn wir uns die Kommentare zum Video ansehen, sehen wir, dass die Reaktionen der Menschen im Kommentarfeld fast immer dem gleichen Muster folgen.
Screenshot von einigen TikTok-Kommentaren
Zuerst: „Oh mein Gott, das ist so süß!“
Dann: „Warte mal, das scheint nicht richtig zu sein?“
Als nächstes: „Bin ich herein gefallen? Verdammt, werde ich ein altes, leicht täuschter Mensch?“
Und schließlich: „Aber … ich kann es nicht übel nehmen.“
Wir entwickeln eine neue Art von „Interaktionslogik“ mit KI-Videos.
Wir glauben nicht völlig an die Videos, sondern wir akzeptieren, dass sie möglicherweise gefälscht sind. Aber wir nehmen gerne teil, geben Likes und teilen sie mit Freunden, als ob es ein Spiel wäre.
Das Empfehlungssystem der Kurzzeitvideo-Plattform
Und die Algorithmen der Plattformen verstehen diese psychologische Struktur sehr gut.
In diesem Prozess spielt die Frage, ob das KI-Video echt oder gefälscht ist, keine zentrale Rolle. Es ist eher eine Teilnahmebedingung: Hast du es verstanden? Kannst du es unterscheiden? Bist du herein gefallen?
In den letzten zwei Jahren, seit der KI-Explosion, haben wir immer wieder darüber nachgedacht, dass KI-Videos und Bilder so echt aussehen, dass wir uns Sorgen machen, dass wir leichter von gefälschten Informationen täuschen lassen werden.
Allerdings ist die virale Verbreitung des „Hasen-Trampolin“-Videos nicht nur auf die „Täuschungskraft“ der KI-Technologie zurückzuführen, sondern auf das Bedürfnis der menschlichen Zuschauer, getäuscht zu werden.
Viele dieser Netizens sind nicht nur passiv herein gefallen, sondern haben auch aktiv und stillschweigend an einem Kollektivspiel namens „so tun als ob man glaubt“ teilgenommen.
Der Star dieser Feier ist nicht die KI, sondern die Menschen selbst.
Es war genau der „flüchtige“ Fehler des verschwindenden Hasen, der die Angelegenheit zu einem Netzwerkspiel namens „Fehler finden“ gemacht hat. Wenn das Video perfekt wäre, würde es wahrscheinlich schnell von anderen Videos überschwemmt werden.
Der Film „Das Geheimnis des Magiers“
Genau wie Zuschauer wissen, dass Magier sie täuschen, aber sie genießen die intellektuelle Herausforderung, dass sie wissen, dass es gefälscht ist, aber dennoch den Fehler nicht finden können.
Der „Fehler“ des KI-Hasens ist der Moment, in dem der Zauber entlarvt wird. Dies bringt alle Menschen zum Diskutieren und treibt die Verbreitung an.
Mängel schaffen Kontroversen, und Kontroversen treiben die Teilnahme an. Die Echtheit des Videos spielt keine Rolle mehr. Die daraus entstehenden Verwirrung und Diskussionen sind die Garantie für die Popularität.
Diese Selbstironie von „Ich bin auch herein gefallen“ verkürzt schnell die psychologische Distanz zwischen den unbekannten Netizens und schafft ein Gemeinschaftsgefühl von „Wir sind alle leicht täuschte Menschen“. Die soziale Bindung, die aus der „gemeinsamen Täuschung“ entsteht, hat einen höheren sozialen Wert als die Echtheit des Videoinhalts selbst.
Es wäre ideal, wenn wir lernen könnten, den Spaß an solchen „gefälschten Inhalten“ bewusst zu genießen und gleichzeitig einen klaren Verstand zu bewahren. Aber das ist für die meisten Menschen wahrscheinlich nicht einfach.
Die potenzielle Gefahr liegt nicht nur in der Fähigkeit der KI, echt auszusehen, sondern auch darin, wenn diese „Kollektivtäuschung“ zu böswilligen Zwecken eingesetzt wird, wie etwa die Herstellung von Gerüchten oder Schwindeleien. Wir müssen lernen, die „Absicht“ der Informationen zu erkennen, nicht nur die „Echtheit“ zu beurteilen.
Wir sollten uns öfter fragen: Was will dieser Inhalt mich fühlen lassen? Was will es letztendlich von mir?
Dieser Artikel stammt aus dem WeChat-Account „APPSO“, geschrieben von APPSO, der die Produkte von morgen entdeckt. 36Kr hat die Veröffentlichung mit Genehmigung erhalten.