StartseiteArtikel

Ich habe mit KI einen Bettler generiert und meinen Vater getäuscht. Am Ende hat er die Spezialeinheit angerufen.

未来人类实验室2025-11-27 14:17
Denken Sie über die Konsequenzen nach, bevor Sie einen Streich spielen.

 

Denke über die Konsequenzen nach, bevor du einen Streich machst

 

 

Ein Obdachloser kommt nach Hause

„Papa, da ist ein Obdachloser vor der Tür und sagt, er kenne dich.“

Joe schickt seinem arbeitenden Vater ein Foto, auf dem ein bärtiger, unbekannter Mann vor der Tür steht. Der Vater sagt, dass er diesen Mann nicht kennt. „Was will er?“

„Er sagt, ihr seid früher zusammen zur Schule gegangen. Ich habe ihn herein gelassen.“ Danach schickt Joe seinem Vater noch weitere Fotos, auf denen der vermeintliche Obdachlose im Kühlschrank herumwühlt, sich mit Papas Zahnbürste die Zähne putzt und sogar im Bett von Papa schläft...

Der Vater ruft ihn wie ein verrückter an, aber Joe will nicht abnehmen. Der Vater ist offensichtlich in großer Panik. „Nehme den Anruf an! Ich kenne ihn nicht!“

In dem Video, das aus den SMS-Nachrichten als Bildschirmaufzeichnung gemacht wurde, ist zu sehen, dass Joe's Vater ihm in nur 3 Minuten 21 Anrufe gemacht hat und sogar die Polizei rufen will.

Danach stellt Joe dieses Video auf TikTok ein, und es wird schnell viral. Bisher hat es fast 920.000 Aufrufe.

● Video von TikTok-Nutzer mmmjoemele

Seit Oktober hat sich eine Streichwelle namens „AI-Obdachloser kommt nach Hause“ auf sozialen Medien wie TikTok schnell verbreitet.

Das Video mit den SMS-Nachrichten, das Joe hochgeladen hat, ist eines der ersten Videos dieser Welle. Die meisten Creator sind Jugendliche. Sie nutzen AI-Bildgeneratoren wie Snapchat und Nano banana, um Bilder von vermeintlichen Obdachlosen im Haushalt zu erstellen, schicken sie an ihre Eltern und machen eine Bildschirmaufzeichnung ihrer panischen Reaktionen. Anschließend stellen sie diese Videos auf sozialen Medien ein. Diese Posts bekommen schnell viele Aufrufe. In den Kommentaren gibt es neben einigen besorgten Kommentaren vor allem Kommentare wie „So echt! Hahaha“ und „Wie hast du das gemacht?“

Bisher gibt es auf TikTok unter dem Hashtag #homelessmanprank über 1.600 Videos, die jeweils hunderte von Tausenden Aufrufe haben. Die Eltern glauben die Streicher und werden panisch, aber die Netizens machen weiter Sticheleien und sogar Tutorials.

● #homelessmanprank 

Diese Welle hat sich dann auch auf andere soziale Medien wie Snapchat und Instagram ausgeweitet. Selbst in chinesischen Communities wie Douyin und Xiaohongshu gibt es inzwischen ähnliche Videos und Sticheleien. AI-Sticheleien breiten sich von Übersee nach China aus.

 

„Harmless prank“

Anfangs hielten die Netizens diesen Streich für harmlos, aber nur, wenn niemand wirklich verletzt wird.

Aber wenn der Streich immer größer wird und die Eltern die Polizei rufen, wird die Situation anders.

Eine Meldung von The Verge zeigt, dass das Problem von „lustig“ zu „gefährlich“ wird, wenn die Eltern tatsächlich die Polizei rufen. Wenn die Polizei von einem Einbruch in einem Haus erfährt, insbesondere wenn Kinder involviert sind, wird der Fall als hochpriorisiert eingestuft, und es können große Polizeikräfte eingesetzt werden. Der Kommandant der Round Rock Polizeistation, Andy McKinney, sagte in einem Interview mit NBC, dass ein solcher Streich sogar dazu führen könnte, dass die Spezialeinheiten (SWAT) alarmiert werden.

Zur gleichen Zeit wird diese Welle auch in chinesischen sozialen Medien übernommen und „chinesisiert“.

● Screenshot der Suche auf Douyin

Wenn man auf Douyin nach „AI-Obdachloser“ sucht, findet man viele Stichvideos, die mit AI-Tools wie Doubao erstellt wurden. „Ich hab mich langweilt und mit AI einen Obdachloser gemacht, um meine Eltern/Großeltern/Zimmerkollegen zu verarschen...“ ist inzwischen ein Magierwort für viele Zuschauer.

Ein Nachahmungsvideo mit dem Titel „Was passiert, wenn ich meinen Vater mit einem AI-Obdachloser verarschen“ #Sticheleien an Eltern hat über 400.000 Likes. Im Video ist wieder eine Bildschirmaufzeichnung von einer Unterhaltung zwischen Vater und Sohn. Der 28-jährige Sohn schickt seinem Vater eine WeChat-Nachricht: „Da ist jemand vor der Tür und sagt, er sei dein entfernter Vettersmann.“ Dann schickt er ein Foto eines Obdachlosen vor der Tür.

● Screenshot des Douyin-Videos

Der Vater schickt sofort eine Sprachnachricht: „Ich habe keinen entfernteren Vettersmann. Sag ihm, er soll weg!“ Dann schickt der Sohn mehrere Fotos des Obdachlosen, genau wie in den TikTok-Videos. Am Ende rennt der Vater mit einem Besen nach Hause und schreit: „Wo ist er!“ Als er sieht, dass es außer seinem Sohn keinen Obdachlosen gibt, erklärt der Sohn schnell: „Ich hab dich nur verarschen wollen.“ Der Vater rennt mit dem Besen auf den Sohn zu, und das Video endet mit dem Lachen und Flehen des Sohnes.

● Screenshot des Douyin-Videos

Die Netizens im Kommentarbereich lachen sich schief und stellen auch ihre eigenen Fotos von „AI-Obdachlosen“ im Haushalt ein. Aber hinter dem Lachen äußern einige Netizens auch Zweifel und Sorgen.

Ein Netizen kommentiert: „Die Entwicklung der AI macht mich ein bisschen Angst. Ich habe das Gefühl, dass ich auch in meinen alten Jahren von Bösewichten mit AI getäuscht werden könnte.“ Dieser Kommentar hat fast 9.000 Likes.

Ein anderer Netizen postet einen Screenshot und schreibt: „Gestern Abend habe ich die Polizei gerufen, als ich die Nachricht von meinem Kind sah. Ich habe sogar über die Provinzgrenzen hinweg die 110 angerufen. Als ich dann herausfand, dass es ein Streich war, habe ich sofort die 110 wieder angerufen und erklärt, was passiert ist. Aber es war zu spät. Die örtliche Polizei war bereits ausgerückt, es kamen vier oder fünf Polizeifahrzeuge. Danach habe ich ständig Anrufe von der Polizei bekommen und musste ständig entschuldigen. Die Polizei hat mein Kind auch richtig angemacht. Verdammte AI-Materialien.“

● Screenshot des Kommentarbereichs eines Douyin-Videos

 

Eine Reihe von Problemen durch den Missbrauch von AI-generierten Inhalten

In letzter Zeit gibt es immer mehr Probleme aufgrund von AI-generierten Inhalten. Beispielsweise musste kürzlich Deloitte, ein Beratungskonzern, der australischen Regierung Schadensersatz zahlen.

Deloitte, ein riesiger Spieler in der Beratungsbranche, hat einen Bericht im Wert von 440.000 australischen Dollar für die australische Regierung verfasst. Dabei wurde festgestellt, dass der Bericht falsche Quellenangaben und erfundene Gerichtsentscheidungen enthält. Nachdem dies von einem Wissenschaftler der Universität von Sydney aufgezeigt wurde, hat Deloitte zugegeben, dass es bei der Erstellung des Berichts generative AI-Tools wie Azure und OpenAI GPT-4o verwendet hat. Das Unternehmen hat den Bericht aktualisiert und die unrichtigen Inhalte entfernt.

Noch früher, im Juli, hat ein junger Mann aus dem Rechtsstudium an der Universität von Hongkong ohne Zustimmung anderer Personen mit einer AI-Software über 700 unanständige Fotos von 20 bis 30 Frauen (einschließlich seiner Kommilitonen, älteren Studienkolleginnen, Freunde, Schulkameraden und seiner Lehrerin) erstellt. Die Entscheidung der Universität, dem Schuldigen eine Verwarnung zuerteilen und ihn auffordern, sich bei den betroffenen Personen zu entschuldigen, wird kritisiert.

Im gleichen Monat hat die Zeitung The Guardian berichtet, dass die Anzahl von kinderpornografischen Inhalten, die mit Künstlicher Intelligenz erstellt wurden, auf ein beispielloses Niveau gestiegen ist. Laut einer neuen Untersuchung der Internet Watch Foundation (IWF) ist die Anzahl von AI-generierten Videos von sexueller Misshandlung von Kindern um 400 % gestiegen. Im ersten Halbjahr 2025 wurden 1.286 Videos verifiziert, im Vorjahr waren es nur 2. Die Anzahl von online generierten Misshandlungsmaterialien steigt rapide an.

● Zugehörige Berichte

Seit Anfang dieses Jahres hat die chinesische Internet-Entmystifizierungsplattform mehrmals gemeldet, dass das Phänomen des„ Lügens und des Störens der Öffentlichkeit mit AI“ immer stärker zunimmt. Vom Erfinden von Bränden, Fälschen von Zitaten berühmter Personen bis hin zum Manipulieren von Nachrichtenbildern wird AI immer mehr zum „Alleskönner“ für die Schaffung von Falschinformationen. Die Internetbehörden haben daraufhin eine spezielle Kampagne gestartet, um die Missbräuche zu bekämpfen. Sie verlangen, dass alle AI-generierten Inhalte eindeutig als solche gekennzeichnet werden, und ziehen Missbraucher zur Verantwortung.

In den USA, wo diese Welle ihren Anfang genommen hat, ist die Aussage der Polizei von Salem, Massachusetts, noch direkter: „Ein solcher Streich entmenschlicht die Obdachlosen, bringt die Opfer in Panik und verschwendet Polizeikräfte. Die Polizei weiß nicht, dass es ein Streich ist und behandelt den Anruf als echten Einbruch, was zu gefährlichen Situationen führen kann. Denke über die