Verrückt! Diese Leute nutzen KI zum Bildmanipulieren, um Waren zurückzugeben und die Händler zu betrügen. Sollte die AIGC reguliert werden?
In modernen Zeiten werden gefälschte Bilder immer realistischer. Die Vielfalt an echten und unechten Inhalten lässt uns unweigerlich bezweifeln, dass das Sprichwort „Siehe, und glaube“ bald Geschichte sein wird.
Zum Glück hat in den meisten Fällen die Fähigkeit, zu erkennen, ob ein Bild von Künstlicher Intelligenz (KI) erstellt wurde, keine wesentlichen Auswirkungen auf unser Leben. Die meisten Bilder im Internet betrachten wir nur kurz und vergessen sie dann schnell.
In den letzten Tagen haben einige Bilder, die im Internet viral gingen, gezeigt, dass einige Menschen bereits versuchen, mit KI-generierten Bildern Geld zu erpressen. Eine Vielzahl von Händlern haben in sozialen Medien angegeben, dass sie Kunden hatten, die KI-generierte Bilder für „Nur Rückerstattung“-Anfragen genutzt haben. Diese Kunden haben mit KI-Tools wie Doubao gefälschte Bilder erstellt, die anzeigen, dass die gekauften Produkte Mängel haben. Selbst nachdem ihre Tricks mehrmals aufgedeckt wurden, haben sie weiterhin bis zur manuellen Prüfung gedrängt, um die Rückerstattung zu erhalten. Dies hat den Händlern und Plattformen viel Ärger bereitet.
(Quelle: Weibo)
Nachdem dieses Video in sozialen Medien geteilt wurde, hat es eine breite Diskussion unter E-Commerce-Betreibern ausgelöst. Wird die Einführung von AIGC in den Bereich der „Nur Rückerstattung“ die Regeln verwischen? Wie können wir ein Gleichgewicht zwischen Technologie und Regeln herstellen?
Von Photoshop zu KI
Kürzlich hat der Blogger @Caibaobao ein Video geteilt.
Ein Händler, der ein „Schuhrand-Entschwärzer“ verkauft hat, wurde von einem Kunden zur „Nur Rückerstattung“ aufgefordert. Angesichts der Befürchtung, dass der Kunde die Qualitätsprobleme gefälscht hat, hat der Händler verlangt, dass der Kunde ein Video des Produktzerstörens hochlädt, bevor die Rückerstattung erfolgt. Dies ist eine übliche Vorgehensweise.
Was dann passierte, war eher amüsant. Im Video, das der Kunde bereitstellte, hielt sie das Produkt mit der rechten Hand und war im Begriff, es in den Mülleimer zu werfen. Plötzlich erschien eine zweite rechte Hand, und beide Hände warfen das Produkt zusammen in den Mülleimer.
(Quelle: Bilibili)
Natürlich war dies nur der offensichtlichste Fehler im gesamten Video.
Wenn man genau hinsieht, kann man im Video auch bemerken, dass der Hintergrund sich mit den Bewegungen des Kunden ändert, die Kameraführung zu glatt und regelmäßig ist und der „Schuhrand-Entschwärzer“ im Mülleimer aufrecht steht, obwohl er schräg hineingeworfen wurde.
„Das gesamte Video riecht stark nach KI“, sagte der Händler.
Dieses Video hat in der E-Commerce-Branche breites Interesse geweckt. Fachleute haben ihre eigenen ähnlichen Erfahrungen in ihren Geschäften geteilt.
Einige Händler haben berichtet, dass sie Kunden hatten, die für denselben Becher Rückerstattung beantragt haben, aber die Bilder der beschädigten Ware an verschiedenen Stellen zeigten. Andere Händler haben erzählt, dass sie neue Kleidungsstücke hatten, die offensichtlich künstlich zerrissen waren, und sogar an Früchten waren die Schimmelpilzflecken offensichtlich gefälscht.
(Quelle: Bilibili)
Nach dem Ende der „Rückgabe ohne Begründung“-Regel scheinen einige Verbraucher, die früher gerne die Rückerstattungsregeln missbrauchten, eine neue Möglichkeit gefunden zu haben.
„Seht mal, ganz unten rechts steht sogar 'Doubao KI-generiert'.“ sagte ein anderer Händler in einem hochgeladenen Video. Interessanterweise haben die Kunden, nachdem er darauf hingewiesen hat, dass sie KI-generierte Bilder benutzt haben, die Bilder zurückgezogen, die Wasserzeichen beschnitten und die Bilder erneut gesendet. Dies hat ihn sehr irritiert.
Die Frage ist, wie niedrig die Schwelle ist, um mit KI Bilder zu bearbeiten?
Ich habe als Beispiel ein Foto einer Banane genommen und die Anforderung gestellt, dass die Banane schimmelig und mit Flecken sein soll, aber sonst unverändert. Innerhalb weniger Sekunden haben große KI-Modelle wie Doubao und Tencent Yuanbao relativ realistische Bilder generiert. Man kann sagen, dass die Schwelle praktisch nicht existiert.
(Quelle: Lei Technology)
Vor der Entstehung von AIGC gab es bereits ähnliche Fälle von Fälschung von Bildern für „Nur Rückerstattung“-Anfragen.
Damals mussten die Betrüger relativ komplexe Techniken beherrschen. Die meisten von ihnen mussten über Kenntnisse in Bildbearbeitungssoftware wie Photoshop verfügen und Fähigkeiten in der Verwendung von Ebenen, Masken, Stempeln und sogar die Fähigkeit, EXIF-Informationen zu manipulieren.
Diese technische Schwelle hielt die meisten potenziellen Betrüger davon ab, Betrugsversuche zu starten. Die Häufigkeit und der Umfang von Betrugsversuchen waren stark eingeschränkt, und es konnte keine industrielle schwarze Kette entstehen.
Heute, mit der Unterstützung von KI, ist der gesamte Prozess auf „Bild hochladen - Anforderung stellen - Bild herunterladen“ reduziert.
Ohne diese Schwelle ist die E-Commerce-Plattform wie ein dunkler Wald.
KI-Inhalte täuschen mit Fälschungen
Tatsächlich gibt es seit der Entstehung des Begriffs AIGC kontinuierliche Kontroversen.
Anfangs handelte es sich hauptsächlich um Urheberrechtsstreitigkeiten. Große KI-Modelle werden durch das Sammeln und Verarbeiten einer riesigen Menge an Internetdaten trainiert. Diese Datensätze enthalten unzählige Texte, Bilder und Codes, die urheberrechtlich geschützt sind. Deshalb gibt es bis heute große juristische Streitigkeiten darüber, ob die von AIGC generierten Inhalte als „abgeleitete Werke“ gelten und wer das Urheberrecht daran hat - der Modelentwickler, der Benutzer oder der ursprüngliche Schöpfer der Datenquellen.
Zum Beispiel war das „Ghibli-Style“ zu Beginn dieses Jahres sehr beliebt.
(Quelle: X)
Schauen Sie sich das folgende Bild an. Es ist ein Werk, das im Stil des Künstlers „Lei“ gemalt wurde.
(Quelle: QQ)
Die von KI-Modeln generierten Bilder, die durch das Lernen von Millionen von Bildern entstehen, unterscheiden sich in den Pixeldaten von jedem einzelnen Originalbild. Dennoch gibt es offensichtliche Ähnlichkeiten in Stil, Aufbau und Elementen. Diese Unklarheit stellt eine direkte Herausforderung an die bestehende geistige Eigentumsrechtsordnung dar, insbesondere an die Definitionen von „Schöpfung“ und „Kopie“.
Am ironischsten ist, dass der ursprüngliche Künstler „Lei“, dessen Stil kopiert wurde, sogar positive Äußerungen über AIGC gemacht hat.
(Quelle: Weibo)
Mit der Reife der Technologie fließen immer mehr AIGC-Inhalte in die Medienbranche.
Zu Beginn dieses Jahres hat in Dingri County, Tibet, ein Erdbeben der Stufe 6,8 stattgefunden. Viele Internetnutzer haben in sozialen Medien für die Opfer gebetet. Gleichzeitig sind auf einigen sozialen Medienplattformen viele KI-generierte gefälschte Bilder erschienen, wie dieses:
(Quelle: Xiaohongshu)
Selbst wenn diese Bilder von erfahrenen Nutzern sofort als gefälscht erkannt werden können, können sie dennoch Tausende von Weiterleitungen, Kommentaren und Likes erhalten.
Derartige Fälle sind nicht selten. Im Oktober 2024 musste das Disney World in Orlando, Florida, wegen eines Tornados, der vor dem Landfall eines Hurrikans aufgetreten war, geschlossen werden. Gleichzeitig haben Nachrichten über die Überflutung von Disney in sozialen Medien wie X viral gegangen und die Aufmerksamkeit vieler ausländischer Internetnutzer erregt.
(Quelle: X)
Als Journalist glaube ich, dass ich grundlegende Fähigkeiten habe, die Echtheit von Informationen zu beurteilen. Aber mit der breiten Anwendung von Technologie bin auch ich oft von der Unterscheidung zwischen wahr und falsch irritiert.
Für die normalen Menschen ist es noch schwieriger.
Heute, mit der Reife von KI-Videos, haben einige Menschen, die auf Kleinigkeiten bedacht sind, eine neue Möglichkeit gefunden, um Vorteile zu erzielen.
Seit dem Viralwerden des KI-basierten Lei Jun-Videos im vergangenen Jahr und den massiven Gesichtswechseln von Stars wie Jin Dong, Brad Pitt und Tom Cruise werden die gleichen Betrugsmaschen auch in China durchgeführt. Diese Methode funktioniert immer wieder, indem die Menschen glauben, dass sie mit berühmten Stars in Kontakt stehen.
(Quelle: Douyin)
Während viele berühmte Persönlichkeiten von diesen Betrugsversuchen geplagt werden, hat Deepfake ein Phänomen in der KI-Fälschungswirtschaft geworden.
Wie erkennt man KI-generierte Bilder?
Ehrlich gesagt mache ich mir Sorgen angesichts der Fähigkeit von KI, Bilder so realistisch zu gestalten, dass sie wie echte aussehen.
Aber anstatt nur zu sorgen, finde ich es wichtiger, einige Methoden zu kennen, um KI-generierte Bilder zu erkennen. Selbst wenn es schwierig ist, die Echtheit eines hochwertigen KI-generierten Bildes nur mit bloßem Auge zu bestimmen, können diese Methoden uns zumindest helfen, nicht völlig ratlos zu sein.
Die erste Methode ist die Quellensuche.
Wenn wir in sozialen Medien auf besonders beeindruckende Bilder stoßen, empfehle ich, dass wir zuerst die Bildersuchfunktion von Google nutzen, um die Herkunft des Bildes zu überprüfen. Heutzutage geben die meisten KI-Inhaltsersteller an, ob ein Bild KI-generiert ist. Dies ist die beste Methode, um in sozialen Medien, wo Informationen zweimal verteilt werden, die Echtheit von Bildern zu überprüfen.
Die zweite Methode ist die Bildanalyse.
Wir können nach kleinen Fehlern im Bild suchen, um seine Echtheit zu beurteilen. Beispielsweise können wir überprüfen, ob die Finger, Gelenke, Zähne und Blicke von Personen im Bild natürlich aussehen. Sind die Schatten einheitlich und natürlich? Gibt es ungewöhnliche Reflexionen oder Schatten?
<