Diese KI-Funktion zum Anprobieren von Kleidung hat meine impulsiven Einkäufe geheilt.
Jedes Mal, wenn man Kleidung online kauft, ist es eine Aktualisierung der Selbstwahrnehmung. Gerade ist ja die 618-Sonderaktion, was erneut das alte Sprichwort bestätigt: Wenn man sich die Käuferfotos ansieht, denkt man, man wäre wie Dongfang Bubai (eine berühmte Figur aus einer chinesischen Roman), aber wenn man die gekaufte Kleidung anzieht, sieht man eher wie eine Art "Verlierer 2.0" aus.
Gar nicht zu reden von der Passform. Niemand weiß, wie viel Mut ich aufbringen muss, um dem Kundenservice meine Größe und mein Gewicht zu nennen. Doch immer bekomme ich keine genauen Empfehlungen. "Liebe Kundin/Lieber Kunde, Sie sollten eine Größe größer nehmen." Na gut, ich kaufe einfach noch ein Exemplar in Größe XL...
Das nervigste ist der Retourenprozess. Wenn man es von der Seite des Händlers betrachtet, ist es auch ermüdend für ihn. Die Rückgaberegelung binnen sieben Tagen ohne Angabe von Gründen lässt viele Käufer die Möglichkeit ausnutzen und behandeln die Taobao-Shops wie Umkleidekabinen. Sie machen einfach ein Foto und geben die Ware zurück. Im Gegenteil sind wir, die immer Schwierigkeiten haben, passende Kleidung online zu kaufen, Angst, von den Händlern blockiert zu werden.
AI wird immer leistungsfähiger. Ich habe schon einige "AI-Kleiderwechsel"-Tools auf GitHub ausprobiert. Ich habe ein Foto von mir und ein Bild einer gelben Röcke hochgeladen und nach wenigen Sekunden voller Erwartungen ein Bild bekommen, auf dem ich eher wie eine "große gelbe Ananas" aussehe...
Neulich habe ich auf der Google I/O festgestellt, dass Google für den E-Commerce einen "Try On (Anprobieren)"-AI-Funktion entwickelt hat.
Das Ergebnis hat endlich etwas von einem AI-gestützten Maßschneider.
Eine Wohltat für die "Shopping-Addicts"
Die Schnittmuster von Kleidern sind wie Rezepte, und die Figur ist wie das Rohmaterial. Die Modelbilder sehen gut aus, die Linien sind glatt und die Hängigkeit ist perfekt. Das liegt daran, dass man das richtige "Rohmaterial" (also die passende Figur) für das "Rezept" (das Schnittmuster) hat.
Aber die Durchschnittsleute haben unterschiedliche Körpergrößen und -formen. Ob man gerade Schultern oder abfallende Schultern hat, ob die Brust und der Rücken breit oder schmal sind, ob die Taille hoch oder niedrig liegt - all diese körperlichen Details beeinflussen das Aussehen der angezogenen Kleidung.
An derselben Kleidung sieht ein dünner Mensch frisch und luftig aus, während ein stärkerer Mensch schwerfällig wirkt.
Das beeindruckt mich am meisten: Diese Funktion zeigt, ob die Kleidung in Bezug auf das Schnittmuster gut auf einer Person sitzt.
Raten Sie mal, welches der folgenden Bilder ein echt aufgenommenes Foto und welches ein künstlich erzeugtes Bild ist?
Antwort: Alle sind künstlich erzeugt.
Tiefe Farben machen dünner aus, weiße Farben machen füller aus. Die ausgebauchte Bierbauch und die Falten am Kleidungsrand, wenn man die Hände in die Taschen steckt, sehen sehr natürlich aus.
Sozusagen fühle ich mich in der Lage, mit den von dieser Funktion erzeugten Bildern ein Outfit-Blogger für Uniqlo auf Xiaohongshu zu werden.
Ein Reporter von How To Geek war nach dem Anprobieren via Try On sehr überrascht. Er sagte: "Ich habe ein Bild von mir mit langen Hosen hochgeladen, aber beim Anprobieren von Kurzshorts hat es sogar meine Unterschenkel gezeigt. Ich schwöre, es sah genau wie meine eigenen Unterschenkel aus. Ehrlich gesagt, hat es mich ein wenig gefreut."
Links: Nach dem Anprobieren Rechts: Originalbild | Quelle: How To Geek
"Das ist das erste Mal, dass ich denke, dass das AI-Anprobieren von Kleidung kein reiner Hype ist." Aus dem Beitrag eines Tech-Bloggers @MKBHD.
Leider ist die Try On-Funktion derzeit nur in der Beta-Phase und kann nur von Nutzern mit einer amerikanischen IP-Adresse und einem amerikanischen Google-Konto nach der Anmeldung bei SearchLabs genutzt werden.
Der tatsächliche Effekt der von Try On erzeugten Bilder unterscheidet sich von denjenigen der bisherigen "Kleiderwechsel"-Tools. Der Grund ist einfach: Beim Bildbearbeitungsprogramm werden vorhandene Ebenen übereinander gelegt, während Try On eine ganz neue Ebene von Grund auf erstellt.
AI-Maßschneider
Ich habe mich ein wenig in die technischen Details hinter Try On eingelesen.
Schritt 1: Gesichtserkennung
Zunächst basiert es auf einem hochpräzisen Segmentierungsmodell, um ein genaues "Gesichtsconturmodell" zu erstellen. Seine Multiskalen-Semantische-Segmentierungstechnik (multi-scale semantic segmentation) erkennt Haarsträhnen, Ohren, Zwischenräume zwischen den Fingern, die Richtung der Beine, die von der Kleidung verdeckten Bereiche... Selbst wenn Sie locker das Haar tragen, Ohrringe tragen oder ein Handy in der Hand halten, wird die AI die Grenzen berechnen und in der nachfolgenden Generierung berücksichtigen.
Schritt 2: Generative AI
Die von Try On erzeugten Simulationsbilder sehen nicht nur realer aus als die anderer ähnlicher Tools, sondern sind auch dreidimensional. Man kann nicht nur die Vorderseite, sondern auch die Seite und den Blickwinkel bei einer leichten Drehung sehen.
Das bedeutet, dass es nicht genügt, nur die Person aus dem Hintergrundbild zu "ausschneiden".
Die AI muss auch die Schulterbreite, die Brustweite, die Taille, die Haltung, die Körperhaltung und den Einfallswinkel des Lichts im Bild analysieren und ein Körpermodell erstellen. Dieser Teil basiert auf dem von Google selbst entwickelten Vision AI-Modell und dem Pose-Estimation-Modell.
Das Prinzip ist ähnlich wie bei der Bewegungsaufzeichnung | Quelle: Google
Deshalb kann die AI auch dann, wenn die Unterschenkel nicht sichtbar sind, aufgrund des erstellten Körpermodells berechnen, wie die Unterschenkel aussehen sollten.
Gleichzeitig nimmt das Modell Informationen aus dem Kleidungsbild auf, wie z. B. die Textur des Stoffs, die Anzahl der Schichten der Kleidung, ob das Schnittmuster schmal oder überdimensioniert ist...
Durch einen Kreuz-Attention-Mechanismus werden die Informationen aus den beiden Bildern fusioniert, und ein Diffusionsmodell erzeugt ein Bild der Person in der neuen Kleidung.
Wir wissen, dass das Wissensnetzwerk das "Gehirn" der traditionellen Google-Suche ist, das alle Informationen speichert, um die Abfragen der Nutzer zu beantworten. Das Einkaufsnetzwerk (Shopping Graph) ist ein Zweig davon, der sich auf Einkaufsabsichten und Produktinformationen konzentriert.
Auf der Grundlage der riesigen Datenbank im Shopping Graph wird das Modell trainiert, um die Anmutung der Kleidung auf verschiedenen Körpergrößen, Hautfarben und Körperhaltungen zu erkennen, wodurch die Generalisierungsfähigkeit des Modells verbessert wird.
Anprobungsbilder von verschiedenen Körpergrößen als Basisdaten | Quelle: Google
Aber das Anprobieren ist an dieser Stelle noch etwas "roh", als ob man in einem Kleidungsgeschäft steht und die Kleidung vor sich haltend vor einem Spiegel schaut. Passt die Kleidung tatsächlich?
Schritt 3: Bildsynthese
Google verwendet ein Bildausrichtungs- und ein Pose-aware warping-Netzwerk, um die Kleidung mit der Körperhaltung der Person auszurichten. Wenn Sie z. B. die Hände in die Taschen stecken, sich bücken oder die Arme heben, kann die AI die Kleidung so verformen, dass sie natürlich aussieht. Beispielsweise kann es etwas an den Knien aufblähen, der Kleidungsrand kann sich erheben und es können Falten an den Schultern entstehen, wenn man die Arme hebt.
Zunächst wird die vorhandene Kleidung modelliert und dann durch 3D-Rendering "umgewandelt" | Quelle: Google
Einige "schwierige Bereiche" werden besonders behandelt. Der Kreuz-Attention-Mechanismus entscheidet, wie das lange, locker getragene Haar und die Kleidung sich natürlich verbinden sollen, also "wer ist vor dem Kragen, das Haar oder der Kragen".
Wenn die Person im Hintergrundbild eine dunkle Unterwäsche trägt und eine halbtransparente Sonnenschutzjacke anprobieren möchte, passt die "Dynamische-Schicht-Textur"-Technologie automatisch die visuelle Hierarchie der Kleidung an, um sicherzustellen, dass die Schicht der Sonnenschutzjacke visuell korrekt über der Schicht des Hemdes liegt und dass Licht, Textur und Transparenz harmonisch sind.
Es gibt auch eine Lichtanpassung, um die Helligkeit der neuen Kleidung an die Lichtquelle im Hintergrundbild anzupassen.
Aber diese Technologie ist noch sehr anspruchsvolle Kleidung. Es ist noch lange nicht so, dass es ein universeller Kleiderschrank ist.
Derzeit ist es am besten geeignet für enganliegende Oberbekleidung mit klar definierten Schnittmustern, wie z. B. T-Shirts, Hemden und Strickjacken. Im Hintergrundbild sollte die Person am besten frontal stehen, die Hände ruhig lassen und das Licht nicht zu schwankend sein. Dann kann die AI ruhig modellieren und keine Fehler machen.
Wenn das Schnittmuster zu locker und kompliziert ist oder die Person mehrere Kleidungsstücke übereinander trägt, hat die AI Schwierigkeiten. Außerdem werden noch keine Accessoires wie Hüte, Brillen und Schuhe unterstützt. Das ist verständlich, denn die Behandlung der Verdeckung durch diese Accessoires ist sehr komplex.
Das dynamische Anprobieren von Kleidung wird auch noch nicht unterstützt - es ist noch nicht möglich, wie in der Umkleidekabine von "The Sims" herumzudrehen, ein paar Schritte zu gehen oder die Sitzhaltung zu testen.
Ist diese Technologie schon in einem Film aus dem Jahr 1995 erschienen? | Quelle: "Clueless"
Realistischer als Online-Einkauf, bequemer als Einkaufen im Geschäft
Was noch wichtiger ist, Try On könnte eine ganze "Kleidungs-Erlebnis-Kette" initiieren.
Wenn Sie beispielsweise eine Kuba-Kragen-Hemd anprobieren, wird es Ihnen eine dünne goldene Kette, weiße Sneaker und eine Lederschnalle empfehlen. So haben Sie schon ein ganzes "tropisches Outfit".
In Zukunft könnte das statische Anprobieren von Kleidung in ein dynamisches Anprobieren umgewandelt werden. Man könnte sich eine virtuelle Umkleidekabine mit einer Kopfbrille anlegen und das Online-Einkaufserlebnis komplett verändern.
Das ist auch ein Vorteil für die Händler. Die Rückgabesrate ist ohnehin das größte Problem für den E-Commerce von Kleidung. Eine Ware wird von der Lagerung ausgeliefert und dann zurückgeschickt, was Transport-, Verpackungs- und Personalkosten verursacht und auch die Effizienz der Warenumschlags beeinträchtigt.
Google hat auch ein Szenario demonstriert. Es scheint, dass die Umgestaltung des E-Commerce durch AI nicht nur auf das Anprobieren von Kleidung beschränkt ist.
Aktuell müssen wir beim Online-Einkauf immer noch Schlüsselwörter wie "Wollteppich" oder "Minimalistischer Wohnzimmertapete" in die Suchleiste eingeben.
Aber in Zukunft können Sie etwas wie "Ich habe ein hellgraues Sofa und möchte einen passenden Teppich kaufen, der das Zimmer heller erscheinen lässt. Ich habe vier Kinder, und wir spielen gerne zusammen in der Nähe des