Ist das die Zukunft passender Kleidung? Google sagt, dass es so ist
Als Teil einer breiten Palette von Google Shopping-Updates, die in den kommenden Wochen erscheinen, nimmt der virtuelle Kleiderschneider von Google ein Bild eines Kleidungsstücks auf und versucht vorherzusagen, wie es sich rollt, faltet, passt, dehnt und Falten und Schatten bildet – und zwar an einem realen Ort menschliche Modelle in verschiedenen Positionen.
Virtuelles Testen basiert auf einem neuen Modell der künstlichen Intelligenz, das auf Diffusion basiert. Google hat es intern entwickelt. Diffusionsmodelle – deren bekannteste Text-zu-Bild-Generatoren Stable Diffusion und DALL-E 2 sind – lernen, ein anfängliches Bild, das vollständig aus Rauschen besteht, schrittweise zu entrauschen und es Schritt für Schritt näher an das Ziel heranzuführen.
Google trainierte das Modell mithilfe einer Reihe von Bildpaaren, die jeweils eine Person enthielten, die ein Kleidungsstück in zwei einzigartigen Posen trug – zum Beispiel ein Bild von jemandem, der ein Hemd trug und seitlich stand, und ein weiteres Bild des Modells, das von vorne stand. Um das Modell robuster zu machen (d. h. resistenter gegen visuelle Fehler wie Falten, die deformiert und unnatürlich aussehen), wurde der Vorgang mit zufälligen Kleidungsstücken und menschlichen Bildern wiederholt.
Etwa einen Monat lang können US-Käufer über Google Shopping Damenoberteile von Marken wie Anthropologie, Everlane, H&M und LOFT virtuell anprobieren. In der Google-Suche ist ein neues „Anprobieren“-Badge verfügbar. Herren-Shirts werden einmalig bis Ende des Jahres erhältlich sein.
„Wenn Sie Kleidung in einem Geschäft anprobieren, können Sie sofort erkennen, ob sie für Sie geeignet ist“, sagte er Lilian Rincon, Senior Director of Consumer Shopping Products bei Google, schrieb in einem Blogbeitrag. Darin werden Untersuchungen zitiert, die zeigen, dass 42 %-Onlinekäufer das Gefühl haben, dass Modelle in Online-Shops nicht das wirkliche Bild widerspiegeln, während 59 % mit einem online gekauften Produkt unzufrieden sind, weil es bei ihnen anders aussah, als sie erwartet hatten.
Kleidung virtuell anzuprobieren ist nichts Neues. Amazon und Adobe experimentieren bereits seit einiger Zeit mit generativer Kleidungsmodellierung, ebenso wie Walmart, der seit letztem Jahr Online-Funktionen anbietet, bei denen Kundenfotos zur Modellierung von Kleidung verwendet werden.
Google hat bereits die virtuelle Anprobe von Kleidung getestet und arbeitet mit L'Oréal, Estée Lauder, MAC Cosmetics, Black Opal und Charlotte Tilbury zusammen, um Nutzern die Suche nach Make-up-Farbtönen für verschiedene Modelle mit unterschiedlichen Hauttönen zu ermöglichen. Tatsächlich dringt generative künstliche Intelligenz zunehmend in die Modebranche vor und stößt auf Widerstand von Models, die sagen, dass sie die seit langem in der Branche bestehenden Ungleichheiten weiter verschärft.
In einem Blogbeitrag wies Rincon darauf hin, dass Google sich dafür entschieden habe, echte Models zu verwenden – und eine vielfältige Auswahl, die die Größen XXS bis 4XL umfasst und eine Vielzahl von Ethnien, Hauttönen, Körperformen und Haartypen repräsentiert. Sie beantwortete jedoch nicht die Frage, ob die neue Funktion zum Anprobieren von Kleidung künftig dazu führen wird, dass Models weniger Möglichkeiten haben, fotografiert zu werden. Zusammen mit der Veröffentlichung der Feature-Funktion zum virtuellen Testen von Kleidung führt Google auch Filteroptionen bei der Suche nach Kleidung ein. Ja, Sie haben es erraten, auch dies basiert auf KI und visuellen Matching-Algorithmen.