È questo il futuro degli abiti coordinati? Google dice di sì
Nell'ambito di una vasta gamma di aggiornamenti di Google Shopping in arrivo nelle prossime settimane, il montatore virtuale di Google prende l'immagine di un indumento e cerca di prevedere come si arrotolerà, si piegherà, si adatterà, si allungherà e formerà pieghe e ombre, su una serie di immagini reali. modelli umani in diverse posizioni.
I test virtuali sono alimentati da un nuovo modello di intelligenza artificiale basato sulla diffusione. Google lo ha sviluppato internamente. I modelli di diffusione, di cui i generatori di testo in immagine più famosi sono Stable Diffusion e DALL-E 2, imparano a eliminare gradualmente il rumore da un'immagine iniziale costituita interamente da rumore e ad avvicinarla passo dopo passo all'obiettivo.
Google ha addestrato il modello utilizzando una serie di coppie di immagini, ciascuna delle quali includeva una persona che indossava l'indumento in due pose uniche, ad esempio un'immagine di qualcuno che indossa una maglietta in piedi di lato e un'altra immagine del modello in piedi di fronte. Per rendere il modello più robusto (cioè resistente agli errori visivi come le rughe che appaiono deformate e innaturali), il processo è stato ripetuto utilizzando coppie casuali di vestiti e immagini di persone.
Per circa un mese, gli acquirenti statunitensi che utilizzano Google Shopping possono provare virtualmente i top da donna di marchi come Anthropologie, Everlane, H&M e LOFT. Un nuovo badge "Prova" è disponibile in Ricerca Google. Le camicie da uomo saranno disponibili una volta fino alla fine dell'anno.
"Quando provi i vestiti in un negozio, puoi immediatamente capire se sono adatti a te", ha detto Lilian Rincon, direttore senior dei prodotti per lo shopping di consumo di Google, ha scritto in un post sul blog. Cita una ricerca che mostra che 42 acquirenti online di % ritengono che i modelli nei negozi online non rappresentino l'immagine reale, mentre 59 % si sentono insoddisfatti di un prodotto acquistato online perché sembrava diverso da quello che si aspettavano.
Provare virtualmente i vestiti non è una novità. Amazon e Adobe stanno sperimentando da tempo la modellazione generativa di abbigliamento, così come Walmart, che dallo scorso anno offre funzionalità online che utilizzano le foto dei clienti per modellare gli abiti.
Google ha già testato la prova virtuale degli abiti e ha collaborato con L'Oréal, Estée Lauder, MAC Cosmetics, Black Opal e Charlotte Tilbury per consentire agli utenti di trovare sfumature di trucco su diversi modelli con diverse tonalità della pelle. In effetti, l’intelligenza artificiale generativa si sta sempre più intromettendo nel settore della moda, e ha incontrato l’opposizione delle modelle che affermano che essa aumenta ulteriormente le disuguaglianze che esistono da tempo nel settore.
In un post sul blog, Rincon ha sottolineato che Google ha scelto di utilizzare modelli reali e una selezione diversificata che va dalle taglie dalla XXS alla 4XL e rappresenta una varietà di etnie, tonalità della pelle, forme del corpo e tipi di capelli. Tuttavia, non ha risposto alla domanda se la nuova funzione di prova dei vestiti porterà a minori opportunità per le modelle di farsi fotografare in futuro. Insieme al rilascio della funzionalità in primo piano per il test virtuale dell'abbigliamento, Google introduce anche opzioni di filtro durante la ricerca di abbigliamento. Sì, hai indovinato, anche questo è alimentato dall'intelligenza artificiale e da algoritmi di corrispondenza visiva.