Forskare vid Adobes Media and Data Science Research Lab, IIT & IIIT Hyderabad och Stanford University har utvecklat ett system som syftar till att hjälpa shoppare att pröva ett klädesplagg på en viss modellbild.
Dubbat SieveNet, ramverket kan återskapa den nya kläderna i modellens kroppsform och pose samtidigt som duken bevaras, inklusive små designelement som veck.
Det finns två viktiga steg i detta tillvägagångssätt - snedvrider produktbilden, överför den snedställda strukturen till modellens kropp. För att uppnå detta använder forskarna ett ”flerstegs grov-till-fint vridningsnätverk” utbildat för att identifiera unika aspekter av tyget med en villkorlig segmenteringsmask innan den överförs till modellens kropp.
Ta en titt på nedanstående slutsats för bättre visuell förståelse av konceptet.
Till skillnad från befintliga virtuella testmetoder hävdar forskarna att deras tekniken lider inte av synfel orsakad av texturblödning och felaktig vridning.
Forskarna utbildade SieveNet i en rik uppsättning bestående av cirka 19 000 bilder av framåtvända kvinnliga modeller och produktbilder. De körde sin modell på en dator med 16 GB RAM och fyra Nvidia 1080Ti-grafikkort. Bilderna ordnades om för att genomföra kvalitativa och kvantitativa tester.
Från de kvalitativa och kvantitativa testerna fann forskarna att deras system ger bättre resultat än befintliga metoder i olika aspekter inklusive hantering av ocklusion, geometrisk vridning, variation i poser, undvikande av blödning, bevarande av opåverkad region samtidigt som bildkvaliteten bibehålls.
Forskarna föreslår att SeiveNet integreras i webbplatser för online shopping. ”Det [SeiveNet] är särskilt viktigt för online-modehandel eftersom det kompenserar för brist på en direkt fysisk upplevelse av shopping i butiken ”, skrev forskarna.
Kolla in hela forskningsdokumentet här och låt oss veta dina tankar om SeiveNet i kommentarerna.
Utvalda bildkrediter: SeiveNet / Adobe