Generativ videoprøving: bevegelse og drapering
Den logiske forlengelsen av statisk fotoprøving er et kort videoklipp som viser shopperen med plagget i bevegelse — mens de går, snur seg eller gestikulerer. Video lar shoppere evaluere hvordan stoffet beveger seg, hvordan en kant faller når man går, og hvordan strukturerte plagg holder formen under dynamiske forhold. Forskningsgrupper ved flere AI-laboratorier demonstrerte tidlige versjoner av plagg-på-video-overføring i 2024 og 2025, og kvaliteten forbedres raskt.
Den kommersielle terskelen for videoprøving krever tidsmessig konsistens — plagget må forbli korrekt rendret i hver ramme uten flimring eller forvrengningsartefakter — noe som er et betydelig vanskeligere problem enn rendering av enkeltbilder. Generering av et 3-sekunders klipp i akseptabel kvalitet tar for øyeblikket minutter på high-end maskinvare, mot 8–15 sekunder for et enkeltbilde. Rimelig estimat for kommersiell videoprøving av klær med akseptabel forsinkelse: 2028.
Live AR møter generativ AI
Nåværende AR-prøving (sanntidskamera-overlegg) og nåværende AI-prøving (rendering fra et statisk bilde) er separate teknologistabler. Den neste syntesen er en live kamerastrøm som behandles av en generativ modell i nær sanntid — noe som eliminerer begrensningen med et stivt 3D-overlegg som preger dagens AR, samtidig som umiddelbarheten i en live-opplevelse bevares. Tidlige demonstrasjoner eksisterer som forskningsprototyper, og kjører vanligvis med 2–5 bilder per sekund på mobil maskinvare per 2025.
Å oppnå 30+ fps som kreves for en naturlig live prøveopplevelse krever enten spesialisert maskinvare for inferens (usannsynlig som standard i forbrukerenheter før 2028) eller aggressiv forskning på modellkomprimering. Dette er en plausibel utvikling på mellomlang sikt, men bør ikke presenteres som nært forestående. Den kortsiktige verdien for forhandlere ligger fortsatt i statisk fotobasert rendering, som allerede leverer konverteringsresultatene som betyr noe.
Biometrifri passformprediksjon
Et av de vedvarende gapene i virtuell prøving er at det kan vise hvordan et plagg ser ut, men ikke hvordan det passer — om det vil være for stramt i midjen, for langt i ermet eller for kort i overkroppen for en spesifikk kropp. Passformprediksjon krever kroppsmål, som nåværende systemer henter enten gjennom brukerens egenrapportering (unøyaktig) eller gjennom 3D-kroppsskanning (utilgjengelig for de fleste nettshoppere).
Forskning på å utlede kroppsmål fra et enkelt 2D-bilde — ved bruk av silhuettanalyse og posisjonsestimering — har gjort betydelige fremskritt. Systemer som kan estimere en shoppers omtrentlige mål fra en selfie med 2–3 cm nøyaktighet på tvers av nøkkeldimensjoner er kommersielt realistiske i vinduet 2027–2029. Kombinert med strukturerte måledata for plagg fra merkevarer, vil dette muliggjøre ekte passformprediksjon uten behov for målebånd eller spesialisert maskinvare.
Sammensetning av antrekk med flere plagg
Dagens fotobaserte prøving håndterer ett plagg om gangen. En shopper kan se seg selv i en spesifikk kjole eller en spesifikk jakke, men ikke begge sammen med et tilbehør. Full antrekkssammensetning — samtidig rendering av overdel, underdel, lag og tilbehør på det samme bildet — krever løsning av okklusjon og interaksjon mellom plaggene, noe som er vesentlig mer komplekst enn rendering av enkeltplagg.
Tidlige kommersielle implementeringer av sammensetning av flere plagg dukket opp i 2025–2026 for enklere kombinasjoner (overdel pluss underdel, kjole pluss tilbehør). Full rendering av antrekk med fotorealistisk kvalitet er en utvikling for 2027–2028. For moteforhandlere er denne funksjonen mest verdifull for butikker som selger koordinerte sett eller har et sterkt «shop the look»-mønster, der det å se et komplett antrekk kan øke AOV med 30–50 % sammenlignet med kjøp av enkeltvarer.
Persistente kroppsmodeller: plattformskiftet på mellomlang sikt
Den mest kommersielt betydningsfulle utviklingen på mellomlang sikt er den persistente kroppsmodellen: en digital representasjon av en shoppers kropp som de bygger én gang og gjenbruker på tvers av flere shoppingøkter og flere forhandlere. I stedet for å laste opp et nytt bilde hver gang, lagres shopperens kroppsmodell (med deres samtykke) og fungerer som base for hver prøving. Dette senker friksjonen i prøveopplevelsen dramatisk og muliggjør konsistent passform på tvers av forhandlere.
Implikasjonene for forretningsmodellen er betydelige. Enheten som besitter en forbrukers persistente kroppsmodell har en distribusjonsfordel på tvers av alle forhandlere som integrerer med plattformen. Dette er en «vinneren tar alt»-dynamikk, og det er ennå ikke klart hvilken aktør som vil innta den posisjonen — enhetsprodusenten, operativsystemet, en dedikert moteplattform eller en av de store e-handelsplattformene. Foreløpig er dette et strategisk horisont-element snarere enn et operasjonelt et. Det forhandlere bør agere på i dag, er å rulle ut den fotobaserte prøvingen som allerede leverer dokumentert ROI.