Generativ video-try-on: rörelse och fall
Den logiska förlängningen av statisk foto-try-on är ett kort videoklipp som visar shopparen bära plagget i rörelse – gående, vändande eller gestikulerande. Video gör det möjligt för shoppare att utvärdera hur tyget rör sig, hur en fåll faller vid gång och hur strukturerade plagg behåller sin form under dynamiska förhållanden. Forskningsgrupper vid flera AI-labb demonstrerade tidiga versioner av plagg-på-video-överföring under 2024 och 2025, och kvaliteten förbättras snabbt.
Det kommersiella tröskelvärdet för video-try-on kräver temporal konsistens – plagget måste förbli korrekt renderat i varje bildruta utan flimmer eller förvridningsartefakter – vilket är ett betydligt svårare problem än rendering av enstaka bilder. Att generera ett klipp på 3 sekunder med acceptabel kvalitet tar för närvarande minuter på high-end hårdvara, jämfört med 8–15 sekunder för en enskild bild. En rimlig uppskattning för video-try-on i kommersiell kvalitet med acceptabel fördröjning är 2028.
Live AR möter generativ AI
Nuvarande AR-try-on (realtidskamera-overlay) och nuvarande AI-try-on (rendering från ett statiskt foto) är separata teknikstackar. Nästa syntes är ett live-kameraflöde som bearbetas av en generativ modell i nära realtid – vilket eliminerar begränsningen 'rikta kameran och se ett stelt 3D-lager' i AR, samtidigt som omedelbarheten i en live-upplevelse bevaras. Tidiga demonstrationer existerar som forskningsprototyper, som vanligtvis körs med 2–5 bilder per sekund på mobil hårdvara från och med 2025.
Att uppnå de 30+ fps som krävs för en naturlig live-upplevelse kräver antingen specialiserad hårdvara för slutledning (osannolikt att det blir standard i konsumentenheter före 2028) eller aggressiv forskning på modellkomprimering. Detta är en trolig utveckling på medellång sikt men bör inte presenteras som nära förestående. Det kortsiktiga värdet för handlare ligger kvar i statisk fotobaserad rendering, som redan levererar de konverteringsresultat som räknas.
Biometrifri storleksprediktion
En av de ihållande luckorna i virtuell provning är att den kan visa hur ett plagg ser ut men inte hur det sitter – om det kommer att sitta för hårt i midjan, vara för långt i ärmen eller för kort i bålen för en specifik kropp. Storleksprediktion kräver kroppsmått, som nuvarande system erhåller antingen genom användarens egenrapportering (felaktigt) eller genom 3D-kroppsskanning (otillgängligt för de flesta onlineshoppare).
Forskning kring att härleda kroppsmått från ett enstaka 2D-foto – genom siluettanalys och pose-estimering – har gjort meningsfulla framsteg. System som kan uppskatta en shoppares ungefärliga mått från en selfie med 2–3 cm noggrannhet över nyckeldimensioner är kommersiellt realistiska i fönstret 2027–2029. I kombination med strukturerad data för plaggmått från varumärken skulle detta möjliggöra äkta storleksprediktion utan att kräva måttband eller specialiserad hårdvara.
Outfit-komposition med flera plagg
Nuvarande fotobaserad try-on hanterar ett plagg i taget. En shoppare kan se sig själv i en specifik klänning eller en specifik jacka, men inte båda tillsammans med en accessoar. Fullständig outfit-komposition – att samtidigt rendera en överdel, underdel, lager och accessoar på samma foto – kräver lösningar för ocklusion och interaktion mellan plagg, vilket är väsentligt mer komplext än rendering av enstaka plagg.
Tidiga kommersiella implementeringar av kompositioner med flera plagg dök upp 2025–2026 för enklare kombinationer (överdel plus underdel, klänning plus accessoar). Rendering av en hel outfit i fotorealistisk kvalitet är en utveckling för 2027–2028. För modehandlare är denna funktion mest värdefull för butiker som säljer koordinerade set eller har ett starkt 'shop the look'-köpmönster, där möjligheten att se en komplett outfit kan höja AOV med 30–50 % jämfört med köp av enstaka artiklar.
Persistenta kroppsmodeller: plattformsskiftet på medellång sikt
Den mest kommersiellt betydelsefulla utvecklingen på medellång sikt är den persistenta kroppsmodellen: en digital representation av en shoppares kropp som de skapar en gång och återanvänder över flera shoppingsessioner och hos flera återförsäljare. Istället för att ladda upp ett nytt foto varje gång lagras shopparens kroppsmodell (med deras samtycke) och fungerar som bas för varje provning. Detta minskar dramatiskt friktionen i provupplevelsen och möjliggör konsekvent passform mellan olika återförsäljare.
Implikationerna för affärsmodellen är betydande. Den enhet som innehar en konsuments persistenta kroppsmodell har en distributionsfördel gentemot varje återförsäljare som integrerar med plattformen. Detta är en 'vinnaren-tar-allt'-dynamik, och det är ännu inte klart vilken aktör som kommer att inta den positionen – enhetstillverkaren, operativsystemet, en dedikerad modeplattform eller en av de stora e-handelsplattformarna. För närvarande är detta ett strategiskt mål snarare än ett operativt. Vad handlare bör agera på idag är att implementera den fotobaserade try-on som redan levererar bevisad ROI.