Generativ video try-on: bevægelse og fald
Den logiske forlængelse af statisk fotoprøvning er et kort videoklip, der viser shopperen iført beklædningsgenstanden i bevægelse — gående, drejende eller gestikulerende. Video giver shoppere mulighed for at vurdere, hvordan stoffet bevæger sig, hvordan en søm falder under gang, og hvordan strukturerede beklædningsgenstande holder formen under dynamiske forhold. Forskningsgrupper ved flere AI-laboratorier demonstrerede tidlige versioner af tøj-på-video-overførsel i 2024 og 2025, og kvaliteten forbedres hurtigt.
Den kommercielle tærskel for video try-on kræver tidsmæssig konsistens — beklædningsgenstanden skal forblive korrekt renderet på tværs af hver frame uden flimren eller forvrængningsartefakter — hvilket er et betydeligt sværere problem end enkeltbillede-rendering. At generere et klip på 3 sekunder i acceptabel kvalitet tager i øjeblikket minutter på high-end hardware, mod 8–15 sekunder for et enkelt billede. Et realistisk estimat for video try-on af tøj i kommerciel kvalitet med acceptabel ventetid er 2028.
Live AR møder generativ AI
Nuværende AR try-on (kameraoverlejring i realtid) og nuværende AI try-on (rendering fra et statisk foto) er separate teknologistakke. Den næste syntese er et live kamerafeed behandlet af en generativ model i nær-realtid — hvilket eliminerer begrænsningen ved AR's 'peg dit kamera og se en stiv 3D-overlejring', samtidig med at umiddelbarheden ved en live-oplevelse bevares. Tidlige demonstrationer findes som forskningsprototyper, der typisk kører med 2–5 frames i sekundet på mobil hardware pr. 2025.
At opnå de 30+ fps, der kræves for en naturlig live try-on-oplevelse, kræver enten specialiseret inferens-hardware (usandsynligt som standard i forbrugerenheder før 2028) eller aggressiv forskning i modelkomprimering. Dette er en plausibel udvikling på mellemlangt sigt, men bør ikke præsenteres som nært forestående. Den kortsigtede værdi for forhandlere ligger fortsat i statisk fotobaseret rendering, som allerede leverer de konverteringsresultater, der tæller.
Biometrifri størrelsesestimering
En af de vedvarende mangler i virtuel try-on er, at det kan vise, hvordan et stykke tøj ser ud, men ikke hvordan det sidder — om det bliver for stramt i taljen, for langt i ærmet eller for kort i overkroppen til en specifik krop. Størrelsesestimering kræver kropsmål, som nuværende systemer opnår enten gennem brugerens egen indrapportering (upræcist) eller gennem 3D-kropsscanning (utilgængeligt for de fleste onlineshoppere).
Forskning i at udlede kropsmål fra et enkelt 2D-foto — ved hjælp af silhuet-analyse og positur-estimering — har gjort betydelige fremskridt. Systemer, der kan estimere en shoppers omtrentlige mål fra en selfie med 2–3 cm nøjagtighed på tværs af nøgledimensioner, er kommercielt realistiske i vinduet 2027–2029. Når dette kombineres med strukturerede måledata for tøjet fra brands, vil det muliggøre reel størrelsesrådgivning uden behov for målebånd eller specialiseret hardware.
Sammensætning af outfits med flere genstande
Nuværende fotobaseret try-on håndterer én beklædningsgenstand ad gangen. En shopper kan se sig selv i en specifik kjole eller en specifik jakke, men ikke begge dele sammen med et tilbehør. Fuld outfit-sammensætning — samtidig rendering af overdel, underdel, lag og tilbehør på det samme foto — kræver løsning af overlap og interaktion mellem tøjstykkerne, hvilket er væsentligt mere komplekst end rendering af en enkelt genstand.
Tidlige kommercielle implementeringer af sammensætning af flere genstande dukkede op i 2025–2026 for simplere kombinationer (overdel plus underdel, kjole plus tilbehør). Full-stack outfit-rendering i fotorealistisk kvalitet er en udvikling for 2027–2028. For modehandlere er denne funktion mest værdifuld for butikker, der sælger koordinerede sæt eller har et stærkt 'shop the look'-købsmønster, hvor det at se et komplet outfit kan øge AOV med 30–50% sammenlignet med køb af enkeltvarer.
Persistente forbruger-kropsmodeller: platformskiftet på mellemlangt sigt
Den mest kommercielt betydningsfulde udvikling på mellemlangt sigt er den persistente kropsmodel: en digital repræsentation af en shoppers krop, som de bygger én gang og genbruger på tværs af flere shoppingsessioner og flere forhandlere. I stedet for at uploade et nyt foto hver gang, gemmes shopperens kropsmodel (med deres samtykke) og fungerer som base for hver try-on. Dette sænker friktionen i try-on-oplevelsen dramatisk og muliggør ensartet størrelsesvurdering på tværs af forhandlere.
Implikationerne for forretningsmodellen er betydelige. Den enhed, der sidder på en forbrugers persistente kropsmodel, har en distributionsfordel på tværs af alle forhandlere, der integrerer med platformen. Dette er en 'vinderen-tager-det-meste' dynamik, og det er endnu ikke klart, hvilken aktør der vil indtage den position — enhedsproducenten, operativsystemet, en dedikeret modeplatform eller en af de store e-handelsplatforme. Indtil videre er dette et strategisk punkt på horisonten snarere end et operationelt. Det, forhandlere bør handle på i dag, er at udrulle den fotobaserede try-on, der allerede leverer dokumenteret ROI.