Generatieve video try-on: beweging en plooiing
De logische uitbreiding van statische foto-pasing is een korte videoclip waarin de shopper het kledingstuk in beweging draagt — lopend, draaiend of gebarend. Video stelt shoppers in staat om te beoordelen hoe stof beweegt, hoe een zoom valt tijdens het lopen en hoe gestructureerde kledingstukken hun vorm behouden onder dynamische omstandigheden. Onderzoeksgroepen in verschillende AI-labs toonden in 2024 en 2025 vroege versies van kleding-op-video-overdracht, waarbij de kwaliteit snel verbetert.
De commerciële drempel voor video try-on vereist temporele consistentie — het kledingstuk moet in elk frame correct gerenderd blijven zonder flikkeringen of vervormingen — wat een aanzienlijk lastiger probleem is dan rendering van een enkel frame. Het genereren van een clip van 3 seconden met acceptabele kwaliteit duurt momenteel minuten op high-end hardware, tegenover 8–15 seconden voor een enkele afbeelding. Een realistische schatting voor commerciële video try-on met acceptabele vertraging: 2028.
Live AR ontmoet generatieve AI
Huidige AR try-on (real-time camera-overlay) en huidige AI try-on (render van een statische foto) zijn afzonderlijke technologische stacks. De volgende synthese is een live camerafeed die bijna in real-time wordt verwerkt door een generatief model. Dit elimineert de beperking van AR ('richt je camera en zie een stijve 3D-overlay') terwijl de directheid van een live ervaring behouden blijft. Vroege demonstraties bestaan als onderzoeksprototypes, die vanaf 2025 doorgaans op 2–5 frames per seconde draaien op mobiele hardware.
Het bereiken van de 30+ fps die nodig is voor een natuurlijke live paservaring vereist ofwel gespecialiseerde inference-hardware (die waarschijnlijk niet voor 2028 standaard zal zijn in consumentenapparaten) of intensief onderzoek naar modelcompressie. Dit is een aannemelijke ontwikkeling op de middellange termijn, maar moet niet als imminent worden gepresenteerd. De waarde op korte termijn voor retailers blijft liggen bij rendering op basis van statische foto's, wat al de relevante conversieresultaten levert.
Biometrie-vrije pasvormvoorspelling
Een van de aanhoudende hiaten in virtueel passen is dat het kan laten zien hoe een kledingstuk eruitziet, maar niet hoe het zit — of het te strak zal zijn in de taille, te lang bij de mouwen of te kort in het torso voor een specifiek lichaam. Pasvormvoorspelling vereist lichaamsmaten, die huidige systemen verkrijgen via zelfrapportage door de gebruiker (onnauwkeurig) of via 3D-bodyscanning (niet beschikbaar voor de meeste online shoppers).
Onderzoek naar het afleiden van lichaamsmaten uit een enkele 2D-foto — met behulp van silhouetanalyse en pose-inschatting — heeft aanzienlijke vooruitgang geboekt. Systemen die de geschatte maten van een shopper kunnen bepalen aan de hand van een selfie met een nauwkeurigheid van 2–3 cm over de belangrijkste dimensies, zijn commercieel realistisch in de periode 2027–2029. In combinatie met gestructureerde kledingmaatgegevens van merken zou dit echte pasvormvoorspelling mogelijk maken zonder dat een meetlint of gespecialiseerde hardware nodig is.
Outfitcompositie met meerdere kledingstukken
Huidige try-on op basis van foto's verwerkt één kledingstuk tegelijk. Een shopper kan zichzelf zien in een specifieke jurk of een specifiek jasje, maar niet beide samen met een accessoire. Volledige outfitcompositie — het gelijktijdig renderen van een top, broek, laagje en accessoire op dezelfde foto — vereist het oplossen van kleding-op-kleding-occlusie en interactie, wat aanzienlijk complexer is dan het renderen van een enkel kledingstuk.
Vroege commerciële implementaties van composities met meerdere kledingstukken verschenen in 2025–2026 voor eenvoudigere combinaties (top plus broek, jurk plus accessoire). Volledige outfit-rendering op fotorealistische kwaliteit is een ontwikkeling voor 2027–2028. Voor modewinkels is deze functie het meest waardevol voor winkels die gecoördineerde sets verkopen of een sterk 'shop the look'-kooppatroon hebben, waarbij het zien van een complete outfit de AOV met 30–50% kan verhogen in vergelijking met aankopen van losse items.
Persistente lichaamsmodellen: de platformverschuiving op middellange termijn
De meest commercieel significante ontwikkeling op de middellange termijn is het persistente lichaamsmodel: een digitale weergave van het lichaam van een shopper die deze eenmalig opbouwt en hergebruikt bij meerdere winkelsessies en verschillende retailers. In plaats van elke keer een nieuwe foto te uploaden, wordt het lichaamsmodel van de shopper opgeslagen (met hun toestemming) en dient dit als basis voor elke passessie. Dit verlaagt de drempel van de paservaring drastisch en maakt consistente pasvormen over verschillende retailers mogelijk.
De implicaties voor het bedrijfsmodel zijn aanzienlijk. De entiteit die het persistente lichaamsmodel van een consument beheert, heeft een distributievoordeel bij elke retailer die met het platform integreert. Dit is een 'winner-take-most'-dynamiek, en het is nog niet duidelijk welke speler die positie zal innemen — de fabrikant van het apparaat, het besturingssysteem, een toegewijd modeplatform of een van de grote e-commerceplatforms. Voor nu is dit een strategisch punt aan de horizon in plaats van een operationeel punt. Waar retailers vandaag actie op moeten ondernemen, is het inzetten van de op foto's gebaseerde try-on die al bewezen ROI levert.