Gids · Prognose

De toekomst van Virtueel passen

Virtueel passen op basis van foto's is de commercieel volwassen technologie van 2026 — maar diverse aangrenzende ontwikkelingen in onderzoek en vroege commerciële stadia vormen wat mogelijk is in de periode 2027–2031.

In het kort

  • Generatieve video try-on (die beweging toont in plaats van een statische render) is volop in ontwikkeling, maar nog minstens 18–24 maanden verwijderd van commerciële kledingkwaliteit.
  • Persistente lichaamsmodellen voor consumenten — waarbij een shopper een herbruikbare digitale weergave van zichzelf bouwt — zijn de meest commercieel significante ontwikkeling op de middellange termijn.
  • De realiteit voor de meeste retailers in 2026 is AI try-on op basis van foto's; de hype rondom 'next-gen' functies mag de inzet van wat nu al werkt niet vertragen.

Generatieve video try-on: beweging en plooiing

De logische uitbreiding van statische foto-pasing is een korte videoclip waarin de shopper het kledingstuk in beweging draagt — lopend, draaiend of gebarend. Video stelt shoppers in staat om te beoordelen hoe stof beweegt, hoe een zoom valt tijdens het lopen en hoe gestructureerde kledingstukken hun vorm behouden onder dynamische omstandigheden. Onderzoeksgroepen in verschillende AI-labs toonden in 2024 en 2025 vroege versies van kleding-op-video-overdracht, waarbij de kwaliteit snel verbetert.

De commerciële drempel voor video try-on vereist temporele consistentie — het kledingstuk moet in elk frame correct gerenderd blijven zonder flikkeringen of vervormingen — wat een aanzienlijk lastiger probleem is dan rendering van een enkel frame. Het genereren van een clip van 3 seconden met acceptabele kwaliteit duurt momenteel minuten op high-end hardware, tegenover 8–15 seconden voor een enkele afbeelding. Een realistische schatting voor commerciële video try-on met acceptabele vertraging: 2028.

Live AR ontmoet generatieve AI

Huidige AR try-on (real-time camera-overlay) en huidige AI try-on (render van een statische foto) zijn afzonderlijke technologische stacks. De volgende synthese is een live camerafeed die bijna in real-time wordt verwerkt door een generatief model. Dit elimineert de beperking van AR ('richt je camera en zie een stijve 3D-overlay') terwijl de directheid van een live ervaring behouden blijft. Vroege demonstraties bestaan als onderzoeksprototypes, die vanaf 2025 doorgaans op 2–5 frames per seconde draaien op mobiele hardware.

Het bereiken van de 30+ fps die nodig is voor een natuurlijke live paservaring vereist ofwel gespecialiseerde inference-hardware (die waarschijnlijk niet voor 2028 standaard zal zijn in consumentenapparaten) of intensief onderzoek naar modelcompressie. Dit is een aannemelijke ontwikkeling op de middellange termijn, maar moet niet als imminent worden gepresenteerd. De waarde op korte termijn voor retailers blijft liggen bij rendering op basis van statische foto's, wat al de relevante conversieresultaten levert.

Biometrie-vrije pasvormvoorspelling

Een van de aanhoudende hiaten in virtueel passen is dat het kan laten zien hoe een kledingstuk eruitziet, maar niet hoe het zit — of het te strak zal zijn in de taille, te lang bij de mouwen of te kort in het torso voor een specifiek lichaam. Pasvormvoorspelling vereist lichaamsmaten, die huidige systemen verkrijgen via zelfrapportage door de gebruiker (onnauwkeurig) of via 3D-bodyscanning (niet beschikbaar voor de meeste online shoppers).

Onderzoek naar het afleiden van lichaamsmaten uit een enkele 2D-foto — met behulp van silhouetanalyse en pose-inschatting — heeft aanzienlijke vooruitgang geboekt. Systemen die de geschatte maten van een shopper kunnen bepalen aan de hand van een selfie met een nauwkeurigheid van 2–3 cm over de belangrijkste dimensies, zijn commercieel realistisch in de periode 2027–2029. In combinatie met gestructureerde kledingmaatgegevens van merken zou dit echte pasvormvoorspelling mogelijk maken zonder dat een meetlint of gespecialiseerde hardware nodig is.

Outfitcompositie met meerdere kledingstukken

Huidige try-on op basis van foto's verwerkt één kledingstuk tegelijk. Een shopper kan zichzelf zien in een specifieke jurk of een specifiek jasje, maar niet beide samen met een accessoire. Volledige outfitcompositie — het gelijktijdig renderen van een top, broek, laagje en accessoire op dezelfde foto — vereist het oplossen van kleding-op-kleding-occlusie en interactie, wat aanzienlijk complexer is dan het renderen van een enkel kledingstuk.

Vroege commerciële implementaties van composities met meerdere kledingstukken verschenen in 2025–2026 voor eenvoudigere combinaties (top plus broek, jurk plus accessoire). Volledige outfit-rendering op fotorealistische kwaliteit is een ontwikkeling voor 2027–2028. Voor modewinkels is deze functie het meest waardevol voor winkels die gecoördineerde sets verkopen of een sterk 'shop the look'-kooppatroon hebben, waarbij het zien van een complete outfit de AOV met 30–50% kan verhogen in vergelijking met aankopen van losse items.

Persistente lichaamsmodellen: de platformverschuiving op middellange termijn

De meest commercieel significante ontwikkeling op de middellange termijn is het persistente lichaamsmodel: een digitale weergave van het lichaam van een shopper die deze eenmalig opbouwt en hergebruikt bij meerdere winkelsessies en verschillende retailers. In plaats van elke keer een nieuwe foto te uploaden, wordt het lichaamsmodel van de shopper opgeslagen (met hun toestemming) en dient dit als basis voor elke passessie. Dit verlaagt de drempel van de paservaring drastisch en maakt consistente pasvormen over verschillende retailers mogelijk.

De implicaties voor het bedrijfsmodel zijn aanzienlijk. De entiteit die het persistente lichaamsmodel van een consument beheert, heeft een distributievoordeel bij elke retailer die met het platform integreert. Dit is een 'winner-take-most'-dynamiek, en het is nog niet duidelijk welke speler die positie zal innemen — de fabrikant van het apparaat, het besturingssysteem, een toegewijd modeplatform of een van de grote e-commerceplatforms. Voor nu is dit een strategisch punt aan de horizon in plaats van een operationeel punt. Waar retailers vandaag actie op moeten ondernemen, is het inzetten van de op foto's gebaseerde try-on die al bewezen ROI levert.

Wat vandaag werkt voor retailers

📸

Nu: passen op basis van foto's

Niet wachten op video try-on of persistente lichaamsmodellen. De op foto's gebaseerde widget van Photta levert vandaag al 18–28% conversiestijging op.

🔄

Gebouwd op een verbeterend model

Nano Banana 2 wordt actief ontwikkeld. Verbeteringen in renderkwaliteit en categorie-dekking worden automatisch uitgerold naar alle retailers.

💡

Outfitcompositie (2026)

De roadmap van Photta bevat try-on voor meerdere kledingstukken voor combinaties van boven- en onderkleding — een van de vroegste commerciële implementaties.

🏗️

Platform-ready architectuur

De widget-architectuur van Photta is ontworpen om toekomstige mogelijkheden (video, pasvormvoorspelling) te integreren zonder dat herinstallatie nodig is.

Veelgestelde vragen

Nee. Video try-on van commerciële kwaliteit voor kleding is nog minstens 18–24 maanden verwijderd. Retailers die wachten, lopen de ROI op conversie en retourpercentages mis die foto-gebaseerde try-on vandaag al biedt.

Probeer Photta 14 dagen gratis

Drie prijsniveaus vanaf $49/p.m. Geen creditcard vereist om te starten.

Bekijk abonnementen

Zet in wat vandaag werkt. Bouw voor morgen.

Passen op basis van foto's is volwassen. 14 dagen gratis om de ROI te bewijzen.

Start gratis proefperiode
De toekomst van de virtuele paskamer 2026–2031 — Photta | Photta