Generative Video-Anprobe: Bewegung und Faltenwurf
Die logische Erweiterung der statischen Foto-Anprobe ist ein kurzer Videoclipp, der den Kunden zeigt, wie er das Kleidungsstück in Bewegung trägt – beim Gehen, Drehen oder Gestikulieren. Video ermöglicht es den Käufern, zu beurteilen, wie sich der Stoff bewegt, wie ein Saum beim Gehen fällt und wie strukturierte Kleidungsstücke ihre Form unter dynamischen Bedingungen beibehalten. Forschungsgruppen in verschiedenen KI-Laboren demonstrierten 2024 und 2025 erste Versionen des Kleidungs-Video-Transfers, wobei sich die Qualität rasant verbessert.
Die kommerzielle Schwelle für Video-Anproben erfordert zeitliche Konsistenz – das Kleidungsstück muss über jedes Frame korrekt gerendert bleiben, ohne Flackern oder Verzerrungsartefakte –, was ein wesentlich schwierigeres Problem darstellt als das Rendering einzelner Frames. Die Erstellung eines 3-Sekunden-Clips in akzeptabler Qualität dauert auf High-End-Hardware derzeit Minuten, im Vergleich zu 8–15 Sekunden für ein einzelnes Bild. Eine plausible Schätzung für kommerzielle Video-Anproben bei akzeptabler Latenz: 2028.
Live-AR trifft auf generative KI
Aktuelle AR-Anproben (Echtzeit-Kamera-Overlay) und aktuelle KI-Anproben (Rendering aus einem statischen Foto) sind separate Technologie-Stacks. Die nächste Synthese ist ein Live-Kamera-Feed, der von einem generativen Modell in Beinahe-Echtzeit verarbeitet wird – dies eliminiert die Einschränkung „Kamera ausrichten und ein steifes 3D-Overlay sehen“ von AR, während die Unmittelbarkeit eines Live-Erlebnisses erhalten bleibt. Erste Demonstrationen existieren als Forschungsprototypen, die im Jahr 2025 typischerweise mit 2–5 Bildern pro Sekunde auf mobiler Hardware laufen.
Um die für ein natürliches Live-Anprobeerlebnis erforderlichen 30+ fps zu erreichen, ist entweder spezialisierte Inferenz-Hardware erforderlich (die vor 2028 kaum Standard in Endgeräten sein wird) oder aggressive Forschung zur Modellkompression. Dies ist eine plausible mittelfristige Entwicklung, sollte aber nicht als unmittelbar bevorstehend dargestellt werden. Der kurzfristige Wert für Händler liegt weiterhin im statischen fotobasierten Rendering, das bereits heute die entscheidenden Konversionsergebnisse liefert.
Biometrie-freie Passformvorhersage
Eine der hartnäckigen Lücken bei virtuellen Anproben ist, dass sie zwar zeigen können, wie ein Kleidungsstück aussieht, aber nicht, wie es passt – ob es an der Taille zu eng, am Ärmel zu lang oder am Oberkörper zu kurz für einen spezifischen Körper ist. Die Passformvorhersage erfordert Körpermaße, die aktuelle Systeme entweder durch Selbstauskunft der Nutzer (ungenau) oder durch 3D-Körperscans (für die meisten Online-Käufer nicht verfügbar) erhalten.
Die Forschung zur Ableitung von Körpermaßen aus einem einzelnen 2D-Foto – mittels Silhouettenanalyse und Posen-Schätzung – hat bedeutende Fortschritte gemacht. Systeme, die die ungefähren Maße eines Käufers aus einem Selfie mit einer Genauigkeit von 2–3 cm in den wichtigsten Dimensionen schätzen können, sind im Zeitraum 2027–2029 kommerziell realistisch. In Kombination mit strukturierten Maßdaten der Marken würde dies eine echte Passformvorhersage ermöglichen, ohne dass ein Maßband oder spezielle Hardware erforderlich ist.
Multi-Garment Outfit-Zusammenstellung
Aktuelle fotobasierte Anproben verarbeiten jeweils ein Kleidungsstück. Ein Käufer kann sich in einem bestimmten Kleid oder einer bestimmten Jacke sehen, aber nicht in beiden zusammen mit einem Accessoire. Eine vollständige Outfit-Zusammenstellung – das gleichzeitige Rendern von Oberteil, Unterteil, Layering und Accessoire auf demselben Foto – erfordert die Lösung von Verdeckungseffekten und Interaktionen zwischen den Kleidungsstücken, was wesentlich komplexer ist als das Rendering eines einzelnen Artikels.
Erste kommerzielle Implementierungen der Multi-Garment-Zusammenstellung erschienen 2025–2026 für einfachere Kombinationen (Oberteil plus Unterteil, Kleid plus Accessoire). Das Rendering kompletter Outfits in fotorealistischer Qualität ist eine Entwicklung für 2027–2028. Für Modehändler ist diese Funktion am wertvollsten für Shops, die koordinierte Sets verkaufen oder ein starkes „Shop the Look“-Kaufmuster haben, bei dem das Sehen eines kompletten Outfits den AOV im Vergleich zu Einzelkäufen um 30–50 % steigern kann.
Persistente Körpermodelle: Der mittelfristige Plattformwechsel
Die kommerziell bedeutendste mittelfristige Entwicklung ist das persistente Körpermodell: eine digitale Darstellung des Körpers eines Käufers, die er einmal erstellt und über mehrere Shopping-Sitzungen und verschiedene Einzelhändler hinweg wiederverwendet. Anstatt jedes Mal ein neues Foto hochzuladen, wird das Körpermodell des Käufers (mit dessen Zustimmung) gespeichert und dient als Basis für jede Anprobe. Dies senkt die Reibung beim Anprobeerlebnis drastisch und ermöglicht eine händlerübergreifende Konsistenz der Passform.
Die Auswirkungen auf das Geschäftsmodell sind erheblich. Das Unternehmen, das das persistente Körpermodell eines Konsumenten hält, hat einen Distributionsvorteil bei jedem Einzelhändler, der die Plattform integriert. Dies ist eine „Winner-take-most“-Dynamik, und es ist noch nicht klar, welcher Akteur diese Position besetzen wird – der Gerätehersteller, das Betriebssystem, eine dedizierte Modeplattform oder eine der großen E-Commerce-Plattformen. Vorerst ist dies ein strategisches Thema am Horizont und kein operatives. Händler sollten heute auf die Implementierung der fotobasierten Anprobe setzen, die bereits einen bewährten ROI liefert.