Mientras hemos visto los vestidores virtuales basados en Kinect, el equipo de Arbuzz está tomando un enfoque algo diferente (traducción) al juego digital. En lugar de utilizar imágenes planas de la ropa superpuestas en el cuerpo del sujeto, su solución utiliza modelos 3D completos de las prendas para lograr el efecto deseado. Esta técnica les permite producir una experiencia más fiebre a la vida, donde las prendas cumplen con el sujeto alrededor, fluyendo naturalmente con los movimientos del usuario.
Como muchos otros hacks de Kinect, utilizan Openni, así como Nite para adquirir datos esqueléticos del sensor. La aplicación en sí fue escrita en C # con las herramientas de avance del juego XNA de Microsoft, así como también usa un motor de física especial para hacer el paño simulado de manera sensible.
[Lukasz] afirma que el sistema aún está en su infancia, así como necesitará mucho trabajo antes de que estén totalmente contentos con los resultados. Desde donde estamos sentados, el video de demostración incrustado a continuación es bastante limpio, incluso si es un poco rudo alrededor de los bordes. Nos complació especialmente de ver que la interfaz Kinect nativa de Xbox se puso a trabajar en un proyecto de bricolaje, así como estamos interesados en que estamos interesados en ver exactamente cómo se ven las cosas cuando ponen los toques finales.
[Vimeo http://vimeo.com/25933286 w = 470]