A estas alturas creo que a nadie le sorprende encontrarse dispositivos con pantalla táctil (móviles, tablets, cajeros automáticos, navegadores GPS, etc) o dispositivos que se activan mediante gestos que son captados por una cámara (como el Kinect de Microsoft). Parece que el control táctil de dispositivos, o mediante gestos, es un estándar que cada vez vemos en más dispositivos. Como cualquier tecnología también ha ido evolucionando (de pantallas resistivas a capacitivas, por ejemplo) y, lógicamente, se sigue trabajando en proyectos que intenten marcar el futuro de este tipo de interfaces. El centro de investigación de Microsoft, Microsoft Research, lleva casi 11 años trabajando en dispositivos táctiles y pensando en el futuro de éstos así que, aprovechando una convención sobre interfaces e interacción, han presentado dos de sus líneas de investigación: OmniTouch y PocketTouch.
OmniTouch
OmniTouch es un proyecto bastante vistoso que ha sido llevado a cabo por Chris Harrison (un estudiante de doctorado de la Universidad Carnegie Mellon y antiguo becario del Microsoft Research), Hrvoje Benko y Andy Wilson (de Microsoft Research) y que consiste en un sistema que el usuario lleva puesto y que le ofrece un sistema que ofrece visualización gráfica e interacción multitáctil sobre cualquier tipo de superficie.
Queríamos aprovechar las enormes superficies que ofrece el mundo real. La superficie de la palma de una mano, en algunos casos, es más grande que la pantalla de un smartphone y las mesas son mucho más grandes que un tablet. Si podemos aprovechar esas superficies y adaptarnos al tamaño de éstas, podríamos dotar a los dispositivos móviles con una capacidad enorme para interactuar con los usuarios.
El OmniTouch se ha construido para ser llevado puesto, como si fuese una mochila, y está compuesto por un pico-proyector láser y una cámara que es sensible a la profundidad. La idea es que la cámara y el proyector se calibren la una a la otra, simplemente, mediante su uso, adaptando la imagen en todo momento a la superficie y a nuestros movimientos:
Esta cámara, realmente, funciona de la misma manera que Kinect pero en un rango de distancia más pequeño. La combinación de la cámara y el proyector simplifica mucho las cosas puesto que la cámara reporta la profundidad y el láser proyecta una imagen que siempre está enfocada. Si se produce un movimiento, la cámara lo detecta y se corrige la imagen del láser.
Uno de los detalles más curiosos del proyecto es la adaptación de la imagen a la superficie de proyección. En una primera aproximación, el equipo definió patrones fijos (un brazo, la mano, una libreta o una pared), algo que requirió que el sistema aprendiese a detectar y clasificar estos patrones para proyectar la imagen más adecuada. Por otro lado, la segunda aproximación se fundamentó en el uso de un puntero con el que se definen los límites de la superficie a utilizar y, así, adaptar la imagen.
Queríamos usarlo sobre cualquier superficie. Si dejamos que el usuario defina el área de trabajo y el sistema es capaz de adaptarse, estaremos creando un sistema muy flexible y adaptable a las necesidades del usuario.
No hay comentarios:
Publicar un comentario