Muy Interesante
CDMX.- La tecnología que convierte cualquier objeto en un mando a distancia.
Las frustrantes búsquedas del mando a distancia, perdido entre los cojines del sofá, podrían terminar para siempre, y estos objetos, pasar a convertirse en nostálgicas piezas de museo, como los teléfonos de disco giratorio, los casettes, o incluso, los móviles de botones, con aspecto de ‘ladrillo’.
Una nueva tecnología de control de gestos que permite convertir objetos cotidianos (vivos o inanimados) en un control remoto podría revolucionar la forma en que interactuamos con televisores y otras pantallas.
Puedes escoger que tu taza de café ajuste el volumen moviéndola lateralmente, o que una sacudida de cabeza permita cambiar de canal.
El sistema se denomina Matchpoint, y puede seleccionar diferentes objetos, seres, o incluso partes del cuerpo para controlar los canales de televisión. Funciona mediante la visualización de objetivos móviles que orbitan en torno a un pequeño menú circular en la esquina de la pantalla. Para activarlo, la pantalla del televisor primero identifica las funciones a través de diferentes iconos, como el volumen o el cambio de canal.
Después, una vez que una función ha sido seleccionada, podrás escoger tu mano, tu cabeza o un objeto de tu entorno y vincularlo con dicha función. Una vinculación que los científicos han denominado ‘acoplamiento espacial espontáneo’. Importante: el objeto vinculado debe estar en el campo de visión de una webcam, instalada en la pantalla.
Por ejemplo, puedes escoger que tu taza de café ajuste el volumen moviéndola lateralmente, o que una sacudida de cabeza permita cambiar de canal. Eso sí, el objeto deseado mantiene su función siempre que la webcam instalada en la pantalla detecte su movimiento; si no, la función se desactiva.
A diferencia de la tecnología de control de gestos existente, busca movimientos giratorios que no requiera calibración, o que el software tenga conocimiento previo de objetos. Esto proporciona mucha más flexibilidad y facilidad para el usuario, ya que funciona incluso cuando las manos están llenas, y mientras se está de pie o tumbado en el sofá.
Si bien este avance no parece sorprendente a priori, dado que la tecnología ya puede desde hace tiempo reconocer objetos y personas, es la primera vez que un usuario no necesitará aprender comandos específicos para activar diferentes funciones, y será capaz de acoplar y desacoplar a voluntad.
Además de los televisores, esta tecnología también se puede utilizar con otras pantallas. Por ejemplo, los tutoriales de YouTube, (cómo arreglar la rueda de tu bici o diez ideas de pasteles para hornear), se pueden pausar fácilmente y rebobinar en móviles y tabletas.
Permite manipular imágenes en pizarras utilizando dos manos para acercar y alejar, y girar las imágenes.
Las funciones son inmensas. Pueden crearse múltiples punteros para permitir que más de un usuario apunte a dibujos o imágenes en pizarras interactivas simultáneamente. Matchpoint también permite a los usuarios manipular imágenes en pizarras utilizando dos manos para acercar y alejar, y girar las imágenes.
“Incluso puedes cambiar de canal con el gato”, dicen los desarrolladores.
Los investigadores creen que Matchpoint también es adecuado para ser utilizado como una herramienta de accesibilidad para las personas que no pueden usar punteros tradicionales, como controles remotos y un ratón y teclado.
Uso quirúrgico
Los investigadores creen que el nuevo software es muy útil para manejar pantallas mientras se realizan otras tareas, como la cocina, dado que no es necesario que las manos estén desocupadas para sus funciones.
Esto ha dado pie a que los profesionales de la medicina muestren interés en esta nueva tecnología. Los cirujanos a veces necesitan tener acceso a determinada información en la pantalla mientras intervienen, por ejemplo. “No necesitarán tener herramientas al lado ni tocar nada durante una operación, lo que resultaría antihigiénico”, indica el desarrollador del software, el Dr. Christian Clarke, de la Universidad de Lancaster, en Reino Unido.
El nuevo concepto tendrá su demostración oficial durante la conferencia User Interface Software and Technology 2017 (UIST2017) en Quebec, en Canadá, el mes de noviembre.