Hemos visto a diferentes tipos de robots hacer cosas muy llamativas, pero el aprendizaje sigue siendo uno de los puntos de mayor atracción. Lo que comienza como una acción torpe y dubitativa se convierte en una ejecución fluída y precisa, gracias al reconocimiento de patrones reiterados. Y en esta ocasión, dichos patrones son nada menos que sonreír y fruncir el ceño. Si el robot hace lo que tú quieres, le sonríes para confirmarlo, mientras que realizar una expresión de enojo es suficiente para indicarle lo opuesto.
Un grupo de investigadores de la Universidad de Tsukuba ha desarrollado una interfaz electromiográfica, capaz de detectar cuando un usuario está sonriendo, o ha fruncido el ceño. Anna Gruebler, quien parece ser la mente maestra detrás de esta interfaz, propuso al desarrollo como un sistema para controlar las expresiones de los avatares en Second Life. La detección de gestos no se limitan a sonrisas y ceños fruncidos, ya que su precisión alcanza un impresionante 97 por ciento. Esto dio lugar a la utilización de la interfaz como método de entrenamiento de un robot nao, el cual aprendió después de algunos intentos que la sonrisa era “positiva”, y el ceño fruncido “negativo”.
Más allá del avance, lo más lógico sería pensar que la interfaz se limita a transmitir una comparación “correcto/incorrecto” entre la sonrisa y fruncir el ceño, aunque sabemos bien lo emocionales que pueden ser los robots Nao. La interfaz abre unas cuantas posibilidades, y tanto sonreír como fruncir el ceño son acciones naturales para cualquier usuario, pero siendo honesto, no sé si me gustaría sonreír todo el día sólo para que un robot haga lo que le pido. Ahora, la interfaz misma podría ser aplicada y combinada con otras tecnologías. Si algo como “un kinect” un Kinec” puede detectar nuestros movimientos, y la interfaz hacer lo mismo con nuestras expresiones, la experiencia de un avatar en línea sería mucho más completa.