Utilizamos cookies propias y de terceros para mejorar la experiencia del usuario a través de su navegación. Si continúas navegando aceptas su uso. Puedes leer más sobre nuestra política de privacidad aquí.

Nao, traductor de emociones

El Instituto de Robótica para la Dependencia tiene en marcha una iniciativa para convertir robots como Nao en traductores de emociones de las personas con discapacidad intelectual severa. “Estas personas no pueden explicar cómo se sienten, pero podemos saberlo de forma objetiva si el robot integra información de diferentes aspectos como la expresión de su cara, hacia dónde mira, el timbre de voz, el ritmo cardiaco, la actividad cerebral, la actividad electrodermal o la sudoración, y un software identifica eso con un estado emocional”, explica Joan Oliver, responsable de in­vestigación del instituto. El proyecto, denominado Au­tonome, está en marcha en el centro residencial que la Fundación Ave María tiene en Sitges. “Usamos pulseras de actividad física para el ritmo cardíaco y la actividad electrodermal, y cascos para medir la actividad cerebral conectados a una consola táctil, y esa información se registrará a lo largo del tiempo para saber qué actividad le gusta y cuál no a esa persona, cuándo le gusta más, con qué monitor, si el nivel de actividad es adecuado o le estresa... y todo eso será muy útil al terapeuta para personalizar las actividades y para relacionar la evolución cognitiva y el estado emocional de cada uno”, detalla Oliver.

En la residencia de la Fundación Ave María de Sitges para personas con discapacidad intelectual hace tiempo que los robots participan en las terapias. Los pedagogos los aprovechan para estimular la memoria, la coordinación motora, el reconocimiento verbal, la atención... Un ejemplo es el bingo musical, actividad en la que el robot canta mientras se pasea por la mesa y las personas que asisten a la terapia han de reconocer quién es el cantante y marcarlo colocando una ficha sobre la imagen de ese artista. “Con ello trabajan la memoria, la asociación de imágenes, la psicomotricidad fina y la coordinación visomotora”, apunta Oliver. Y enfatiza que toda esa terapia podrá ser más efectiva si el robot reconoce el estado emocional de cada persona y adapta a él la actividad.

Fuente: La Vanguardia

Entidad adherida a: