El dispositivo deduce cómo se siente un usuario a partir del sonido de su voz

Hoy en día un reloj o una pulsera inteligente pueden saber cuántos pasos da una persona, los kilómetros que recorre, las calorías que quema e incluso qué tal ha pasado la noche al monitorizar el sueño. Pero por lo general los dispositivos de este tipo no son capaces de comprobar si quien los porta está contento, estresado, triste o enfadado. Hay compañías que trabajan para que esto sea posible. Amazon prepara un wearable activado por voz que puede reconocer las emociones humanas, según ha informado este jueves Bloomberg tras revisar unos documentos internos de la compañía.

Este dispositivo, que se llevaría en la muñeca y funcionaría con una aplicación móvil, aparece descrito en dichos documentos como un producto de salud y bienestar. No está claro en qué punto se encuentra este proyecto o si finalmente el wearable saldrá al mercado. Este periódico se ha puesto en contacto con la compañía de Jeff Bezos, que no ha hecho ninguna declaración al respecto.

Las máquinas capaces de detectar emociones son habituales en ciencia ficción: están presentes desde en las historias de Isaac Asimov hasta en películas más recientes como HerBig Hero 6 o Ex Machina. El dispositivo de Amazon descrito por el medio estadounidense contaría con micrófonos combinados con un software que puede distinguir el estado emocional del usuario a partir del sonido de su voz, según los documentos y una persona familiarizada con el programa. Además de leer las emociones, el dispositivo también podría aconsejar al usuario sobre cómo interactuar de manera más efectiva con los demás.

“Lo que plantea Amazon de detectar emociones a través de la voz yo lo miraría con un cierto escepticismo o una cierta prudencia, en el sentido de que pueda funcionar siempre y con una calidad muy alta, pero desde luego no es algo que no se pueda hacer. Es algo que se está haciendo y que antes o después lo vamos a ver”, afirma Roberto Font, responsable de I+D de Biometric Vox, empresa tecnológica española especializada en herramientas de biometría de voz.

Esta tecnología podría ayudar a la compañía a orientar mejor la publicidad o las recomendaciones de productos. Una patente estadounidense presentada en 2017 y recogida por Bloomberg describe un sistema que mediante el análisis de patrones de voz es capaz de averiguar cómo se siente un usuario y discernir entre «alegría, enojo, pena, tristeza, miedo, disgusto, aburrimiento, estrés u otros estados emocionales». Un diagrama en la solicitud de patente muestra a una mujer que le dice a Alexa que tiene hambre. El asistente digital, al darse cuenta por su voz de que tiene un resfriado, le pregunta a la mujer si le gustaría una receta de sopa de pollo.

Este wearable sería, según el medio estadounidense, el resultado de una colaboración entre Lab126, el grupo de desarrollo de hardware detrás del teléfono Amazon Fire y el altavoz inteligente Echo, y el equipo de software de voz de Alexa. El nombre en clave del proyecto es Dylan y habría un programa de prueba beta en marcha aunque no está claro si incluye un prototipo de hardware, el software de detección de emociones o ambos.

Mejoras en los sistemas de reconocimiento de voz

Font explica que “actualmente la tecnología de la voz está avanzando muchísimo”. Y diferencia entre tres aspectos que se pueden apreciar cuando alguien habla: “Lo primero que percibimos es lo que está diciendo, el contenido, que en el caso de una máquina sería el reconocimiento de voz. Luego identificamos quién es la persona que está hablando. Esto sería reconocimiento de hablante o biometría vocal. En tercer lugar, hay cosas más sutiles como puede ser el reconocimiento de emociones”.

Mientras que el reconocimiento de voz y la identificación del hablante están en una etapa “madura”, el reconocimiento de emociones “está en un punto más incipiente”. “Se trata quizás de la información que está más escondida dentro de la voz. Eso hace que sea más difícil a nivel técnico extraer esa información descartando todo lo demás”, afirma. Además, subraya la dificultad de entrenar a un sistema de este tipo, ya que se necesita un gran número de grabaciones. Y lanza la siguiente pregunta: “¿Cómo generamos una base de datos donde sepamos qué emoción está experimentando la persona que habla cuando en muchos casos es incluso subjetivo?”.

Los avances en los sistemas de reconocimiento de emociones pueden hacer que un asistente se adapte al estado de ánimo del usuario y conseguir así que “la comunicación con la máquina sea un poco más humana y empática”. “Actualmente cuando un hombre actúa con un asistente virtual, la experiencia es un poco fría porque es muy palpable que es una máquina con respuestas predeterminadas”, cuenta.

Amazon trata de mejorar cada vez más su asistente. Para ello, cuenta con miles de empleados en todo el mundo que escuchan a diario conversaciones aleatoriasque los usuarios mantienen en sus casas y oficinas con Alexa, según adelantó Bloomberg. La gran cantidad de datos y grabaciones que esta compañía recopila de los usuarios ha provocado que se encuentre en el punto de mira junto con otros gigantes tecnológicos.

La información sobre los clientes puede ser útil para mejorar la experiencia del usuario y recomendarle libros, música, películas u otros productos en función de su estado de ánimo. Pero que una máquina “se meta en la cabeza del usuario y trate de adivinar lo que siente” también conlleva un riesgo y suscita dilemas éticos tal y como muestran algunos precedentes. Por ejemplo, Facebook analizó datos de más de seis millones de adolescentes australianos y neozelandeses para determinar su estado de ánimo y facilitar a los anunciantes información sobre los momentos en los que se sentían más vulnerables, según un documento de la compañía en Australia filtrado en 2017 por el periódico The Australian.

Font considera que “tratar de vender algo a alguien en un momento en el que esté más vulnerable plantea dudas en cuanto a privacidad y seguridad”: “Entiendo que el usuario tendrá que ser muy consciente de qué se está haciendo y haberlo autorizado porque el hecho de que intenten leer tus emociones es hasta cierto punto invasivo”.

Fuente: https://elpais.com/tecnologia/2019/05/23/actualidad/1558626184_940927.html

Deja una respuesta