Se busca corazón para robot


Ya ha pasado tiempo desde que los robots forman parte de nuestra vida, desde los robot de cocina, robot aspirador, robot de juguete hasta los robots industriales. Aunque la labor que realiza cada uno de ellos es incuestionable, ninguno de ellos se asemeja a tal y como nos lo habíamos imaginado o como nos lo habían plasmado en las películas de ciencia ficción.

Aunque parezca mentira el ser humano está más que acostumbrado a tratar e interaccionar con robots, y prueba de ello es la cantidad de llamadas que realizamos a teléfonos de asistencia telefónica, donde somos atendidos por una máquina que nos guía en nuestro problema a través del reconocimiento de voz e interpretación del contenido. Otro de los robots que se ha colado en nuestra vida sin darnos cuenta es el asistente personal telefónico Siri, o su semejante en Android. La popularidad de estas aplicaciones es meteórica y ya son muchas las preguntas que recibe a diario, desde localización y sugerencia de lugares hasta preguntas un poquito más íntimas. Sería muy gracioso que Apple hiciera público las preguntas más excéntricas que le hayan podido hacer a Siri. Sin embargo, aunque en muchas de las ocasiones nuestra conversación no fluye con demasiada normalidad, la aplicación tiene un mecanismo de autoaprendizaje que hace que nuestra interacción sea cada vez más natural y acertada, o al menos eso dice Apple

Todos sabemos, por nuestra propia experiencia, que al día de hoy el reconocimiento del habla no está del todo depurado y que hay un largo camino por delante para llegar a entablar un conversación natural con un robot.

Sin embargo, este problema ya se está atacando desde diferentes campos y uno de ellos, como comenta la profesora de electrónica y computación de la universidad de Hong Kong Pascale Fung, es la creación de un módulo empático para el robot. Según Pascale, uno de los motivos por los que no tenemos conversaciones naturales con robots es porque los robots, solamente identifican y procesan las palabras de una conversación, no tienen en cuenta ni emociones, ni ironía, ni sarcasmo”. Para ello, están desarrollando éste módulo, el cual podrá interpretar estos factores.

Robot mostrando empatía con los humanos

En muchas ocasiones, no es necesario estar escuchando las palabras de una conversación para saber o interpretar más o menos lo que se puede estar hablando. A todos nos ha ocurrido, cuando nos ponemos hablar con alguien que no habla nuestra lengua, que con tan sólo fijarnos en su lenguaje corporal, gestos faciales o tono de la voz, somos capaces de intuir que es lo que nos está diciendo.

Así es como el modulo empático de la profesora Fung trabaja. En vez de fijarse más en las palabras, se fija más en el procesamiento de señales como el tono de voz, para saber si una persona está alegre o triste, la velocidad del habla, para saber si estamos estresados… En definitiva, lo que detecta este módulo son emociones.

Para ello, han mantenido multitud de conversaciones con voluntarios, sometiéndoles a situaciones de estrés y cambios de humor, para sacar patrones frecuenciales de esas conversaciones. Al mismo tiempo, han analizado cuales son las características sonoras de aquellas canciones que producen una cambio de estado anímico en las personas. Y todo esto, para diseñar algoritmos que sean capaces de detectar esos sonidos o frecuencias en nuestra conversaciones.

Para que éste módulo funcione correctamente es necesario, aparte del análisis de nuestras emociones, la detección de palabras clave durante la conversación que indiquen un estado de ánimo, como por ejemplo podría ser la frase: “Venga, vamos hacer algo”. La cual revelaría al software de detección un estado efusivo en la conversación.

Este software ya está en su fase de pruebas según comenta Pascale y como si de la película “Ex machina” se tratara, han diseñado un robot digital (una cara de un robot en el ordenador), el cual analiza todos tus gestos faciales a través de una cámara y te va guiando en una sesión de preguntas para ir conociendo tanto el tono de tu voz como la forma en la que hablas, para conseguir mantener una conversación natural.

Una vez el prototipo pase todas las pruebas, la idea es cargar este software en un robot humanoide, aportándole a éste una humanidad, que estoy seguro que a muchos de nosotros nos asustaría.

Parece, que los días de pelea con las maquinas de operadoras telefónicas van llegando a su fin. Gracias a los avances tecnológicos los robots humanoides cada vez se van pareciendo más a los de las películas futuristas. Movimientos cada vez más articulados, interpretación del entorno mediante cámaras, múltiple sensorización y ahora interpretación y práctica de un lenguaje natural, hace que los robots tengan cada vez más apariencia humana. Parece que Isaac Asimov lo tuvo claro desde un principio y posiblemente tengamos que poner en practica sus Leyes de la Robótica, ante la llegada inminente de robots empáticos, pero la pregunta es, ¿seremos nosotros empáticos con ellos?


 

No hay comentarios

Agregar comentario

Simple Share ButtonsGracias!!
Simple Share Buttons

APOYA LA INVESTIGACIÓN

HAZ QUE SE DIVULGUE!

Nombre:

Email:

Mailchimp se encargará de la protección de tus datos