Emoción en la voz

1. Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño

2. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la Primera Ley

3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la Primera o la Segunda Ley

Por supuesto, los tecnológicamente maravillosos robots descritos por Asimov en su obra están muy lejos de ser posibles hoy en día: el cerebro positrónico no ha sido inventado. Y quizá nos vaya mejor sin ellos. Sin embargo, se están dando pasos imprescindibles para, algún día, tener máquinas con la capacidad moral que estos robots atesoraban. Máquinas capaces de asimilar información afectiva.

Volviendo al mundo real, algo claro es que una máquina sensible a emociones humanas podrá satisfacer al usuario más allá de la mera utilidad técnica. Un claro ejemplo de un entorno donde la atención a las emociones puede ayudar a una máquina a cumplir mejor su tarea es en los call centers y sistemas de diálogo automáticos. En este sentido, VoicePrism ha presentado recientemente la solución CallPrism, para call centers, donde se monitoriza, además del texto hablado, las emociones latentes en la voz.

La monitorización de las emociones es un primer paso, imprescindible para que una máquina pueda reaccionar de forma afectiva a la voz. Ya hay quien intenta dar los siguientes pasos. La RoomRender, presentada recientemente por SGI, utiliza la tecnología de procesamiento de voz AmiVoice, de Advanced Media Inc, gracias a la cual la habitación es capaz no sólo de reconocer órdenes vocales básicas relacionadas con los servicios que controla, sino además, de adaptar los colores de las paredes, e incluso modificar el aroma de la habitación, para armonizarse con las emociones percibidas en la voz. Un ejemplo curioso es Kotohana, flores artificiales que cambian de color en función de las inflexiones de la voz. La tecnología empleada en Kotohana se denomina Sensibility Technology, y ha sido desarrollada por la propia SGI en colaboración con NEC. Por último cabe mencionar la Shoji Lamp, una lámpara que modula la iluminación utilizando información de las voces, movimientos, calor o humedad en la sala en la que se encuentre, desarrollada conjuntamente por Telefonica I+D y Arduino, como prueba de concepto de estas tecnologías.

La emergencia comercial, y el reto tecnológico que aún supone esta tecnología, ha animado a Gradiant a conseguir una tecnología propia para reconocimiento de emociones en voz, dentro del proyecto PROSSAE. En este proyecto se extraerá información emotiva tanto del rostro como de la voz, consiguiendo una información emotiva complementaria, a veces quizá contradictoria, pero en todo caso más completa, permitiendo una comprensión más precisa del estado emotivo del usuario.

Aunque estemos aún muy lejos de conseguir máquinas empáticas, capaces de psicoanalizarnos como Sigfrid, el robot psiquiatra de Pórtico (Frederik Pohl, 1977); aunque estemos todavía más lejos de aceptar que tal cosa sea posible, se están dando los primeros pasos, titubeantes, prometedores, para poder trascender el frío mensaje, para, en definitiva, no sólo entender lo que dice un humano, sino lo más importante, al humano.

Twittear

Share on FacebookGoogle+Tweet about this on TwitterShare on LinkedIn