in ,

La empatía del algoritmo

Un sistema puede reconocer tu voz y reaccionar en consecuencia, pero a la hora de detectar si estás siendo serio o si es una broma, eso es algo que está fuera de su alcance, al menos, por ahora. La empresa Ei Technologies, estacionada en el Reino Unido, está desarrollando una plataforma de reconocimiento de voz basada en un algoritmo capaz de “detectar emociones” cuando hablamos.

¿Quién no ha dejado escapar un chiste, o se ha expresado con sarcasmo cuando hay un sistema automatizado al otro lado del teléfono? Aparentemente hay una sola verdad en esos sistemas, y es que “no” están para ayudarnos, ya que en la gran mayoría de los casos recorremos las opciones a la mayor velocidad posible para hablar con un ser humano real. Si existe alguna posibilidad de que esos sistemas mejoren en el futuro, dicha posibilidad radica en reconocer aspectos adicionales cuando hablamos. Dicho de otra forma, la señorita sexy del servicio de telefonía no tiene la menor idea de si estamos tranquilos y relajados, o si queremos incendiar todo con un lanzallamas porque el servicio apesta.

Onda sonora

La gente de Ei Technologies se encuentra trabajando en eso. Su desarrollo está concentrado sobre un algoritmo capaz de detectar cinco “estados” diferentes en nuestro tono de voz: Felicidad, tristeza, enfado, miedo y neutralidad. El CEO de Ei Technologies Matt Dobson la llama “plataforma de inteligencia emocional”, e inicialmente estará disponible a fin de año a través de una aplicación móvil conocida como Xpression. Como era de esperarse, la aplicación asumirá un rol de prototipo, y ya se están evaluando otras aplicaciones más allá de la atención al cliente, por ejemplo, la detección del estado emocional en un paciente cuando se comunica con su doctor.

De acuerdo a Dobson, el algoritmo ya cuenta con un nivel de precisión que es superior al del oído humano. Mientras que una persona puede detectar correctamente una emoción en el 60 por ciento de los casos, el algoritmo de Ei Technologies se ubica entre el 70 y el 80 por ciento. En un comienzo, el objetivo será incrementar el nivel de precisión, y no tanto expandir el algoritmo para que detecte otras emociones, como aburrimiento y soledad. Un punto importante detrás de este desarrollo es que funcionará en forma local, y no dependerá de la nube para procesar los datos, algo vital en situaciones de conectividad limitada.

Reportar

¿Qué te pareció?

Escrito por Lisandro Pardo

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

40 minutos para simular un segundo de actividad cerebral

SOL: Portátil solar que no necesitas enchufar