| ||
Crean software que reconoce emociones | ||
Fue armado por científicos argentinos del Conicet y la UNL | ||
Científicos del Conicet y de la Universidad Nacional del Litoral (UNL) diseñaron un software que "reconoce emociones automáticamente" y que, según sus creadores, "puede mejorar la interacción entre las personas y las máquinas". El software procesa la señal de la voz del hablante para identificar automáticamente la emoción que transmite esa alocución. "Cuando uno habla dice mucho más que palabras porque hay características de la forma de hablar que delatan nuestro enojo, miedo o alegría", explican los investigadores. A diferencia de los modelos de reconocimiento del habla, como los que permiten el marcado por voz en los celulares, este sistema no trata de identificar qué se dice sino cómo se lo dice. Es decir, intenta descifrar la información implícita en la señal que refiere al estado emocional de la persona que habla. Luego de experimentar con dos modelos estadísticos de procesamiento diferentes, los investigadores obtuvieron resultados satisfactorios logrando hasta un 76% de reconocimientos correctos al utilizar siete emociones y un 97% cuando usaron sólo tres. "Es un área de investigación que ha cobrado fuerte interés en los últimos años y aún no hay ningún desarrollo comercial disponible. Particularmente, el reconocimiento de las emociones es de gran interés para mejorar la interacción hombre-máquina", explicó la estudiante Belén Crolla, del Grupo de Investigación de Señales e Inteligencia Computacional de la Facultad de Ingeniería y Ciencias Hídricas (FICH) de la UNL y el Conicet. El trabajo fue presentado en la 34 Conferencia Latinoamericana de Informática organizada por la UNL, la Universidad Tecnológica Nacional (UTN) y el Conicet, entre otras instituciones. El proyecto consistió en estudiar la información implícita en las señales de voz. Para ello generaron un modelo de reconocimiento automático de las emociones clasificadas como primarias: alegría, ira, miedo, aburrimiento, tristeza y disgusto; además del estado neutral. El modelo consiste en una primera etapa de procesamiento de la señal del habla y una segunda de clasificación que constituye el sistema inteligente propiamente dicho. | ||
Use la opción de su browser para imprimir o haga clic aquí | ||