La nueva tecnología, presentada en la 180ª reunión de la Asociación Acústica Americana (ASA), se basa en un sistema de inversión de habla que mapea seí±ales acústicas para localizar variaciones en la voz de las personas
Por: ExcélsiorÂ
Investigadores de la Universidad de Maryland (Estados Unidos) han desarrollado un modelo de Inteligencia Artificial (IA) que permite a una aplicación de móviles analizar la voz y advertir cambios que
indican que una persona sufre depresión o que está empeorando.
La nueva tecnología, presentada en la 180ª reunión de la Asociación Acústica Americana (ASA), se basa en un sistema de inversión de habla que mapea seí±ales acústicas para localizar variaciones en la voz de
las personas.
Con esta información, un modelo de IA implementado en una aplicación es capaz de mostrar el tiempo y el movimiento espacial de los gestos del habla, un elemento que puede usarse para detectar depresiones y
otras enfermedades mentales, según recoge el estudio.
Su autora principal, la investigadora de la Universidad de Maryland Carol Espy-Wilson, ha explicado que "la depresión suele ir acompaí±ada de lentitud psicomotora" que hace que las personas no puedan pensar
ni hablar rápido, de manera que las personas con depresión "hacen más pausas y más largas que quienes no están deprimidos".
El uso de técnicas de aprendizaje automático en la aplicación permite entrenar a un modelo que clasifica los datos de voz según la salud mental de las personas, con el objetivo de ayudar a estas a que através de su móviles sean capaces de estar informadas sobre su estado.
Los investigadores esperan que esta información pueda utilizarse para alertar a las personas cuando se detecta que los síntomas de la depresión están empeorando.