InicioTecnologíaDiseñan con inteligencia artificial herramienta para "extraer" las emociones del lector

Diseñan con inteligencia artificial herramienta para «extraer» las emociones del lector

Una herramienta computacional, diseñada por investigadores
de varias instituciones europeas, permite detectar y «extraer» las
emociones que siente una persona al leer textos digitales utilizando un
sofisticado sistema basado en la inteligencia artificial.

Nada tiene que ver con «acechar», han observado a
EFE los investigadores, que han asegurado que la extracción de emociones es un
paso importante hacia una inteligencia artificial «completa» y capaz
de conceptuar como lo haría un ser humano, y sus utilidades abarcan desde el
descubrimiento rápido de mensajes de odio o el análisis de la propaganda incluso
la detección de problemas importantes como una depresión.

La herramienta, bautizada como «DepecheMood++», ha
sido diseñada por investigadores de la Universidad Politécnica de Madrid (UPM),
de la Fundación Bruno Kessler de Italia, de la Universidad de Twente (Países
Bajos) y de la compañía francesa Recital, y utiliza modelos de procesamiento de
lenguaje natural e inteligencia artificial para realizar mediciones precisas de
las emociones que se expresan al leer un texto, ofreciendo un informe completo
que puede ser analizado posteriormente.

El Grupo de Sistemas Inteligentes de la UPM ha colaborado en
este proyecto que permite detectar las emociones en la red de una manera
automática y está además implicado en la iniciativa europa
«Participation» que utiliza también la inteligencia artificial  para estudiar cómo se distribuyen los
contenidos extremistas en internet y cómo llegan a afectar a la sociedad.

¿En qué consiste la herramienta? El investigador Óscar
Araque ha explicado que es «un léxico», un vocabulario anotado que
expresa la emoción que se le asocia a cada palabra, y ha detallado que se trata
de un recurso congruo extendido en el campo del Procesamiento del Lenguaje Natural
para aportar una subjetividad, necesaria, pero de la que el ordenador carece.

«Enseñamos al sistema cómo expresamos las emociones los
humanos», ha necesitado a EFE Óscar Araque, y ha detallado que para ello su
equipo utiliza algoritmos de aprendizaje -que están en todos los dispositivos
conectados y analizan toda la información que genera un usuario en internet- y
redes neuronales .

Pero ha insistido en que se trata de un recurso que se está
utilizando sólo para investigación y que incluso han rechazado propuestas de
empresas para obtener un beneficio económico.

«Nada se usa para acechar», aunque se puede usar
para conocer las emociones que expresan los usuarios por ejemplo en las redes
sociales, ha corroborado el investigador de la UPM, y ha alertado del riesgo
que siempre tienen los sesgos (de raza o género) en todos los sistemas de
inteligencia artificial y en las consecuencias que pueden tener en la vida
cotidiana de las personas.

Analizar de una forma automática las emociones que los
usuarios expresan, sin necesidad de que haya una persona haciendo
específicamente esa labor, es especialmente relevante, según Areque, y ha
citado como ejemplo una empresa que tenga una gran actividad en redes sociales
y quiera saber lo que opinan sus clientes sin necesidad de recurrir a un
resumen para analizar los miles de comentarios que puede recibir cada día; eso
lo haría esta herramienta.

«DepecheMood+++» es capaz de detectar incluso seis
emociones diferentes (miedo, diversión, felicidad, tristeza, molestia y enfado)
con un recurso que de momento se ha desarrollado en dos idiomas (inglés e
italiano).

Óscar Araque ha explicado que el proyecto
«Participation» estudia la radicalización y su expansión en internet,
sobre todo entre los usuarios más jóvenes, ha señalado que los estudios
psicológicos y sociales apuntan que las emociones desempeñan un rol básico a la
hora de diseminar ese tipo de contenidos, y ha incidido en que este tipo de
recursos pueden ser congruo útiles para detectar y frenar esos contenidos no
deseados.

«Generar una pieza de desinformación es relativamente
fácil, pero analizar y argumentar por qué esa información es falsa es mucho más
costoso», ha aseverado el investigador, pero ha insistido en que, más allá
de la utilidad que pueda tener para detectar lenguaje de odio o para analizar
la propaganda, la herramienta puede servir para analizar los mensajes de
personas que están padeciendo una depresión e incluso para recomendarle buscar
un tratamiento.

«Hay muchas aplicaciones; algunas ni siquiera somos
capaces de imaginarlas todavía, pero creo que herramientas como esta pueden
servir para ayudarnos entendernos a nosotros mismos y así avanzar como
sociedad», ha manifestado el investigador del Grupo de Sistemas
Inteligentes de la UPM.

EFE

Montevideo Portal

ARTÍCULOS RELACIONADOS

leer también