ABE: Una arquitectura de software basada en agentes para un marco de reconocimiento de emociones multimodal
Compartir:


J. Gonzalez-Sanchez, M. E. Chavez-Echeagaray, R. Atkinson, W. Burleson. Universidad Estatal de Arizona, EE. UU.
Resumen
La capacidad de la computadora para reconocer los estados emocionales humanos dados los señales fisiológicos está ganando popularidad para crear sistemas empáticos tales como entornos de aprendizaje, sistemas de salud y videojuegos. A pesar de ello, hay pocos marcos, bibliotecas, arquitecturas o herramientas de software que permitan a los desarrolladores de sistemas integrar fácilmente el reconocimiento de emociones en sus proyectos de software. El trabajo reportado aquí ofrece un primer paso para llenar este vacío en la falta de marcos y modelos, abordando: (a) el modelado de una arquitectura basada en componentes impulsada por agentes para el reconocimiento multimodal de emociones, llamada ABE, y (b) el uso de ABE para implementar un marco de reconocimiento multimodal de emociones que apoye a sistemas de terceros para convertirse en sistemas empáticos.Haz clic aquí para leer el informe completo
J. Gonzalez-Sanchez, M. E. Chavez-Echeagaray, R. Atkinson, W. Burleson. Universidad Estatal de Arizona, EE. UU.
Resumen
La capacidad de la computadora para reconocer los estados emocionales humanos dados los señales fisiológicos está ganando popularidad para crear sistemas empáticos tales como entornos de aprendizaje, sistemas de salud y videojuegos. A pesar de ello, hay pocos marcos, bibliotecas, arquitecturas o herramientas de software que permitan a los desarrolladores de sistemas integrar fácilmente el reconocimiento de emociones en sus proyectos de software. El trabajo reportado aquí ofrece un primer paso para llenar este vacío en la falta de marcos y modelos, abordando: (a) el modelado de una arquitectura basada en componentes impulsada por agentes para el reconocimiento multimodal de emociones, llamada ABE, y (b) el uso de ABE para implementar un marco de reconocimiento multimodal de emociones que apoye a sistemas de terceros para convertirse en sistemas empáticos.Haz clic aquí para leer el informe completo
J. Gonzalez-Sanchez, M. E. Chavez-Echeagaray, R. Atkinson, W. Burleson. Universidad Estatal de Arizona, EE. UU.
Resumen
La capacidad de la computadora para reconocer los estados emocionales humanos dados los señales fisiológicos está ganando popularidad para crear sistemas empáticos tales como entornos de aprendizaje, sistemas de salud y videojuegos. A pesar de ello, hay pocos marcos, bibliotecas, arquitecturas o herramientas de software que permitan a los desarrolladores de sistemas integrar fácilmente el reconocimiento de emociones en sus proyectos de software. El trabajo reportado aquí ofrece un primer paso para llenar este vacío en la falta de marcos y modelos, abordando: (a) el modelado de una arquitectura basada en componentes impulsada por agentes para el reconocimiento multimodal de emociones, llamada ABE, y (b) el uso de ABE para implementar un marco de reconocimiento multimodal de emociones que apoye a sistemas de terceros para convertirse en sistemas empáticos.Haz clic aquí para leer el informe completo