Défiez votre mémoire ! Jouez au nouveau jeu N-Back dans l'application Emotiv

ABE : une architecture logicielle basée sur les agents pour un cadre de reconnaissance des émotions multimodal

Partager :

J. Gonzalez-Sanchez, M. E. Chavez-Echeagaray, R. Atkinson, W. Burleson. Université d'État de l'Arizona, États-Unis

Résumé

La capacité de l'ordinateur à reconnaître les états émotionnels humains à partir de signaux physiologiques gagne en popularité pour créer des systèmes empathiques tels que des environnements d'apprentissage, des systèmes de santé et des jeux vidéo. Malgré cela, il existe peu de frameworks, bibliothèques, architectures ou outils logiciels qui permettent aux développeurs de systèmes d'intégrer facilement la reconnaissance des émotions dans leurs projets logiciels. Le travail rapporté ici offre un premier pas pour combler cette lacune dans le manque de frameworks et de modèles, abordant : (a) la modélisation d'une architecture basée sur des composants pilotée par des agents pour la reconnaissance multimodale des émotions, appelée ABE, et (b) l'utilisation d'ABE pour mettre en œuvre un cadre de reconnaissance multimodale des émotions afin de soutenir des systèmes tiers devenant des systèmes empathiques.Cliquez ici pour lire le rapport complet

J. Gonzalez-Sanchez, M. E. Chavez-Echeagaray, R. Atkinson, W. Burleson. Université d'État de l'Arizona, États-Unis

Résumé

La capacité de l'ordinateur à reconnaître les états émotionnels humains à partir de signaux physiologiques gagne en popularité pour créer des systèmes empathiques tels que des environnements d'apprentissage, des systèmes de santé et des jeux vidéo. Malgré cela, il existe peu de frameworks, bibliothèques, architectures ou outils logiciels qui permettent aux développeurs de systèmes d'intégrer facilement la reconnaissance des émotions dans leurs projets logiciels. Le travail rapporté ici offre un premier pas pour combler cette lacune dans le manque de frameworks et de modèles, abordant : (a) la modélisation d'une architecture basée sur des composants pilotée par des agents pour la reconnaissance multimodale des émotions, appelée ABE, et (b) l'utilisation d'ABE pour mettre en œuvre un cadre de reconnaissance multimodale des émotions afin de soutenir des systèmes tiers devenant des systèmes empathiques.Cliquez ici pour lire le rapport complet

J. Gonzalez-Sanchez, M. E. Chavez-Echeagaray, R. Atkinson, W. Burleson. Université d'État de l'Arizona, États-Unis

Résumé

La capacité de l'ordinateur à reconnaître les états émotionnels humains à partir de signaux physiologiques gagne en popularité pour créer des systèmes empathiques tels que des environnements d'apprentissage, des systèmes de santé et des jeux vidéo. Malgré cela, il existe peu de frameworks, bibliothèques, architectures ou outils logiciels qui permettent aux développeurs de systèmes d'intégrer facilement la reconnaissance des émotions dans leurs projets logiciels. Le travail rapporté ici offre un premier pas pour combler cette lacune dans le manque de frameworks et de modèles, abordant : (a) la modélisation d'une architecture basée sur des composants pilotée par des agents pour la reconnaissance multimodale des émotions, appelée ABE, et (b) l'utilisation d'ABE pour mettre en œuvre un cadre de reconnaissance multimodale des émotions afin de soutenir des systèmes tiers devenant des systèmes empathiques.Cliquez ici pour lire le rapport complet