Fordern Sie Ihr Gedächtnis heraus! Spielen Sie das neue N-Back-Spiel in der Emotiv-App
Fordern Sie Ihr Gedächtnis heraus! Spielen Sie das neue N-Back-Spiel in der Emotiv-App
Fordern Sie Ihr Gedächtnis heraus! Spielen Sie das neue N-Back-Spiel in der Emotiv-App
ABE: Eine agentenbasierte Softwarearchitektur für ein multimodales Emotionserkennungsframework
Teilen:


J. Gonzalez-Sanchez, M. E. Chavez-Echeagaray, R. Atkinson, W. Burleson. Arizona State University, USA
Zusammenfassung
Die Fähigkeit des Computers, menschliche emotionale Zustände anhand physiologischer Signale zu erkennen, gewinnt an Popularität, um mitfühlende Systeme wie Lernumgebungen, Gesundheitssysteme und Videospiele zu schaffen. Dennoch gibt es nur wenige Frameworks, Bibliotheken, Architekturen oder Software-Tools, die es Systementwicklern ermöglichen, die Emotionserkennung einfach in ihre Softwareprojekte zu integrieren. Die hier berichtete Arbeit bietet einen ersten Schritt, um diese Lücke im Mangel an Frameworks und Modellen zu schließen, indem sie: (a) die Modellierung einer agentengetriebenen komponentenbasierten Architektur für multimodale Emotionserkennung, genannt ABE, und (b) die Verwendung von ABE zur Implementierung eines multimodalen Emotionserkennung-Frameworks zur Unterstützung von Drittanwendungssystemen zu mitfühlenden Systemen adressiert.Klicken Sie hier, um den vollständigen Bericht zu lesen
J. Gonzalez-Sanchez, M. E. Chavez-Echeagaray, R. Atkinson, W. Burleson. Arizona State University, USA
Zusammenfassung
Die Fähigkeit des Computers, menschliche emotionale Zustände anhand physiologischer Signale zu erkennen, gewinnt an Popularität, um mitfühlende Systeme wie Lernumgebungen, Gesundheitssysteme und Videospiele zu schaffen. Dennoch gibt es nur wenige Frameworks, Bibliotheken, Architekturen oder Software-Tools, die es Systementwicklern ermöglichen, die Emotionserkennung einfach in ihre Softwareprojekte zu integrieren. Die hier berichtete Arbeit bietet einen ersten Schritt, um diese Lücke im Mangel an Frameworks und Modellen zu schließen, indem sie: (a) die Modellierung einer agentengetriebenen komponentenbasierten Architektur für multimodale Emotionserkennung, genannt ABE, und (b) die Verwendung von ABE zur Implementierung eines multimodalen Emotionserkennung-Frameworks zur Unterstützung von Drittanwendungssystemen zu mitfühlenden Systemen adressiert.Klicken Sie hier, um den vollständigen Bericht zu lesen
J. Gonzalez-Sanchez, M. E. Chavez-Echeagaray, R. Atkinson, W. Burleson. Arizona State University, USA
Zusammenfassung
Die Fähigkeit des Computers, menschliche emotionale Zustände anhand physiologischer Signale zu erkennen, gewinnt an Popularität, um mitfühlende Systeme wie Lernumgebungen, Gesundheitssysteme und Videospiele zu schaffen. Dennoch gibt es nur wenige Frameworks, Bibliotheken, Architekturen oder Software-Tools, die es Systementwicklern ermöglichen, die Emotionserkennung einfach in ihre Softwareprojekte zu integrieren. Die hier berichtete Arbeit bietet einen ersten Schritt, um diese Lücke im Mangel an Frameworks und Modellen zu schließen, indem sie: (a) die Modellierung einer agentengetriebenen komponentenbasierten Architektur für multimodale Emotionserkennung, genannt ABE, und (b) die Verwendung von ABE zur Implementierung eines multimodalen Emotionserkennung-Frameworks zur Unterstützung von Drittanwendungssystemen zu mitfühlenden Systemen adressiert.Klicken Sie hier, um den vollständigen Bericht zu lesen