Fordern Sie Ihr Gedächtnis heraus! Spielen Sie das neue N-Back-Spiel in der Emotiv-App

  • Fordern Sie Ihr Gedächtnis heraus! Spielen Sie das neue N-Back-Spiel in der Emotiv-App

    Fordern Sie Ihr Gedächtnis heraus! Spielen Sie das neue N-Back-Spiel in der Emotiv-App

ABE: Eine agentenbasierte Softwarearchitektur für ein multimodales Emotionserkennungsframework

Teilen:

J. Gonzalez-Sanchez, M. E. Chavez-Echeagaray, R. Atkinson, W. Burleson. Arizona State University, USA

Zusammenfassung

Die Fähigkeit des Computers, menschliche emotionale Zustände anhand physiologischer Signale zu erkennen, gewinnt an Popularität, um mitfühlende Systeme wie Lernumgebungen, Gesundheitssysteme und Videospiele zu schaffen. Dennoch gibt es nur wenige Frameworks, Bibliotheken, Architekturen oder Software-Tools, die es Systementwicklern ermöglichen, die Emotionserkennung einfach in ihre Softwareprojekte zu integrieren. Die hier berichtete Arbeit bietet einen ersten Schritt, um diese Lücke im Mangel an Frameworks und Modellen zu schließen, indem sie: (a) die Modellierung einer agentengetriebenen komponentenbasierten Architektur für multimodale Emotionserkennung, genannt ABE, und (b) die Verwendung von ABE zur Implementierung eines multimodalen Emotionserkennung-Frameworks zur Unterstützung von Drittanwendungssystemen zu mitfühlenden Systemen adressiert.Klicken Sie hier, um den vollständigen Bericht zu lesen

J. Gonzalez-Sanchez, M. E. Chavez-Echeagaray, R. Atkinson, W. Burleson. Arizona State University, USA

Zusammenfassung

Die Fähigkeit des Computers, menschliche emotionale Zustände anhand physiologischer Signale zu erkennen, gewinnt an Popularität, um mitfühlende Systeme wie Lernumgebungen, Gesundheitssysteme und Videospiele zu schaffen. Dennoch gibt es nur wenige Frameworks, Bibliotheken, Architekturen oder Software-Tools, die es Systementwicklern ermöglichen, die Emotionserkennung einfach in ihre Softwareprojekte zu integrieren. Die hier berichtete Arbeit bietet einen ersten Schritt, um diese Lücke im Mangel an Frameworks und Modellen zu schließen, indem sie: (a) die Modellierung einer agentengetriebenen komponentenbasierten Architektur für multimodale Emotionserkennung, genannt ABE, und (b) die Verwendung von ABE zur Implementierung eines multimodalen Emotionserkennung-Frameworks zur Unterstützung von Drittanwendungssystemen zu mitfühlenden Systemen adressiert.Klicken Sie hier, um den vollständigen Bericht zu lesen

J. Gonzalez-Sanchez, M. E. Chavez-Echeagaray, R. Atkinson, W. Burleson. Arizona State University, USA

Zusammenfassung

Die Fähigkeit des Computers, menschliche emotionale Zustände anhand physiologischer Signale zu erkennen, gewinnt an Popularität, um mitfühlende Systeme wie Lernumgebungen, Gesundheitssysteme und Videospiele zu schaffen. Dennoch gibt es nur wenige Frameworks, Bibliotheken, Architekturen oder Software-Tools, die es Systementwicklern ermöglichen, die Emotionserkennung einfach in ihre Softwareprojekte zu integrieren. Die hier berichtete Arbeit bietet einen ersten Schritt, um diese Lücke im Mangel an Frameworks und Modellen zu schließen, indem sie: (a) die Modellierung einer agentengetriebenen komponentenbasierten Architektur für multimodale Emotionserkennung, genannt ABE, und (b) die Verwendung von ABE zur Implementierung eines multimodalen Emotionserkennung-Frameworks zur Unterstützung von Drittanwendungssystemen zu mitfühlenden Systemen adressiert.Klicken Sie hier, um den vollständigen Bericht zu lesen