Obiettivo dell’Affective Computing è permettere il riconoscimento di stati emotivi umani attraverso procedure automatiche. Gli scenari applicativi spaziano dal perfezionamento dell'interazione uomo-macchina alla generazione di biofeedback al fine di migliorare lo stato cognitivo e il benessere dei soggetti e, al contempo, ridurre potenziali situazioni di rischio alle quali essi sono esposti. Sebbene la letteratura sottolinei l’utilità dell’analisi dei biosegnali per il rilevamento e la classificazione delle emozioni, gli approcci esistenti risultano generalmente invasivi per il soggetto e caratterizzati da elaborazioni onerose. Si tratta infatti di architetture di calcolo convenzionali che supportano il processing di segnali biologici estratti mediante interfacce sensoriali particolarmente sofisticate. In particolare poi il processing punta all’estrazione di tratti caratteristici (o feature) dai segnali fisiologici mediante applicazione di tecniche di data mining e machine learning per la classificazione delle emozioni. Tali procedure hanno un particolare impatto sulle risorse computazionali. Ne deriva che l'applicabilità e l'efficacia di questo genere di soluzioni è limitata a contesti controllati di laboratorio, compromettendone il trasferimento a scenari reali. Prendendo spunto da un tale stato dell’arte, questo lavoro descrive un innovativo sistema cyber-fisico indossabile basato su Wireless Body Area Network per il rilevamento e la classificazione delle emozioni. Esso si compone di: 1) Un’architettura multi-sensoriale in grado di misurare i biosegnali più rilevanti per l’identificazione delle emozioni e della loro evoluzione dinamica nel tempo. 2) Un sottosistema di calcolo che ospita un insieme di agenti software in grado di annotare i segnali fisici in un formalismo di alto livello per la rappresentazione della conoscenza basato sulle logiche descrittive ed esegue inferenze su base semantica per riconoscere in modo efficace le emozioni. Tali peculiarità permettono di svincolare un tale sistema dalle caratteristiche fisiche dell’ambiente operativo, rendendolo minimamente intrusivo e anzi orientato ad un utilizzo quotidiano. Il sistema è anche in grado di tentare di migliorare lo stato emotivo degli utenti mediante individuazione di un segnale di retroazione (stimolazione fisica), utile ad orientare al benessere psico-fisico l’utente in modo completamente automatico. La fattibilità dell’approccio proposto è stata valutata attraverso test condotti su un dataset sintetico di riferimento, dal punto di vista dell’efficacia del riconoscimento delle emozioni e della complessità computazionale, in vista dell’implementazione su un testbed interamente basato su dispositivi mobili.
Dai biosegnali agli stati emotivi: un approccio semantico / Ruta, Michele; Scioscia, Floriano; Cinquepalmi, Annarita; Cipriani, Silvia; Di Sciascio, Eugenio. - (2016). (Intervento presentato al convegno XVI Convegno Nazionale AIIC tenutosi a Bari, Italy nel April 7-9, 2016).
Dai biosegnali agli stati emotivi: un approccio semantico
Michele Ruta;Floriano Scioscia;Annarita Cinquepalmi;Silvia Cipriani;Eugenio Di Sciascio
2016-01-01
Abstract
Obiettivo dell’Affective Computing è permettere il riconoscimento di stati emotivi umani attraverso procedure automatiche. Gli scenari applicativi spaziano dal perfezionamento dell'interazione uomo-macchina alla generazione di biofeedback al fine di migliorare lo stato cognitivo e il benessere dei soggetti e, al contempo, ridurre potenziali situazioni di rischio alle quali essi sono esposti. Sebbene la letteratura sottolinei l’utilità dell’analisi dei biosegnali per il rilevamento e la classificazione delle emozioni, gli approcci esistenti risultano generalmente invasivi per il soggetto e caratterizzati da elaborazioni onerose. Si tratta infatti di architetture di calcolo convenzionali che supportano il processing di segnali biologici estratti mediante interfacce sensoriali particolarmente sofisticate. In particolare poi il processing punta all’estrazione di tratti caratteristici (o feature) dai segnali fisiologici mediante applicazione di tecniche di data mining e machine learning per la classificazione delle emozioni. Tali procedure hanno un particolare impatto sulle risorse computazionali. Ne deriva che l'applicabilità e l'efficacia di questo genere di soluzioni è limitata a contesti controllati di laboratorio, compromettendone il trasferimento a scenari reali. Prendendo spunto da un tale stato dell’arte, questo lavoro descrive un innovativo sistema cyber-fisico indossabile basato su Wireless Body Area Network per il rilevamento e la classificazione delle emozioni. Esso si compone di: 1) Un’architettura multi-sensoriale in grado di misurare i biosegnali più rilevanti per l’identificazione delle emozioni e della loro evoluzione dinamica nel tempo. 2) Un sottosistema di calcolo che ospita un insieme di agenti software in grado di annotare i segnali fisici in un formalismo di alto livello per la rappresentazione della conoscenza basato sulle logiche descrittive ed esegue inferenze su base semantica per riconoscere in modo efficace le emozioni. Tali peculiarità permettono di svincolare un tale sistema dalle caratteristiche fisiche dell’ambiente operativo, rendendolo minimamente intrusivo e anzi orientato ad un utilizzo quotidiano. Il sistema è anche in grado di tentare di migliorare lo stato emotivo degli utenti mediante individuazione di un segnale di retroazione (stimolazione fisica), utile ad orientare al benessere psico-fisico l’utente in modo completamente automatico. La fattibilità dell’approccio proposto è stata valutata attraverso test condotti su un dataset sintetico di riferimento, dal punto di vista dell’efficacia del riconoscimento delle emozioni e della complessità computazionale, in vista dell’implementazione su un testbed interamente basato su dispositivi mobili.I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.