- Home
- Intelligenza Artificiale
- Intelligenza Artificiale ed em ...
Indice
- Come viene utilizzata l’intelligenza artificiale delle emozioni nel settore sanitario?
- Il livello successivo di emozione
- Quali sono alcuni svantaggi o preoccupazioni sull’AI affettiva?
- Etica e responsabilità per l’AI
- AI, empatia e salute digitale
- Empatia e macchine
- Il contagio emotivo
- Intelligenza artificiale ed emotività
- 56 studenti, un video di 30 minuti
- Interazione emotiva e salute
- Per concludere
L’intelligenza artificiale delle emozioni, o intelligenza artificiale affettiva, è un campo dell’informatica che aiuta le macchine a comprendere le emozioni umane. Il MIT Media Lab e la dottoressa Rosalind Picard sono i principali innovatori in questo spazio. Attraverso il loro lavoro, hanno scatenato l’idea di aiutare le macchine a sviluppare empatia.
L’empatia è un concetto complesso con molte stringhe ad esso collegate, ma a livello di base, significa avere una comprensione degli stati emotivi di un’altra persona. In teoria, se le macchine possono avere quel livello di comprensione, possono servirci meglio. In particolare, in settori come l’assistenza sanitaria, l’applicazione di un’IA empatica può avere un grande impatto.
Come viene utilizzata l’intelligenza artificiale delle emozioni nel settore sanitario?
Esistono vari tipi di AI emozionale. Il primo tipo rileva le emozioni umane. Nella salute mentale, questo tipo di tecnologia ha un grande potenziale nella diagnostica. Per quanto riguarda le condizioni di salute fisica, possono essere utilizzati per monitorare la resilienza in condizioni come il cancro. Ciò è vantaggioso soprattutto perché l’importanza della cura olistica e integrativa è ormai ampiamente riconosciuta.
Il livello successivo di emozione
L’AI non solo rileva le emozioni umane, ma ha la capacità di rispondere di conseguenza. Un grande esempio di come questo può essere usato è con la popolazione che vive con la demenza. Le persone che vivono con demenza possono avere difficoltà a comprendere il proprio stato emotivo e ancora di più a comunicare come si sentono ai loro caregiver. Ciò pone un pesante onere sui caregiver di leggere e decifrare costantemente come si sentono, il che è un compito difficile quando si è già sovraccarichi.
Ciò apre l’opportunità per l’intelligenza artificiale delle emozioni di guardare cose come la biometria o la psicometria che sono meno dipendenti dall’autovalutazione, come l’espressione facciale, i segnali vocali o il comportamento. L’intelligenza artificiale delle emozioni ci consente di prevedere qual è lo stato di una persona con un livello di competenza che può essere buono o addirittura migliore di quello che un caregiver potrebbe dirci.
Un caso d’uso è LUCID, una piattaforma che crea terapie digitali che utilizzano l’intelligenza artificiale emozionale all’avanguardia per migliorare la salute e il benessere utilizzando il potere della musica; usano dati per creare musica personalizzata per aiutare i sintomi psicologici della demenza.
Questo può aumentare la compassione verso i caregiver. I caregiver stanno affrontando livelli crescenti di burnout e possono incontrare affaticamento quando fanno questo tipo di monitoraggio. Avere l’intelligenza artificiale per assistere può sia fornire al paziente una migliore assistenza che aumentare la resistenza per i caregiver.
Quali sono alcuni svantaggi o preoccupazioni sull’AI affettiva?
Quando l’AI viene coinvolta con le emozioni umane, ci sono comprensibilmente molti allarmi. C’è una reazione istintiva (derivante dalla televisione e da Hollywood) che, se le macchine comprendessero le emozioni, potrebbero acquisire sensibilità e potenzialmente manipolare le nostre emozioni. Questa è una preoccupazione valida, ma allo stesso tempo, a queste macchine viene data una libertà di azione molto limitata all’interno della quale muoversi. La formazione responsabile dell’AI è vitale, con la quale vengono forniti dati per fare del bene con tali informazioni. Ecco perché dobbiamo spingere per un’etica responsabile nell’AI.
Etica e responsabilità per l’AI
La tecnologia e l’informatica si stanno sviluppando più velocemente rispetto alla legislazione governativa, quindi potrebbero esserci lacune nella politica. È qui che entrano in gioco fondazioni come AI For Good. Queste istituzioni sono importanti perché aiutano a sviluppare l’etica professionale per promuovere una cultura positiva intorno all’AI.
Il pregiudizio è un’altra preoccupazione per la comunità AI. Se i set di dati sono sbilanciati verso un certo tipo di popolazione, l’AI non sarà affidabile e obiettiva verso una parte di popolazione. Molti di questi sforzi di raccolta dati hanno addestrato l’AI su specifici tipi di persone, persone che si sono offerte volontarie per le prove o potevano permettersi determinati prodotti. Predirebbe in modo affidabile le emozioni per le persone che non fanno parte di quella popolazione? Questo è un problema difficile per l’AI in generale (problema che i professionisti in questo campo lavorano molto duramente per aggirare).
Fortunatamente, ci sono strategie per prevenire i pregiudizi nell’AI emotiva. È essenziale raccogliere attivamente campioni dei partecipanti da persone che provengono da tutti i ceti sociali, ove possibile. Bisogna sforzarsi di distribuire questa raccolta di dati il più ampiamente possibile. Un’altra soluzione per i pregiudizi è sviluppare un prodotto veramente allargato per addestrare l’AI, un prodotto economico, accessibile e distribuito a livello globale in modo che possa coprire il maggior numero possibile di rappresentazioni culturali.
AI, empatia e salute digitale
La tecnologia ha il vantaggio di potersi modellare nella vita di un paziente al di là di ciò che può fare un medico. Mentre ci muoviamo verso un approccio longitudinale e centrato sulla persona, questa lacuna può iniziare a essere colmata con l’uso dell’AI. Con l’aumento delle cure integrative, molte iniziative sanitarie digitali stanno ora sfruttando l’intelligenza artificiale delle emozioni.
Twill è un esempio di utilizzo dell’intelligenza artificiale delle emozioni nella salute mentale. La sua piattaforma di guarigione intelligente utilizza l’intelligenza artificiale per conoscere le proprie esigenze di salute e raccomandare una linea d’azione. Il suo chatbot sanitario è addestrato a fornire assistenza e supporto personalizzati in modo empatico.
LUCID utilizza anche un sistema di raccomandazione AI per suggerire musica in base ai propri stati mentali. Sfrutta la biometria e i dati autovalutati come input per classificare gli stati emotivi di un utente. Imparando a conoscere l’umore di qualcuno e la sua risposta alla musica, l’algoritmo si adatta per aiutarli meglio.
Empatia e macchine
Sebbene le macchine dell’empatia e l’intelligenza artificiale delle emozioni possano sembrare intimidatorie, stanno aiutando a colmare il divario nella cura del paziente, cosa che i modelli sanitari tradizionali a volte non riescono a fare. Il monitoraggio dei pazienti e l’assistenza longitudinale utilizzano molte risorse umane. Un medico ha affermato: “Costruire e mantenere un piano di assistenza longitudinale e centrato sulla persona è davvero un duro lavoro. Ci vogliono molte risorse. Nessun operatore sanitario lo farà se costa loro di più fare il piano rispetto al beneficio che ne derivano”.
Prima riusciremo a far sì che le macchine siano più empatiche, migliori diventeranno i nostri strumenti sanitari digitali. Può aprire molte opportunità se, attraverso la tecnologia, possiamo veramente capire come si sentono le persone in ogni momento ed entrare in empatia. L’intelligenza artificiale delle emozioni è uno dei pilastri più importanti della salute digitale perché, se abbiamo una migliore comprensione di ciò che sta accadendo al paziente, abbiamo un modo migliore di trattarlo.
Il contagio emotivo
Il contagio emotivo, un trasferimento inconscio di emozioni, può portare a burnout e depressione. E’ stato fatto uno studio utilizzando software di intelligenza artificiale per misurare le espressioni facciali mentre i partecipanti guardavano filmati altamente emotivi; i ricercatori hanno scoperto che gli individui più partecipi sono a maggior rischio di depressione e meno in grado di mostrare compassione.
Questa scoperta potrebbe aprire la strada a strategie di gestione e prevenzione precoci.
I fattori chiave utilizzati da questo studio portato avanti dall’Università di Montreal sono:
- Lo studio ha utilizzato un software di intelligenza artificiale chiamato FACET per misurare le espressioni facciali delle persone mentre guardavano filmati noti per suscitare una serie di emozioni.
- Più i partecipanti erano partecipi ai filmati, maggiore sembrava essere il loro rischio di depressione e diminuita capacità di compassione.
- Questa ricerca suggerisce che l’intelligenza artificiale potrebbe essere utilizzata per la diagnosi precoce e la gestione del rischio di contagio emotivo tra i professionisti in campo medico potenzialmente prevenendo il burnout e la depressione.
Ripetutamente esposti a emozioni negative, i professionisti delle relazioni come assistenti sociali, psicologi e psico educatori sono ad alto rischio di sperimentare il “contagio emotivo”, una trasmissione automatica inconscia di un’emozione da un individuo all’altro.
Intelligenza artificiale ed emotività
Questo contagio può portare a stress e angoscia, poiché “i problemi emotivi sono tra i principali fattori che portano al burnout e persino alla depressione”, secondo Pierrich Plusquellec, professore alla Scuola di Psico educazione dell’Université de Montréal.
Ma come sapere quanto sia forte questo “contagio emotivo” e, quindi, quanto sia alto il rischio per i professionisti che se ne occupano, giorno dopo giorno? La risposta è usando l’intelligenza artificiale, afferma Plusquellec.
In uno studio pubblicato all’inizio di questo mese sulla rivista Psychological Reports, Plusquellec e lo studente del suo master Vincent Denault, descrivono l’utilizzo di software di intelligenza artificiale per misurare automaticamente le espressioni facciali delle persone mentre guardano clip di film popolari.
Quello che hanno scoperto è che più i partecipanti reagiscono con i loro volti alle emozioni mostrate nei filmati, maggiore sembra essere il loro rischio di depressione e meno diventano capaci di mostrare compassione.
56 studenti, un video di 30 minuti
In tutto, hanno partecipato 56 studenti di psico educazione, per lo più donne, reclutati dalla studentessa del master Kaylee Smart. In laboratorio, hanno guardato un video di 30 minuti di estratti di film noti per suscitare emozioni sia positive che negative (come gioia, rabbia, paura, tristezza, disgusto o sorpresa) o, in alcuni casi, nessuna emozione.
Quelli che avevano maggiori probabilità di essere “contaminati” dalle emozioni degli altri mentre guardavano i filmati, erano ritenuti a maggior rischio di depressione. La variabile più predittiva era la partecipazione complessiva ai filmati, indipendentemente dall’emozione trasmessa.
I volti degli studenti sono stati filmati e analizzati dal software FACET (Facial Action Coding System), che utilizza l’intelligenza artificiale. Prima di questa nuova tecnica, uno strumento di misurazione chiamato Emotional Contagion Scale (ECC) si basava su un questionario auto-somministrato per produrre i suoi risultati.
“Il problema (con ECC) è che se non sei consapevole delle tue emozioni, o se non hai una buona introspezione, risponderai in modo errato“, ha detto Plusquellec, i cui altri interessi di ricerca includono il calcolo affettivo e la comunicazione non verbale.
Interazione emotiva e salute
Un precedente studio di Plusquellec, che ha coinvolto 700 operatori della protezione dei giovani, ha scoperto che quando le emozioni hanno la meglio sulle persone in ambito medico, il loro lavoro è influenzato negativamente. Mentre l’empatia consente loro di riconoscere le emozioni, la simpatia (cioè sentire ciò che l’altra persona sta provando) non sempre ha permesso loro la distanza per sostenere correttamente l’altra persona.
“La questione del contagio emotivo spesso passa inosservata”, ha detto Plusquellec, e “più sei vicino a qualcuno, maggiore è il rischio”. Il lavoro degli psico-educatori è quello di stabilire un legame con i loro clienti “e quindi sono più a rischio di esaurimento emotivo”, ha aggiunto.
Per aiutare i suoi studenti a prepararsi e a regolare meglio le loro emozioni, ha guardato all’AI come aiuto per misurare il “contagio” intorno a loro, aggiungendo il classico questionario psicometrico ECC per aiutare a prevedere il loro rischio di depressione.
Alla fine, si è scoperto che l’ECC “prevede molto poco”, mentre FACET prevede sia il rischio di depressione che la preoccupazione empatica, cioè voler aiutare gli altri, senza cadere in difficoltà.
Plusquellec vorrebbe rendere lo strumento FACET disponibile gratuitamente online, per aiutare coloro che effettivamente aiutano gli altri.
“Poiché la reattività facciale predice il rischio di depressione, lo strumento potrebbe essere utilizzato per condurre un orologio emotivo (sugli assistenti sociali e altri) e consentire una gestione precoce“, ha detto Plusquellec.
Per concludere
Dato che il contagio emotivo aumenta il rischio di burnout, il ricercatore vorrebbe anche creare un intervento per limitare il contagio e aiutare gli studenti a imparare come gestire meglio le emozioni degli altri. Dopotutto, ha detto, per aiutare gli altri devi prima aiutare te stesso.