Attraverso uno studio condotto da tre università: Cornell University, Olin College e Stanford University, sono arrivati a rendersi conto che le capacità dell'intelligenza artificiale di mostrare empatia negli agenti di conversazione, come Alexa e Siri, sono piuttosto limitate. I risultati di questo studio, presentato alla conferenza CHI 2024, indicano che, sebbene le AC siano brave a mostrare le reazioni emotive, la situazione diventa difficile quando si tratta di interpretare ed esplorare l'esperienza degli utenti.
Pregiudizi e discriminazioni scoperti
Utilizzando i dati raccolti dalla ricercatrice Andrea Cuadra di Stanford, questo studio ha lo scopo di misurare il modo in cui le CA rilevano e rispondono alle diverse identità sociali tra gli esseri umani. Testando 65 identità diverse, lo studio di ricerca ha rilevato che le autorità competenti sono inclini a categorizzare gli individui e le identità, in particolare quelle riguardanti l'orientamento sessuale o la religione, sono le più vulnerabili a questa abitudine.
Le CA, la cui conoscenza è incorporata nei modelli linguistici (LLM), addestrati su grandi volumi di dati creati dall'uomo, potrebbero quindi avere pregiudizi dannosi presenti nei dati che hanno utilizzato. È incline alla discriminazione in particolare, le stesse AC possono essere in movimento per mostrare solidarietà verso ideologie che hanno effetti negativi su persone come il nazismo.
Le implicazioni dell’empatia automatizzata
Dal suo concetto di empatia artificiale è emerso che le sue applicazioni nel settore dell'istruzione e della sanità sono molteplici. D’altro canto, viene posta molta enfasi sulla necessità che gli esseri umani restino vigili ed evitino di affrontare i problemi che potrebbero sorgere con tali progressi.
Come affermato dai ricercatori, gli LLM dimostrano un'elevata capacità di fornire risposte emotive, ma allo stesso tempo sono zoppi o privi di capacità sufficienti per l'interpretazione e l'esplorazione delle esperienze degli utenti. Questo è uno svantaggio poiché le interfacce utente potrebbero non essere in grado di interagire pienamente con i clienti in interazioni emotive profonde oltre a quelle i cui strati sono stati rimossi.