Il Mersivity Symposium tenutosi lo scorso dicembre ha riunito esperti di diversi settori per discutere dell’integrazione dell’intelligenza artificiale umanistica (AI) e delle tecnologie avanzate. All'evento hanno partecipato ricercatori, autori, economisti e innovatori provenienti da istituzioni prestigiose, tra cui l'Università di Toronto (U of T), il Massachusetts Institute of Technology (MIT) e l'Institute of Electrical and Electronics Engineers.
Tradurre i pensieri in parole
Uno dei momenti salienti del simposio è stata la presentazione di due giovani ricercatori del MIT, Akarsh Aurora e Akash Anand. Hanno dipinto una visione di un futuro in cui i pensieri potrebbero essere tradotti direttamente in parole, eliminando la necessità di metodi di input tradizionali come tastiera e mouse.
Immagina un mondo in cui accendere le luci o cambiare canale TV richiede un pensiero. Questa tecnologia è molto promettente, in particolare per le persone con problemi di linguaggio o per coloro che hanno perso la capacità di comunicare. La ricerca condivisa da Aurora e Anand ha fornito uno sguardo su come potrebbe essere realizzato un progetto così futuristico.
Dai segnali cerebrali alle parole
Per convertire i pensieri in parole , i ricercatori devono prima catturare i dati grezzi dei pensieri, che consistono principalmente in segnali elettrici nel cervello. I metodi tradizionali prevedono l’impianto di elettrodi direttamente nel cervello, ma questo approccio presenta degli inconvenienti, come l’interferenza con il tessuto cerebrale e la necessità di sostituzione periodica.
Un approccio alternativo e non invasivo prevede l’utilizzo di interfacce cervello-computer (BCI) come l’elettroencefalogramma (EEG). Un EEG, simile ad un cappuccio con fili ed elettrodi, viene posizionato sul cuoio capelluto per rilevare l'attività elettrica del cervello senza procedure invasive.
Decifrare i segnali EEG per ricostruire le parole
La ricerca di Aurora e Anand prevedeva la registrazione dei dati EEG dei partecipanti mentre ascoltavano il primo capitolo di "Alice nel Paese delle Meraviglie". L'obiettivo era ricostruire le parole che i partecipanti avevano sentito esclusivamente dai dati EEG.
Tuttavia, convertire un segnale EEG in parole non è un’impresa facile. I dati EEG sono soggetti a “rumore” causato da vari fattori, come il battito delle palpebre. I ricercatori hanno utilizzato l’intelligenza artificiale per ripulire i segnali EEG applicando filtri per affrontare questa sfida.
Il loro approccio prevedeva l’utilizzo di un modello di intelligenza artificiale preaddestrato per generare sequenze di parole candidate basate sui dati EEG. La sequenza generata dall'intelligenza artificiale era considerata accurata se corrispondeva alla sequenza ascoltata dal partecipante durante la registrazione.
Sebbene i risultati non siano ancora perfettamente accurati, rappresentano un passo significativo verso la traduzione dei segnali neurali in un linguaggio continuo.
Il simposio non si è concentrato esclusivamente sulle interfacce cervello-computer. L'artista Reid Godshaw ha mostrato come l'intelligenza artificiale possa essere sfruttata in modo creativo per amplificare l'espressione artistica. Ha esposto una serie di opere d'arte di grande impatto create con l'intelligenza artificiale per aumentare la consapevolezza sul veganismo. Queste opere d’arte digitali hanno enfatizzato le somiglianze tra animali ed esseri umani, facendo luce sulle preoccupazioni etiche all’interno dell’industria della carne.
Rivoluzionare l’accessibilità con il concetto “Freehicle”.
Steve Mann, un ingegnere e professore alla U of T, ha introdotto il concetto di "Freehicle" durante la sua presentazione. Questa idea rivoluzionaria prevede un veicolo in grado di adattarsi alla terra e all’acqua, sottolineando l’importanza dell’accessibilità e migliorando la qualità della vita, soprattutto per le persone con disabilità.
Il Mersivity Symposium è servito da piattaforma per ricerche e discussioni innovative sull’intersezione tra tecnologia e umanità. L’integrazione dell’intelligenza artificiale e delle tecnologie avanzate, come le interfacce cervello-computer, dimostra il potenziale di cambiamento positivo in vari campi.
I partecipanti al simposio sono partiti con la sensazione di essere sull’orlo di significativi progressi tecnologici che potrebbero rimodellare il modo in cui interagiamo con il mondo. Il popolare meme di Internet dichiara: "Il futuro è adesso, vecchio mio", riflettendo il rapido ritmo dell'innovazione mostrato in questo evento lungimirante.