Nel campo in rapido progresso dell’intelligenza artificiale (AI), i ricercatori dell’Università di Cambridge stanno sperimentando un approccio innovativo per affrontare una questione fondamentale: l’assenza di incertezza umana nei sistemi di intelligenza artificiale . Sebbene l’intelligenza artificiale spesso eccelle in precisione e accuratezza, non è all’altezza quando si tratta di comprendere e incorporare tratti umani come il dubbio e l’errore. Nel tentativo di colmare questo divario, gli scienziati stanno esplorando modi per incorporare l’incertezza umana nei programmi di intelligenza artificiale, in particolare in settori ad alto rischio come la diagnostica medica.
Incorporare l’incertezza umana
Molti sistemi di intelligenza artificiale, in particolare quelli che si basano sul feedback degli esseri umani, operano partendo dal presupposto che gli esseri umani siano sempre accurati e certi nelle loro decisioni. Tuttavia, le decisioni nella vita reale sono intrinsecamente segnate da imperfezioni, errori e dubbi. Il gruppo di ricerca dell’Università di Cambridge ha cercato di conciliare questo comportamento umano con l’apprendimento automatico, con l’obiettivo di migliorare l’affidabilità e ridurre i rischi nelle interfacce AI-uomo.
Sfide nella gestione dell’incertezza umana
Per comprendere meglio le implicazioni dell’integrazione dell’incertezza umana nei sistemi di intelligenza artificiale, i ricercatori hanno modificato un set di dati di classificazione delle immagini stabilito. Hanno permesso ai partecipanti umani di specificare i loro livelli di incertezza mentre etichettavano le immagini. I risultati sono stati intriganti; mentre i sistemi di intelligenza artificiale addestrati con etichette incerte sono migliorati nella gestione del feedback dubbio, l’inclusione dell’incertezza umana a volte ha causato un calo delle prestazioni dei sistemi di intelligenza artificiale-uomo.
Nel campo dell’intelligenza artificiale, l’approccio “human-in-the-loop”, che consente il feedback umano, è visto come un mezzo per mitigare i rischi in aree in cui i soli sistemi automatizzati potrebbero non essere all’altezza. Tuttavia, solleva la questione di come questi sistemi rispondono quando i collaboratori umani esprimono dubbi. Katherine Collins, la prima autrice dello studio, sottolinea l'importanza di affrontare l'incertezza dal punto di vista della persona, affermando:
“L’incertezza è fondamentale nel modo in cui gli esseri umani ragionano sul mondo, ma molti modelli di intelligenza artificiale non ne tengono conto”.
Lo studio evidenzia che in scenari in cui gli errori possono avere conseguenze minime, come scambiare un estraneo per un amico, l’incertezza umana può essere irrilevante. Tuttavia, nelle applicazioni sensibili alla sicurezza, come i medici che lavorano con sistemi di intelligenza artificiale medica, l’incertezza umana può essere pericolosa. Matthew Barker, coautore dello studio, sottolinea la necessità di strumenti migliori per ricalibrare i modelli di intelligenza artificiale, consentendo agli individui di esprimere l’incertezza. Egli nota,
"Sebbene le macchine possano essere addestrate con totale sicurezza, gli esseri umani spesso non sono in grado di farlo, e i modelli di apprendimento automatico lottano con questa incertezza."
Impatto sulle prestazioni
Il gruppo di ricerca ha condotto esperimenti utilizzando vari set di dati, incluso uno in cui i partecipanti umani distinguevano i colori degli uccelli. I risultati hanno indicato che la sostituzione delle decisioni delle macchine con quelle umane spesso portava a un calo significativo delle prestazioni. Ciò dimostra le sfide legate all’integrazione perfetta degli esseri umani nei sistemi di apprendimento automatico.
Nel tentativo di colmare il divario tra l’intelligenza artificiale e l’incertezza umana, i ricercatori stanno rendendo pubblici i loro set di dati per incoraggiare ulteriori esplorazioni nel campo. Katherine Collins sottolinea l'importanza della trasparenza, affermando: "L'incertezza è una forma di trasparenza, e questo è estremamente importante". Sottolinea la necessità di determinare quando fidarsi di un modello e quando fidarsi di un essere umano, soprattutto in applicazioni come i chatbot, dove comprendere il linguaggio delle possibilità è fondamentale per un'esperienza utente naturale e sicura.