In un’era digitale in cui le informazioni si diffondono a macchia d’olio, affrontare la sfida della disinformazione sanitaria legata all’intelligenza artificiale, in particolare nel settore sanitario, è emersa come una preoccupazione fondamentale. Un recente studio pubblicato sul British Medical Journal fa luce sulla questione urgente del ruolo dell’intelligenza artificiale nella propagazione della disinformazione sanitaria.
Condotto da un team di ricercatori, lo studio ha approfondito l’efficacia delle attuali misure di salvaguardia impiegate dai grandi modelli linguistici (LLM) e la trasparenza degli sviluppatori di intelligenza artificiale (AI) nel mitigare la proliferazione della disinformazione sanitaria. I risultati sottolineano l’imperativo di garanzie più forti e di una maggiore trasparenza per contrastare la crescente minaccia rappresentata dalla disinformazione sanitaria dell’IA.
La disinformazione sanitaria dell’IA – Esplorare misure di salvaguardia e trasparenza
Tra le promettenti applicazioni dei LLM nel settore sanitario, incombono grandi preoccupazioni sul loro potenziale di generare e diffondere disinformazione sanitaria. Lo studio, che comprende un'analisi rigorosa, ha valutato l'efficacia di importanti LLM nel prevenire la generazione di disinformazione sanitaria. In particolare, LLM come GPT-4, PaLM 2 e Llama 2 hanno mostrato una predisposizione a generare false narrazioni su argomenti critici per la salute come la protezione solare che causa il cancro della pelle e la dieta alcalina che cura il cancro. Questa rivelazione sottolinea l’urgente necessità di solide garanzie per frenare la diffusione di informazioni sanitarie fuorvianti che potrebbero potenzialmente comportare rischi significativi per la salute pubblica.
Inoltre, lo studio ha approfondito la trasparenza degli sviluppatori di intelligenza artificiale nell’affrontare le vulnerabilità di salvaguardia e nel mitigare i rischi associati alla disinformazione sanitaria. Nonostante gli sforzi per coinvolgere gli sviluppatori e informarli dei risultati di disinformazione sanitaria osservati, la risposta è variata in modo significativo.
Mentre alcuni sviluppatori hanno riconosciuto di aver ricevuto il messaggio e si sono impegnati in azioni successive, altri hanno mancato di trasparenza, evidente dall’assenza di registri pubblici, strumenti di rilevamento o meccanismi di patching dettagliati. Tali incoerenze sottolineano le sfide nel promuovere la trasparenza e la responsabilità nel panorama dell’intelligenza artificiale, richiedendo sforzi concertati verso interventi normativi e processi di audit rafforzati.
Valutare le vulnerabilità e sollecitare un’azione
Un’analisi di sensibilità completa intrapresa come componente fondamentale dello studio ha svelato uno spettro di capacità tra i modelli linguistici (LLM) nel fabbricare disinformazione relativa alla salute in una moltitudine di scenari. Mentre alcuni modelli hanno dimostrato una notevole adattabilità nell’inventare narrazioni ingannevoli, altri hanno dimostrato costantemente riluttanza, sottolineando così le disparità nell’attuazione delle misure protettive. Tuttavia, l’efficacia dello studio è stata ostacolata dall’assenza di completa trasparenza e ricettività da parte degli sviluppatori di Intelligenza Artificiale (AI), sottolineando così l’urgente necessità di un intervento immediato.
Lo studio sottolinea l’imperativo fondamentale di garanzie più forti e di una maggiore trasparenza nella lotta alla sfida della disinformazione sanitaria legata all’intelligenza artificiale. Poiché l’intelligenza artificiale continua a permeare vari aspetti dell’assistenza sanitaria, normative unificate, robusti meccanismi di controllo e monitoraggio proattivo sono indispensabili per mitigare i rischi posti dalla disinformazione sanitaria. I risultati richiedono sforzi concertati da parte delle autorità sanitarie pubbliche, dei politici e degli sviluppatori di intelligenza artificiale per affrontare in modo collaborativo queste sfide e tracciare un percorso verso un panorama sanitario più affidabile e basato sull’intelligenza artificiale . Data l’urgenza della situazione, ci si potrebbe chiedere: come possono le parti interessate in tutto lo spettro sanitario collaborare per promuovere maggiore trasparenza e responsabilità nell’affrontare il problema pervasivo della disinformazione sanitaria guidata dall’intelligenza artificiale?