In risposta al rapido progresso dell’intelligenza artificiale generativa (AI) nel settore sanitario, l’Organizzazione mondiale della sanità (OMS) ha pubblicato una serie completa di linee guida. Queste linee guida mirano a orientare l’uso etico dei grandi modelli multimodali (LMM) nel settore sanitario.
Guidare l’uso responsabile dell’IA nel settore sanitario
La nuova guida dell’OMS, composta da oltre 40 raccomandazioni, si rivolge a un’ampia gamma di parti interessate, tra cui governi, aziende tecnologiche e operatori sanitari. L’obiettivo principale è garantire che gli LMM, in grado di elaborare diversi tipi di dati come testo, immagini e video, siano utilizzati in modo responsabile in ambito sanitario per promuovere e proteggere la salute pubblica.
Il dottor Jeremy Farrar, scienziato capo dell’OMS, ha sottolineato il potenziale di trasformazione delle tecnologie di intelligenza artificiale generativa nel settore sanitario. Tuttavia, ha anche sottolineato la necessità fondamentale di informazioni e politiche trasparenti per gestire efficacemente i rischi associati.
Gli LMM sono particolarmente noti per la loro capacità di imitare la comunicazione umana e svolgere compiti oltre la loro programmazione esplicita. L’OMS ha identificato cinque applicazioni sanitarie chiave per questi modelli: diagnosi e assistenza clinica, indagine sui sintomi e sul trattamento guidata dal paziente, attività amministrative nelle cartelle cliniche elettroniche, formazione medica e infermieristica attraverso incontri simulati con i pazienti, ricerca scientifica e sviluppo di farmaci.
Affrontare rischi e sfide
Le linee guida dell’OMS sottolineano i rischi associati agli LMM, come la generazione di informazioni false, imprecise o distorte. Questa disinformazione può portare a decisioni dannose per la salute. La qualità e i pregiudizi nei dati di formazione, che riflettono fattori come razza, etnia e identità di genere, sono preoccupazioni cruciali che potrebbero influire sull’integrità dei risultati dell’LMM.
Inoltre, le linee guida riconoscono le sfide più ampie per i sistemi sanitari poste dai LMM. Queste sfide includono l’accessibilità e la convenienza degli LMM avanzati, il potenziale di “bias di automazione” negli operatori sanitari e nei pazienti e le vulnerabilità della sicurezza informatica che potrebbero compromettere le informazioni sui pazienti e l’affidabilità degli algoritmi di intelligenza artificiale nel settore sanitario.
Coinvolgimento degli stakeholder e responsabilità governativa
L’OMS sottolinea l’importanza del coinvolgimento delle parti interessate nello sviluppo e nell’implementazione degli LMM. La partecipazione attiva di governi, aziende tecnologiche, operatori sanitari, pazienti e società civile è essenziale per un utilizzo responsabile dell’IA.
I governi hanno la responsabilità primaria di stabilire gli standard per lo sviluppo, l’implementazione e l’integrazione dell’LMM nelle pratiche sanitarie e mediche. Le linee guida sollecitano i governi a investire o fornire infrastrutture come potenza di calcolo e set di dati pubblici, a condizione che aderiscano ai principi etici. Inoltre, l’istituzione di leggi, politiche e regolamenti è fondamentale per garantire che gli LMM nel settore sanitario rispettino gli obblighi etici e gli standard sui diritti umani.
Le linee guida raccomandano che i governi incarichino le agenzie di regolamentazione di valutare e approvare gli LMM per uso sanitario. Per le implementazioni LMM su larga scala si consigliano inoltre audit post-rilascio obbligatori e valutazioni di impatto da parte di soggetti indipendenti. Queste valutazioni dovrebbero concentrarsi sulla protezione dei dati e sui diritti umani, con risultati disaggregati in base alle caratteristiche dell’utente come età, razza o disabilità.
Responsabilità degli sviluppatori e progettazione etica dell'IA
Gli sviluppatori di LMM hanno il compito di garantire il coinvolgimento delle parti interessate fin dalle prime fasi di sviluppo dell’IA. Il processo di progettazione dovrebbe essere trasparente, inclusivo e strutturato, consentendo alle parti interessate di sollevare questioni etiche e fornire input.
Gli LMM dovrebbero essere progettati per svolgere compiti ben definiti con la precisione e l’affidabilità necessarie per migliorare i sistemi sanitari e apportare benefici ai pazienti. Gli sviluppatori devono anche anticipare e comprendere i potenziali risultati secondari delle loro applicazioni IA.
Le linee guida dell’OMS rappresentano un passo significativo per garantire che l’integrazione dell’IA in ambito sanitario sia governata da principi etici. Affrontando i rischi e stabilendo standard per il coinvolgimento delle parti interessate e la responsabilità dei governi, l’OMS mira a sfruttare i benefici dell’intelligenza artificiale nel settore sanitario, mitigandone al contempo i potenziali danni.