Poiché l’intelligenza artificiale (AI) continua a permeare vari settori, il settore pubblico non è esente dalla sua influenza. L’Ada Lovelace Institute, un importante think tank, ha pubblicato un briefing politico nell’ottobre 2023, esortando gli acquirenti del settore pubblico a prestare attenzione e condurre un’accurata due diligence prima di implementare modelli di base dell’intelligenza artificiale. Questi modelli, caratterizzati dalla loro versatilità e dall’ampia gamma di potenziali applicazioni, compresi i modelli linguistici di grandi dimensioni (LLM), hanno il potenziale per trasformare l’erogazione dei servizi pubblici. Tuttavia, l’istituto mette in guardia dai vari rischi associati alla loro adozione, come pregiudizi, discriminazione, violazioni della privacy e dipendenza eccessiva dal settore privato.
Comprensione dei modelli di base dell'intelligenza artificiale
I modelli di base sono un tipo di sistema di intelligenza artificiale progettato per gestire una moltitudine di compiti e casi d’uso, a differenza dei sistemi di intelligenza artificiale ristretti su misura per funzioni specifiche. I modelli linguistici di grandi dimensioni (LLM), un sottoinsieme dei modelli di base, sono noti per la loro scala e adattabilità, che li rendono adatti a diverse applicazioni, dalla traduzione all'analisi dei documenti.
Benefici promessi e speculazioni non dimostrate
Le potenziali applicazioni dei modelli di base dell’intelligenza artificiale nel settore pubblico sono vaste e vanno dall’analisi dei documenti e dal supporto decisionale al miglioramento del servizio clienti. I sostenitori sostengono che questi modelli possono portare a una maggiore efficienza, comunicazioni governative personalizzate e una migliore gestione della conoscenza all’interno degli enti governativi. Tuttavia, l’Ada Lovelace Institute avverte che questi benefici sono ancora non dimostrati e speculativi, sottolineando la necessità di un’attenta valutazione prima dell’implementazione.
I rischi dell'adozione cieca
Una preoccupazione significativa sollevata dall’istituto è il rischio che le organizzazioni del settore pubblico adottino modelli di fondazione semplicemente perché sono una nuova tecnologia, piuttosto che perché rappresentano la soluzione più efficace a un problema. Questo approccio basato sulla “tecnologia per il bene della tecnologia” può portare a implementazioni costose e inefficienti.
Il ruolo del settore privato
I fornitori di tecnologia privati hanno svolto un ruolo di primo piano nello sviluppo di modelli di base dell’IA. Tuttavia, l'istituto avverte che un eccessivo affidamento a questi fornitori può creare un disallineamento tra le capacità della tecnologia e le esigenze specifiche del settore pubblico, che spesso tratta informazioni sensibili su scala più ampia.
Affrontare i pregiudizi e i problemi di fiducia
Il pregiudizio dell’automazione, per cui gli utenti si fidano troppo incondizionatamente dei risultati del modello di intelligenza artificiale, è un altro rischio evidenziato dall’istituto. Per mitigare questo problema, sottolineano l’importanza di affrontare questioni come pregiudizi e violazioni della privacy durante le fasi di formazione e sviluppo di questi modelli.
Linee guida per appalti e governance prudenti
Per garantire l’implementazione sicura ed efficace dei modelli di base dell’IA, l’Ada Lovelace Institute offre diverse raccomandazioni:
Valutazione dettagliata del rischio: gli enti del settore pubblico dovrebbero richiedere informazioni dettagliate sui rischi associati e sulle misure di mitigazione in anticipo quando acquistano e implementano modelli di base per l’IA. Ciò include la risoluzione di problemi quali pregiudizi e violazioni della privacy negli output di testo.
Revisione regolare delle politiche : i responsabili politici dovrebbero rivedere e aggiornare regolarmente le linee guida sui modelli di base dell’IA. I requisiti di appalto dovrebbero rispettare gli standard e questi standard dovrebbero essere incorporati nelle gare d’appalto e nei contratti.
Hosting locale dei dati : i dati utilizzati da questi modelli dovrebbero essere conservati localmente, riducendo il rischio di violazioni della privacy attraverso la condivisione dei dati con fornitori privati.
Audit di terze parti: le organizzazioni del settore pubblico dovrebbero incaricare audit di terze parti indipendenti dei sistemi di intelligenza artificiale per garantire il rispetto degli standard etici e di sicurezza.
Programmi pilota : prima di un'implementazione diffusa, pilotare casi d'uso limitati per identificare e affrontare tutti i rischi e le sfide.
I principi nolani della vita pubblica
Una governance efficace dell’IA, secondo l’istituto, dovrebbe essere sostenuta dai Principi Nolan di vita pubblica, sottolineando la responsabilità e l’apertura.
Preoccupazioni per la deregolamentazione
Nel luglio 2023, l'Ada Lovelace Institute ha espresso preoccupazione per le proposte di riforma dei dati "deregolamentarie" del governo britannico, che potrebbero potenzialmente compromettere lo sviluppo e l'implementazione sicuri dell'intelligenza artificiale. Il rapporto ha indicato che la mancanza di una regolamentazione e di una supervisione chiare in vari settori potrebbe lasciare le persone con protezione e ricorso inadeguati in caso di danni legati all’IA.
Inchiesta della Camera dei Lord
Nel settembre 2023, la Camera dei Lord ha avviato un'indagine sui rischi e sulle opportunità presentati dai grandi modelli linguistici (LLM). Dan McQuillan, docente di informatica creativa e sociale, ha messo in guardia dal fare affidamento sugli LLM per risolvere problemi strutturali nell’economia e nei servizi pubblici, evidenziando il potenziale di spostamento dei sistemi esistenti con conseguenze incerte a lungo termine.
Il briefing politico dell'Ada Lovelace Institute funge da promemoria cruciale per gli acquirenti della tecnologia IA del settore pubblico affinché esercitino prudenza e diligenza nei loro processi di approvvigionamento e implementazione. Sebbene i modelli di base dell’IA offrano la promessa di un cambiamento trasformativo, la loro adozione dovrebbe essere accompagnata da un’approfondita valutazione del rischio, dal rispetto degli standard etici e da un chiaro impegno verso la responsabilità e la trasparenza. Nel panorama in continua evoluzione dell’IA, un processo decisionale informato è fondamentale per garantire che i benefici superino i rischi per il settore pubblico e la società nel suo complesso.