Il Regno Unito investe 12 milioni di sterline per affrontare le sfide del rapido sviluppo dell’intelligenza artificiale

Il governo del Regno Unito ha concordato 12 milioni di sterline per una serie di progetti dirompenti dedicati al giusto processo decisionale quando il significativo sviluppo dell’intelligenza artificiale minaccia di approfondire il divario. Questo finanziamento è stato assegnato attraverso RAi UK, ovvero Responsible AI UK, un progetto da 31 milioni di sterline programmato su quattro anni per esaminare le conseguenze e le implicazioni sociali dell'intelligenza artificiale generativa. Un esempio rilevante potrebbero essere i tre progetti che mirano a questioni quali la sanità, la sicurezza sociale, le forze dell’ordine e le industrie dei servizi finanziari, e gli altri due progetti che esaminano la responsabilità dell’IA nelle operazioni intelligenti e la partecipazione pubblica nella progettazione di nuove tecnologie.

Rafforzare le forze dell’ordine e i servizi finanziari

Poiché è difficile garantire un completo successo dell’AML-CFT senza l’effettiva attuazione di norme comuni e una stretta collaborazione tra le forze dell’ordine e i fornitori di servizi finanziari, la lotta al riciclaggio di denaro e al finanziamento del terrorismo continuerà.

I grafici indicano che se gli eventi fossero PROBABILI, allora si aggirerebbero intorno ai £3. Dobbiamo anche spendere 5 milioni di dollari per far fronte alla mancanza di intelligenza artificiale per le forze dell’ordine. Così la prof.ssa Marion Oswald, dell'Università di Northumbria, a capo dell'iniziativa, ha già spiegato che è proprio lì che l'intelligenza artificiale può iniziare a rappresentare una soluzione al problema del sovraccarico di informazioni e dell'inefficienza operativa. Tuttavia, gli strumenti di intelligenza artificiale non soddisfano gli standard di legge per produrre risultati ragionevoli per l’intelligenza artificiale. Si potrebbe sviluppare una struttura in questo ordine che collegherebbe l’imprevedibilità causata dall’intelligenza artificiale con i tre principali gruppi colpiti dall’intelligenza artificiale, contribuendo così a produrre applicazioni che potrebbero produrre risultati probabilistici dell’intelligenza artificiale ma mantenendo giustizia e responsabilità.

Affrontare i limiti degli LLM

Altre 3 sterline. La somma di 5 milioni di dollari è stanziata dal progetto che si basa sui vincoli dei grandi modelli linguistici (LLM), che vengono sfruttati nel processo medico e sociale. Una professoressa dell'Università di Londra, Maria Liakata, ha guidato questa iniziativa. A questo proposito, ritiene che parte integrante dell'allineamento delle pratiche etiche sia la necessità di un'applicazione credibile dei modelli. Il progetto mira a un'analisi approfondita delle barriere socio-tecniche e alla prevenzione di risultati indesiderati in aree sensibili in cui si verificano continuamente violazioni della privacy, ad esempio la legge e l'assistenza sanitaria.

Il progetto Partecipatory Harm Auditing Workbenches and Methodologies, con sede presso l’Università di Glasgow, beneficia di una sponsorizzazione di £ 3. ,5 milioni. La dottoressa Simone Stumpf, il leader del team, ha sottolineato che il miglioramento degli incentivi per la previsione e la generazione errate dell’IA è, quindi, il compito principale che stanno cercando di portare a termine. Attraverso questo progetto, aiuteremo coloro che hanno maggiore esperienza in campi particolari a utilizzare strumenti per rilevare potenziali rischi e lasciare il sistema in buona forma. Ciò consentirà ad altre parti interessate di prendere parte attiva al processo decisionale e, quindi, garantire che i sistemi di intelligenza artificiale delle generazioni future siano creati tenendo presenti tutte le questioni etiche.

Supporto aggiuntivo da parte dell'UKRI

Il Fondo per le missioni tecnologiche del Regno Unito per la ricerca e l’innovazione (UKRI) ha investito un’economia di 4 milioni di sterline, destinata a rafforzare questi progetti. Tra questi, 750.000 sterline sono state stanziate a The Digital Good Network, The Alan Turing Institute e The Ada Lovelace Institute con l’obiettivo di facilitare la partecipazione pubblica e dare potere alle voci pubbliche nella ricerca sull’intelligenza artificiale e nel processo decisionale. La professoressa Helen Kennedy, che guida questa iniziativa e sottolinea sempre l’impegno pubblico nello sviluppo di politiche sull’IA giuste e responsabili, ha sottolineato il ruolo significativo dell’opinione pubblica in questo contesto. Inoltre, questo fondo di £ 650.000 sarà assegnato a un progetto compilato dal Productivity Institute mirato all’implementazione dell’intelligenza artificiale.

Diane Coyle, professoressa, ha sostenuto la ricerca interdisciplinare colmando il divario non solo tra i ricercatori ma anche tra i politici, le imprese e gli sviluppatori di tecnologia dell’intelligenza artificiale per garantire che la tecnologia dell’intelligenza artificiale migliori la produttività e il benessere della società. Tali fondi strategici fanno parte di un portafoglio di progetti da 1 miliardo di sterline implementato dall’UKRI per sostenere la ricerca e lo sviluppo dell’IA. Questa è una delle misure intraprese dal Regno Unito per migliorare la propria posizione competitiva nello sviluppo etico dell’IA.

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto