Il NIST pubblica una bozza di linee guida sulla sicurezza e sugli standard dell’IA

Il National Institute of Standards and Technology (NIST) degli Stati Uniti è diventato proattivo nel risolvere le sfide associate all’intelligenza artificiale (AI) pubblicando quattro bozze di pubblicazioni progettate per garantire la sicurezza, la protezione e l’affidabilità dei sistemi di intelligenza artificiale. Durante questo periodo, che termina il 2 giugno 2024, le bozze sono aperte ai commenti del pubblico. Ciò riflette la risposta del NIST all’ordine esecutivo sull’intelligenza artificiale dell’ottobre 2023 che enfatizza la mitigazione degli effetti delle tecnologie di intelligenza artificiale promuovendo al contempo l’innovazione responsabile e il mantenimento della leadership tecnologica degli Stati Uniti.

Alleviare i rischi dell’intelligenza artificiale generativa

Una delle principali aree di preoccupazione nelle pubblicazioni in bozza del NIST sono le minacce alla sicurezza derivanti dalle tecnologie di intelligenza artificiale generativa. Il profilo AI RMF AI Generative AI AI fornisce 12 rischi che vanno dall'elevata accessibilità alle informazioni sensibili alla propagazione di incitamento all'odio e contenuti dannosi. Affrontare questi rischi è stata un’area chiave di interesse per il NIST, che ha identificato oltre 400 potenziali azioni di gestione del rischio che le organizzazioni possono prendere in considerazione. Questo framework fornisce una struttura che gli sviluppatori possono seguire e allineare i propri obiettivi e priorità.

Ridurre al minimo i rischi legati ai dati di training

Un altro contenuto chiave presentato nelle bozze è come proteggere i dati utilizzati nell’addestramento dei sistemi di intelligenza artificiale. La bozza di pubblicazione sulle pratiche di sviluppo software sicuro per l'intelligenza artificiale generativa e i modelli di base a duplice uso, che fa parte delle linee guida esistenti del NIST, è stata generata per garantire l'integrità dei sistemi di intelligenza artificiale in mezzo alle preoccupazioni sui dati di addestramento dannosi. Il NIST suggerisce alcuni modi per rendere sicuro il codice del computer e fornisce soluzioni per problemi relativi ai dati, inclusa la raccolta e l'utilizzo dei dati. Ciò renderà i sistemi di intelligenza artificiale più sicuri contro possibili minacce.

Incoraggiare la trasparenza nei contenuti creati dall’intelligenza artificiale

In risposta al numero in rapido aumento di materiali digitali sintetizzati, il NIST sta sviluppando misure di mitigazione per combattere i rischi da essi posti nel loro prossimo documento sulla riduzione dei rischi posti dai materiali sintetici. Attraverso la filigrana digitale e la registrazione dei metadati, il NIST sta cercando di rendere possibile il tracciamento e l'identificazione dei media alterati, il che, si spera, impedirà alcuni risultati negativi, inclusa la distribuzione di immagini intime non consensuali e materiale pedopornografico.

Promuovere l’impegno globale sugli standard di intelligenza artificiale

Riconoscendo il fatto che la cooperazione internazionale è una delle chiavi per stabilire standard relativi all’IA, il NIST ha prodotto una bozza del Piano di impegno globale sugli standard dell’IA . L’obiettivo di questo piano è incoraggiare la cooperazione e il coordinamento tra gli alleati internazionali, le organizzazioni di sviluppo degli standard e il settore privato per accelerare gli standard tecnologici per l’IA. Rendendo la consapevolezza dell'origine dei contenuti e i metodi di test una priorità assoluta, il NIST mira a sviluppare un regime forte che garantisca il funzionamento sicuro ed eticamente corretto delle tecnologie di intelligenza artificiale in tutto il mondo.

Avvio del GenAI del NIST

Inoltre, l’istituto ha creato NIST GenAI, uno strumento software che valuta e quantifica le capacità degli strumenti di intelligenza artificiale generativa. Il NIST GenAI sarà uno strumento con cui il NIST AI Safety Institute potrà emettere problemi di sfida e valutazioni pilota per aiutare l'AI Safety Institute statunitense presso il NIST a distinguere tra l'input dell'algoritmo AI e il contenuto prodotto dall'uomo. In base alla progettazione, l’obiettivo principale di questa iniziativa è promuovere l’affidabilità delle informazioni e fornire indicazioni sulla dimensione etica della creazione di contenuti nell’era dell’intelligenza artificiale.

L’annuncio da parte del NIST di queste bozze di rapporto e il lancio di GenAI del NIST segnano un’iniziativa attiva e orientata allo sviluppo per risolvere i problemi legati all’intelligenza artificiale che sfidano la nostra società e allo stesso tempo mantenere sicura l’innovazione della società. Attraverso le sollecitazioni del NIST per il contributo delle principali parti interessate, come le aziende che hanno sviluppato o implementato tecnologie di intelligenza artificiale, la piattaforma può influenzare la determinazione delle linee guida sulla sicurezza e sugli standard dell'IA. Attraverso il coinvolgimento attivo in questo processo, le parti interessate possono contribuire a definire le pratiche preferite e l’approccio standard del settore, che alla fine porta a un livello sicuro e un ecosistema di intelligenza artificiale affidabile.

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto