Navigare nel complesso panorama della sicurezza e della governance dell’IA

Negli sviluppi recenti, il panorama globale dell’IA ha visto figure come Sam Altman assumere un ruolo di primo piano, influenzando potenzialmente gli aspetti normativi dello sviluppo dell’IA. Questo spostamento dell’attenzione verso l’acquisizione normativa ha sollevato interrogativi sulla posizione di organizzazioni come OpenAI nei confronti dell’intelligenza artificiale open source. Tuttavia, questo articolo va oltre l’ambito dello sviluppo dell’intelligenza artificiale per approfondire le questioni critiche relative alla sicurezza e alla standardizzazione dell’intelligenza artificiale.

Nell’ambiente delle minacce informatiche in rapida evoluzione, dove l’automazione e i sistemi di intelligenza artificiale sono in prima linea, è fondamentale enfatizzare il ruolo delle capacità di automazione della sicurezza. Considera il semplice atto di controllare e rispondere alle e-mail nel mondo di oggi e scoprirai gli intricati livelli di intelligenza artificiale e automazione coinvolti nella protezione di questa attività quotidiana.

Le organizzazioni di dimensioni e complessità significative fanno sempre più affidamento sui sistemi di automazione della sicurezza per applicare in modo efficace le proprie policy di sicurezza informatica. Tuttavia, in questa dipendenza dall’automazione, c’è un aspetto cruciale spesso trascurato: l’ambito delle “metapolitiche” della sicurezza informatica. Queste metapolitiche comprendono meccanismi automatizzati di scambio di dati sulle minacce, convenzioni di attribuzione e sistemi di gestione della conoscenza. Contribuiscono collettivamente a quella che viene spesso definita “difesa attiva” o “sicurezza informatica proattiva”.

Sorprendentemente, le politiche nazionali sulla sicurezza informatica spesso mancano di riferimenti espliciti a queste metapolitiche. Tendono ad essere incorporati implicitamente nelle implementazioni nazionali attraverso l’influenza e l’imitazione piuttosto che tramite deliberazioni formali o strategiche.

Queste metapolitiche di automazione della sicurezza rivestono un’enorme importanza nel contesto della governance e della sicurezza dell’intelligenza artificiale perché i sistemi di intelligenza artificiale, siano essi puramente digitali o cyber-fisici, esistono all’interno del più ampio quadro strategico e di sicurezza informatica. Sorge quindi la domanda se l’adeguamento delle metapolitiche di automazione esistenti sia adatto a plasmare il futuro dell’intelligenza artificiale.

La necessità di metapolitiche unificate per la sicurezza informatica

Una tendenza significativa è l’integrazione delle pratiche di sicurezza dal dominio del software su ruote in vari sistemi automobilistici complessi. Ciò si estende dai carri armati completamente digitalizzati, che promettono una riduzione delle dimensioni dell’equipaggio e una maggiore letalità, agli standard per la gestione automatizzata della sicurezza della flotta e ai sistemi di trasporto con droni. Questa evoluzione ha dato origine a Security Operations Center (SOC) di veicoli che operano sulla falsariga dei SOC di sicurezza informatica, utilizzando meccanismi di scambio di dati simili e implementazioni di automazione della sicurezza. Tuttavia, adattare ciecamente i mezzi esistenti al panorama delle minacce emergenti è lungi dall’essere adeguato.

Ad esempio, la maggior parte degli scambi di dati sulle minacce alla sicurezza informatica si basa sul Traffic Light Protocol (TLP), che funge principalmente da sistema di classificazione delle informazioni. Tuttavia, l’esecuzione del TLP e qualsiasi meccanismo di crittografia per limitarne la distribuzione sono spesso lasciati alla discrezione dei progettisti dei sistemi di automazione della sicurezza. Ciò evidenzia la necessità di controlli più accurati sulla condivisione dei dati con sistemi automatizzati e sulla garanzia della conformità.

Un altro esempio di metapolitiche incoerenti può essere visto nella recente proliferazione di sistemi di generazione del linguaggio e di agenti di intelligenza artificiale conversazionale. Non tutti gli agenti conversazionali sono grandi reti neurali come ChatGPT; molti hanno funzionato per decenni come programmi di generazione linguistica basati su regole e compiti specifici. Colmare il divario tra l’infrastruttura IT legacy e i paradigmi emergenti di automazione dell’intelligenza artificiale presenta sfide per le organizzazioni in fase di trasformazione digitale.

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto