L’Europa svela i primi regolamenti sull’intelligenza artificiale al mondo: come si interseca con l’industria delle criptovalute

Venerdì è stato un grande giorno nella storia della tecnologia perché è stato il giorno in cui i negoziatori dell'Unione Europea (UE) hanno finito di scrivere il primo set completo di regole al mondo per l'intelligenza artificiale, o più popolarmente, l'intelligenza artificiale.

Questo accordo, denominato “Artificial Intelligence Act”, rappresenta un grande passo avanti verso il controllo giudiziario della tecnologia.

Dopo intensi colloqui a porte chiuse, i negoziatori del Parlamento europeo e dei 27 Stati membri dell'UE sono riusciti a superare le divergenze e a raggiungere un accordo politico preliminare sulla legge sull'AI.

I colloqui hanno affrontato argomenti delicati, come l’intelligenza artificiale generativa e il modo in cui la polizia utilizza il riconoscimento facciale per lo spionaggio. Thierry Breton, il commissario europeo, ha annunciato la svolta e ha sottolineato il ruolo guida dell'UE come primo continente a stabilire regole chiare per il suo utilizzo.

Anche se c'è stato un buon risultato dopo una maratona di riunioni durata più di 20 ore, i gruppi della società civile non erano soddisfatti dell'accordo perché pensavano che non avesse abbastanza protezioni contro i danni che questo tipo di tecnologia potrebbe causare. Hanno sottolineato la necessità di ulteriori dettagli tecnici, che saranno migliorati nelle prossime settimane.

L’Europa guida la legislazione sull’IA

Pubblicando la prima bozza delle sue regole sull’intelligenza artificiale nel 2021, l’UE aveva già preso l’iniziativa nella creazione di regole sull’intelligenza artificiale in tutto il mondo. Ma a causa dell’aumento dell’intelligenza artificiale generativa, i leader europei hanno dovuto cambiare il piano, che doveva essere un modello per il mondo intero.

Per ottenere l'approvazione ufficiale, il Parlamento Europeo si prepara a votare la legge sull'AI nei primi mesi del nuovo anno. Se approvata, la legge non entrerebbe in vigore almeno fino al 2025. Le sanzioni per la violazione sarebbero molto dure, arrivando fino a 35 milioni di euro (38 milioni di dollari), ovvero il 7% del fatturato mondiale di un’azienda.

I sistemi di intelligenza artificiale generativa individuale, come ChatGPT di OpenAI, hanno ricevuto molta attenzione per la loro capacità di creare scritti, immagini e musica che assomigliano molto al lavoro umano. Alcune persone temono che ciò possa mettere a rischio posti di lavoro, privacy, sicurezza del copyright e persino vite umane.

Mentre anche l’UE, gli Stati Uniti, il Regno Unito, la Cina e altri gruppi globali stanno definendo le proprie regole sull’IA, le regole dell’UE potrebbero essere un potente esempio da seguire per altri.

Inizialmente la legge sull’AI perseguiva solo determinate funzioni dell’IA in base al loro livello di rischio. Successivamente, ha ampliato la sua portata per includere modelli di base, che sono i sistemi complessi che rendono possibili servizi di intelligenza artificiale generici come ChatGPT e il robot Bard di Google.

Nonostante alcuni problemi, i negoziatori sono riusciti a trovare un equilibrio sui modelli di base. Hanno aggiunto ulteriori requisiti per la documentazione tecnica, seguendo la legge sul copyright dell’UE, la valutazione del rischio, la segnalazione degli incidenti, le misure di sicurezza informatica e la condivisione di informazioni sull’efficienza di qualcosa con l’energia.

I ricercatori avvertono che le grandi aziende tecnologiche potrebbero abusare di modelli di base solidi, sottolineando rischi come la diffusione di informazioni false online, l’hacking, la creazione di armi biologiche e la manipolazione delle persone. Le norme dell’UE sull’IA potrebbero avere un effetto sulle norme di tutto il mondo, fungendo da modello per altri paesi che vogliono regolamentare l’IA.

In che modo le regole europee sull'intelligenza artificiale potrebbero avere un impatto sull'industria delle criptovalute

La decisione dell'Unione Europea (UE) di finalizzare la legge sull'intelligenza artificiale ha un grande impatto sul settore delle criptovalute. Nello specifico, le leggi relative all'intelligenza artificiale generativa, come il ChatGPT di OpenAI, presentano questioni importanti. Queste tecnologie ampiamente utilizzate nel settore delle criptovalute possono essere soggette a normative e ispezioni più rigorose per quanto riguarda le attività automatizzate della piattaforma blockchain e la produzione di contenuti.

L'enfasi posta dall'AI Act sulla sicurezza e sulla privacy dei dati è in linea con la necessità di transazioni sicure nel settore delle criptovalute. Le società crittografiche che operano nell'UE devono rispettare queste regole per evitare di incorrere in multe severe fino al 7% delle loro entrate totali. Questa attenzione alla conformità potrebbe portare a maggiori sforzi all’interno del settore delle criptovalute per aderire alle mutevoli norme relative all’intelligenza artificiale.

L’inclusione dei modelli di base nell’AI Act, necessari per i servizi IA di uso generale, ha un impatto diretto sulle iniziative blockchain che includono la tecnologia AI. Inoltre, l’impatto mondiale della legislazione dell’UE potrebbe influenzare gli approcci adottati da Cina e Stati Uniti, altri due importanti partecipanti nel campo delle criptovalute, per quanto riguarda la governance dell’IA.

Le politiche innovative dell’UE in materia di intelligenza artificiale espandono essenzialmente la loro influenza nel settore delle criptovalute, incidendo sugli standard di privacy dei dati, formando precedenti mondiali per la congiunzione tra intelligenza artificiale e criptovalute e influenzando l’integrazione delle tecnologie di intelligenza artificiale. L’AI Act avrà probabilmente un impatto significativo e di ampio respiro sulla scena in evoluzione delle criptovalute man mano che si sviluppa.

Immagine in primo piano da Freepik

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto