L'azienda di intelligenza artificiale di Elon Musk, xAI, ha dichiarato che sottoscriverà il capitolo sulla sicurezza del codice di condotta dell'Unione Europea per l'intelligenza artificiale, una mossa che la allinea parzialmente alle norme fondamentali dell'Unione in materia di intelligenza artificiale.
Il codice, redatto da 13 collaboratori indipendenti, è volontario, ma fornisce chiarezza giuridica alle aziende che lo adottano mentre si preparano alla piena applicazione della legge sull'intelligenza artificiale dell'UE.
xAI e altre aziende tecnologiche hanno sentimenti contrastanti riguardo al codice
In un post su X , xAI ha riconosciuto che, sebbene l' AI Act e il Codice promuovano la sicurezza, altre parti sono profondamente dannose per l'innovazione e le sue disposizioni sul copyright sono chiaramente eccessive.
L'azienda ha tuttavia confermato che firmerà il capitolo sulla sicurezza.
"xAI sostiene la sicurezza dell'IA e firmerà il capitolo sulla sicurezza e la protezione del Codice di condotta dell'AI Act dell'UE".
~ xAI.
L'azienda non ha dichiarato se intende adottare le altre due sezioni del codice, trasparenza e copyright, entrambe applicabili ai fornitori di intelligenza artificiale generici ai sensi della prossima normativa.
La posizione di xAI si aggiunge alla crescente divisione tra i principali sviluppatori di intelligenza artificiale su come rispondere al quadro normativo dell'UE. Google , parte di Alphabet, si è impegnata a firmare l'intero codice di condotta, pur esprimendo serie riserve su alcuni aspetti delle norme.
"Continuiamo a temere che la legge e il codice sull'intelligenza artificiale rischino di rallentare lo sviluppo e l'implementazione dell'intelligenza artificiale in Europa", ha affermato Kent Walker, Presidente degli Affari Globali di Google, in un post sul blog. Ha tuttavia aggiunto che le recenti modifiche al codice lo hanno migliorato e ha affermato che Google procederà con la firma.
Al contrario, Meta si è rifiutata di firmare . La società madre di Facebook afferma che il codice crea incertezza giuridica e include misure che vanno ben oltre quanto richiesto dall'AI Act.
Il colosso della tecnologia ha avvertito che il quadro normativo potrebbe scoraggiare le aziende dallo sviluppare sistemi di intelligenza artificiale fondamentali in Europa, descrivendo la direzione intrapresa dall'UE come "la strada sbagliata in materia di intelligenza artificiale".
Microsoft e OpenAI non hanno confermato se firmeranno il codice.
L'UE sta preparando l'industria tecnologica all'applicazione dell'AI Act
Il codice di condotta dell'UE per l'intelligenza artificiale è concepito come strumento transitorio, per aiutare le aziende ad allinearsi alle future normative sull'intelligenza artificiale, che entreranno in vigore per i modelli ad alto impatto il 2 agosto. Queste norme sono rivolte agli sviluppatori dei cosiddetti modelli di intelligenza artificiale a rischio sistemico, come quelli sviluppati da Google, Meta, Anthropic e OpenAI.
Sebbene non sia giuridicamente vincolante, il codice delinea le aspettative in materia di documentazione, reperimento dei contenuti e risposta alle rivendicazioni di copyright. Le aziende che aderiscono beneficeranno probabilmente di un coinvolgimento normativo più fluido e di minori incertezze legali.
Il più ampio EU AI Act, un'ampia normativa, mira a regolamentare l'IA in base ai livelli di rischio. Vieta del tutto determinati utilizzi, come i sistemi manipolativi o il social scoring, imponendo al contempo requisiti rigorosi per gli utilizzi "ad alto rischio" in settori come l'istruzione, il lavoro e la biometria.
Gli sviluppatori di modelli avanzati dovranno effettuare valutazioni del rischio, mantenere registri di trasparenza e rispettare rigorosi standard di qualità. Chi non rispetta tali requisiti potrebbe incorrere in sanzioni fino al 7% del fatturato annuo globale.
Le diverse reazioni dei leader dell'intelligenza artificiale suggeriscono che si sta creando una frattura nel modo in cui le aziende tecnologiche considerano la regolamentazione nell'UE.
Mentre alcuni, come Google, stanno optando per un impegno strategico, altri, come Meta, stanno reagendo, temendo che le regole possano soffocare l'innovazione .
La decisione di xAI di supportare selettivamente parti del codice potrebbe rappresentare una via di mezzo, riconoscendo l'importanza della sicurezza dell'IA e resistendo al contempo a quella che considera una regolamentazione eccessiva.
Mentre l'UE porta avanti il suo programma normativo, sempre più aziende tecnologiche dovranno fare una scelta: collaborare fin da subito o rischiare un conflitto in seguito.
Cryptopolitan Academy: Stanco delle oscillazioni del mercato? Scopri come la DeFi può aiutarti a generare un reddito passivo costante. Registrati subito