Con una mossa di venerdì sera, le istituzioni dell’Unione Europea hanno raggiunto un accordo provvisorio sulla tanto attesa legge sull’AI dopo intensi negoziati di trilogo. Tuttavia, mentre si celebra questo significativo passo avanti, sorgono preoccupazioni riguardo a potenziali scappatoie che potrebbero trasformare questa pietra miliare normativa in un travestimento per la deregolamentazione.
La legge sull’intelligenza artificiale, volta a creare un quadro per lo sviluppo e l’uso responsabile dell’intelligenza artificiale, dovrebbe trovare un equilibrio tra innovazione e tutela della società. Tuttavia, le complessità dell’accordo, emerse soprattutto dai negoziati dell’ultimo minuto, sollevano interrogativi sulle vere intenzioni dietro una legislazione apparentemente completa.
Elementi chiave della legge sull’AI
Il principio fondamentale di un approccio basato sul rischio, originariamente proposto dalla Commissione europea, rimane intatto. I sistemi di IA “ad alto rischio”, che rappresentano una minaccia per la salute, la sicurezza, i diritti fondamentali, l’ambiente, la democrazia e lo Stato di diritto, sono soggetti a requisiti specifici. Tuttavia, l’aggiunta di condizioni di filtraggio solleva preoccupazioni circa potenziali lacune che potrebbero esentare alcune applicazioni ad alto rischio.
L’AI Act vieta i sistemi di intelligenza artificiale che causano rischi inaccettabili, compresi quelli che manipolano il comportamento umano, sfruttano le vulnerabilità e si impegnano nello scraping non mirato dell’immagine facciale. Sebbene il divieto sia completo, le eccezioni per motivi di sicurezza, come il riconoscimento delle emozioni sul posto di lavoro, introducono ambiguità e potenziali scappatoie.
Vengono introdotti obblighi di trasparenza per i modelli di fondazione, soprattutto quelli “ad alto impatto” con rischio sistemico. Regole più severe richiedono valutazioni dei modelli, valutazioni del rischio sistemico, test contraddittori, misure di sicurezza informatica e segnalazione degli incidenti. Tuttavia, fare affidamento sui codici di condotta fino a quando non saranno stabilite norme UE armonizzate può creare incertezze in termini di conformità.
L’inclusione di una valutazione d’impatto sui diritti fondamentali (FRIA) affronta le preoccupazioni sulla sorveglianza statale discriminatoria e sull’intelligenza artificiale nelle forze dell’ordine. Tuttavia, le esenzioni per le forze dell’ordine sollevano interrogativi sull’efficacia della FRIA nel prevenire l’impiego dannoso di strumenti di intelligenza artificiale ad alto rischio.
Le violazioni della legge sull’AI comporteranno sanzioni che vanno da 35 milioni di euro o il 7% del fatturato annuo globale a 7,5 milioni di euro o l’1,5% del fatturato per violazioni minori. Mentre le multe mirano a far rispettare la conformità, vengono sollevate preoccupazioni circa il potenziale aggiramento attraverso “limiti proporzionati”, favorendo le aziende più grandi e incoraggiandole a delegare progetti rischiosi di intelligenza artificiale alle startup.
L’istituzione di un ufficio e di un consiglio di AI costituisce la struttura di governance. L'ufficio all'interno della commissione supervisiona i modelli avanzati di intelligenza artificiale, mentre il consiglio, composto da rappresentanti degli Stati membri, funge da piattaforma di coordinamento. L’inclusione limitata delle parti interessate della società come esperti tecnici potrebbe diminuire la voce della società civile nella definizione delle normative sull’IA.
Lacune e preoccupazioni inesplorate nella legge sull’intelligenza artificiale
Nonostante le affermazioni di figure chiave come Thierry Breton e altri che esprimono fiducia nell’equilibrio tra innovazione e protezione, persistono preoccupazioni su potenziali scappatoie nell’AI Act. Venerdì, in una conferenza stampa a tarda notte, i funzionari hanno riconosciuto che le condizioni di filtro e le eccezioni potrebbero consentire alle applicazioni ad alto rischio di sfuggire al controllo. Questioni come il divieto dei sistemi di identificazione biometrica e l’impiego di strumenti di intelligenza artificiale ad alto rischio in circostanze urgenti sollevano dubbi sull’efficacia della legge.
L'affermazione di Thierry Breton secondo cui l' AI Act trascende l'essere un semplice manuale di regole, funzionando come una piattaforma per startup e ricercatori dell'UE per assumere un ruolo guida nella corsa globale all'intelligenza artificiale, implica un'ambizione intrinseca di rendere l'UE una forza di primo piano nel campo dell'intelligenza artificiale. intelligenza. I critici sostengono che ciò riflette un approccio di deregolamentazione, dando priorità al sostegno e al progresso delle società di intelligenza artificiale con sede nell’UE rispetto a normative rigorose.
Man mano che l’AI Act si avvicina a diventare realtà, il dibattito sulla sua efficacia e sulle potenziali scappatoie si intensifica. La legislazione riuscirà davvero a trovare un equilibrio tra la promozione dell’innovazione e la salvaguardia della società, o si tratta di una strategia di deregolamentazione accuratamente mascherata? I prossimi mesi sveleranno il vero impatto dell’AI Act sul panorama dell’IA all’interno dell’Unione Europea e oltre.