L’Unione Europea (UE) ha intrapreso passi coraggiosi che garantiscono la formazione di un intero sistema normativo responsabile della sicurezza, della chiarezza e dell’uso etico dell’IA. La nuova legge europea sull’intelligenza artificiale, che attua quest’ultima, è significativa nella sfera della governance globale dell’IA, fornendo un quadro normativo completo costituito da misure complesse per controllare il progresso dell’IA e il suo utilizzo all’interno dell’UE.
Disposizioni della legge UE sull'IA
La legge sull’intelligenza artificiale dell’Unione europea è concepita per affrontare le numerose questioni che devono essere risolte, tra cui il controllo dei potenziali pericoli, la protezione della vita privata e la garanzia di un buon ambiente. Fondamentale per l’atto è la strategia basata sul rischio in cui le norme e i regolamenti specifici verranno imposti in base al livello di rischio.
La legge vieterà le applicazioni rischiose dell’IA e richiederà l’imposizione di regole di trasparenza per garantire la responsabilità di tale intelligenza artificiale. Inoltre, qualsiasi IA rischiosa deve essere valutata con una valutazione del rischio prima di lanciare tale IA.
Tuttavia, l’Unione Europea dà priorità alle applicazioni dell’IA sottolineando l’elemento di supervisione umana, che richiede la prevenzione di risultati indesiderati e la garanzia della sicurezza nei servizi di cui le persone hanno bisogno.
Attraverso questa legge, i leader dell’intelligenza artificiale vengono resi personalmente responsabili dei loro sistemi, il che li scoraggerà dall’utilizzare l’intelligenza artificiale per scopi malvagi, come mettere in pericolo la vita di qualcuno o discriminare.
L'occhio intenso è in linea con le norme UE sull'IA
Melih Yonet, responsabile legale di Intenseye, una piattaforma EHS (salute e sicurezza ambientale) di punta basata sull'intelligenza artificiale, riconosce l'importanza della sicurezza e della privacy dell'intelligenza artificiale nell'era della tecnologia.
Yonet ha evidenziato il fatto indiscutibile che le soluzioni di intelligenza artificiale devono incorporare principi di privacy fin dalla progettazione e che l'uso di tecniche come la pseudonimizzazione e l'anonimizzazione 3D è senza dubbio un modo per raggiungere tale obiettivo quando si tratta di mitigare i rischi e garantire la rispetto dei requisiti normativi.
Oltre a ciò, sottolinea che una delle priorità chiave è la progettazione della fiducia nei sistemi di intelligenza artificiale, che definisce come un motore per l’innovazione, la produttività e la cultura della sicurezza.
Sia che si tratti di affrontare la sofferenza psicologica o di mantenere un senso di giustizia, mitigare il danno e stabilire la responsabilità sono fondamentali per la giustizia riabilitativa.
Regolamento UE sull’IA che tutela dagli abusi
Insieme al regolamento UE sull’intelligenza artificiale, le cui norme includono anche la questione della possibile intelligenza degli algoritmi che forniscono l’intelligenza artificiale e del loro potenziale uso sbagliato. In questo modo c’è la possibilità di causare enormi danni agli individui e alle società.
Questo disegno di legge intende frenare i pregiudizi e garantire che la tecnologia dell’intelligenza artificiale non rappresenti alcuna minaccia per la società. Pertanto, afferma ogni responsabilità che possa salvaguardare da esiti negativi e garantisce inoltre che l’intelligenza artificiale venga utilizzata con tutta la cura necessaria. Yonet afferma che la separazione dei contenuti generati dall’intelligenza artificiale dalla realtà e l’etica nell’uso dell’intelligenza artificiale sono elementi chiave per ridurre al minimo la disinformazione e preservare la trasparenza nei processi incentrati sull’intelligenza artificiale.