La Corea del Sud promulga la prima legge nazionale completa sull’intelligenza artificiale al mondo

Nel gennaio 2026, la Corea del Sud ha introdotto una nuova serie di leggi sull'intelligenza artificiale, che ha segnato una pietra miliare significativa per qualsiasi grande nazione.

La Legge fondamentale sull'intelligenza artificiale è un atto legislativo che crea il primo quadro normativo completo in materia di intelligenza artificiale implementato da un singolo Paese. Il nome ufficiale della legge è "Legge fondamentale sullo sviluppo dell'intelligenza artificiale e l'istituzione di una fondazione per l'affidabilità".

Caratteristiche principali della nuova normativa

Sebbene vi siano alcune somiglianze tra la legge sudcoreana e l'AI Act dell'Unione Europea, vi sono anche differenze significative. Gran parte della normativa si concentra sulle questioni di sicurezza dell'IA, in particolare quelle legate all'IA generativa e ai modelli linguistici massivi. I deepfake e la diffusione di informazioni false tramite sistemi di IA sono tra le questioni trattate dalla legge.

La legge affronta anche i problemi di salute mentale, anche se queste sezioni non sono così estese come quelle promulgate da diversi stati degli Stati Uniti.

Milioni di persone si rivolgono regolarmente all'IA generativa per ricevere assistenza in materia di salute mentale. Solo ChatGPT conta oltre 900 milioni di persone che lo utilizzano ogni settimana e molti di questi utenti cercano aiuto per problemi di salute mentale. Consultare l'IA su argomenti di salute mentale è l'uso più comune dei moderni sistemi di IA generativa.

La popolarità è giustificata se si considera l'accessibilità. La maggior parte dei principali sistemi di intelligenza artificiale può essere utilizzata gratuitamente o a costi molto bassi, disponibile sempre e ovunque. Chiunque abbia problemi di salute mentale può semplicemente accedere e iniziare una conversazione a qualsiasi ora.

Ma gli esperti avvertono che l'intelligenza artificiale può fornire consigli inadeguati o addirittura dannosi per la salute mentale. Una causa intentata contro OpenAI lo scorso agosto ha sollevato preoccupazioni circa l'insufficienza delle misure di sicurezza quando l'intelligenza artificiale fornisce indicazioni cognitive. Le aziende di intelligenza artificiale affermano di star lentamente aggiungendo misure di protezione, ma i rischi permangono.

L'intelligenza artificiale può potenzialmente aiutare gli utenti a creare deliri che potrebbero portare all'autolesionismo. Gli attuali modelli linguistici generici come ChatGPT, Claude, Gemini e Grok non possono eguagliare le capacità di terapeuti umani qualificati. Sistemi di intelligenza artificiale specializzati, progettati per raggiungere standard simili, sono ancora in fase di sviluppo e sperimentazione.

Sforzi normativi negli Stati Uniti

Solo una manciata di stati americani ha approvato leggi che regolano specificamente l'intelligenza artificiale che fornisce consulenza sulla salute mentale. Molti altri stati stanno prendendo in considerazione una legislazione simile. Alcuni stati hanno anche approvato leggi sulla sicurezza dei minori durante l'uso dell'intelligenza artificiale, sulle funzionalità di compagnia dell'intelligenza artificiale e sull'eccessiva adulazione da parte dei sistemi di intelligenza artificiale.

Il Congresso ha tentato più volte, senza successo, di emanare una legge federale sull'intelligenza artificiale che fornisca consulenza sulla salute mentale. Queste iniziative si sono costantemente arenate. Al momento , questi controversi utilizzi dell'intelligenza artificiale non sono coperti da alcuna legislazione federale. La politica americana può trarre beneficio dall'esame del modo in cui altre nazioni gestiscono la legislazione sull'intelligenza artificiale. L'European Union AI Act, le norme cinesi sull'intelligenza artificiale e le raccomandazioni delle Nazioni Unite per la governance globale dell'intelligenza artificiale sono state tutte oggetto di indagini preliminari.

Secondo la Legge Fondamentale sull'IA, il suo obiettivo principale è stabilire le condizioni essenziali per un nuovo quadro normativo per l'intelligenza artificiale in Corea del Sud. Costruire la fiducia nei sistemi di IA e promuovere un sano sviluppo dell'IA sono gli obiettivi del disegno di legge. Tra gli obiettivi dichiarati rientrano la tutela dei diritti e della dignità delle persone, il miglioramento della qualità della vita e l'incremento della competitività nazionale.

Il filo conduttore è la protezione dell'umanità dai potenziali danni dell'IA. L'industria dell'IA parla spesso di "IA incentrata sull'uomo", l'idea che l'IA dovrebbe allinearsi ai valori umani e supportare le persone piuttosto che indebolirli. La competitività nazionale appare come una preoccupazione chiave nelle normative sull'IA della maggior parte dei paesi. L'accenno della Corea del Sud al rafforzamento della competitività nazionale riflette questa competizione globale.

L'emanazione dell'AI Basic Act della Corea del Sud rappresenta un momento importante nello sviluppo della regolamentazione dell'IA a livello mondiale. Essendo la prima legge nazionale completa sull'IA emanata da un grande Paese, è probabile che influenzi il modo in cui altre nazioni affronteranno normative simili.

Affina la tua strategia con tutoraggio + idee quotidiane – 30 giorni di accesso gratuito al nostro programma di trading

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto