Bruxelles avvia colloqui separati sulla sicurezza dell’IA con OpenAI e Anthropologie.

Lunedì, la Commissione europea ha dichiarato di essere in contatto con OpenAI e Anthropic in merito ai loro modelli di intelligenza artificiale, ma le due conversazioni sembrano molto diverse tra loro.

Thomas Regnier, portavoce della Commissione a Bruxelles, ha dichiarato ai giornalisti che OpenAI è stata la prima a offrire l'accesso al suo modello più recente. La Commissione ha definito la mossa proattiva.

Anthropic, d'altro canto, ha incontrato i funzionari quattro o cinque volte, ma la questione dell'accesso dei modelli non è ancora stata affrontata.

"Con una (OpenAI), abbiamo un'azienda che si offre proattivamente di fornire l'accesso. Con l'altra (Anthropic), abbiamo buoni scambi, anche se non siamo ancora in una fase in cui possiamo speculare su un potenziale accesso o meno", ha affermato Regnier durante il briefing.

I governi stanno stringendo il cerchio attorno all'intelligenza artificiale di frontiera

La tempistica non è casuale. I governi di tutto il mondo stanno prestando attenzione ai sistemi di intelligenza artificiale avanzati.

Quest'anno è entrato in vigore il regolamento UE sull'intelligenza artificiale, la cui attuazione avviene per fasi. Il regolamento stabilisce norme basate sul rischio per i fornitori di intelligenza artificiale che operano in Europa.

Le aziende non sono obbligate a fornire al governo dei modelli da esaminare prima di immetterli sul mercato, ma è chiaro che la Commissione vuole saperne di più su ciò che ci aspetta.

OpenAI e Anthropic sono le due maggiori aziende americane che operano nel campo dell'intelligenza artificiale all'avanguardia.

I loro sistemi di intelligenza artificiale diventano sempre più sofisticati e le autorità di regolamentazione si affannano a capire cosa ciò significhi concretamente.

Il servizio audiovisivo della Commissione ha inserito la discussione su OpenAI e Anthropic nella sezione "Cybersecurity" dell'ordine del giorno del briefing di mezzogiorno dell'11 maggio. L'argomento è elencato insieme alla politica di difesa e alla migrazione.

Washington si sta muovendo verso controlli obbligatori prima del rilascio

Mentre Bruxelles discute , Washington potrebbe imporre delle regole.

La Casa Bianca sta valutando un piano per esaminare i modelli di intelligenza artificiale più potenti prima che vengano resi pubblici.

Quest'idea ha preso piede dopo che Anthropic ha limitato l'accesso al suo ultimo modello, Mythos, in seguito a test interni che hanno dimostrato la possibilità di individuare bug software sfruttabili su larga scala.

L'Istituto britannico per la sicurezza dell'IA si è imbattuto in problemi simili ad aprile, durante la valutazione di GPT-5.5 di OpenAI.

Secondo quanto riportato in precedenza da Cryptopolitan, il modello ha effettuato un'ingegneria inversa di una macchina virtuale personalizzata e ha risolto una sfida complessa più velocemente di un esperto umano.

Se stai leggendo questo, sei già un passo avanti. Rimani al passo con i tempi iscrivendoti alla nostra newsletter .

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto