L'Autorità di vigilanza polacca (UODO), l'autorità polacca di regolamentazione dei dati, ha affermato che sta valutando la possibilità di avviare un'indagine sul produttore di ChatGPT OpenAI. La dichiarazione arriva dopo che un cittadino ha affermato che lo strumento ha generato false informazioni su di lui, sollevando dubbi su come l'algoritmo di OpenAI elabora i dati personali.
Il querelante sostiene che ChatGPT abbia utilizzato i dati del 2021 ottenuti al di fuori delle leggi sulla privacy dell'UE per generare un risultato falso. Inoltre, non ha fornito la fonte dei dati, il che, secondo il cittadino, richiede un'ispezione più approfondita dei metodi di elaborazione dei dati di OpenAI.
L'autorità di regolamentazione polacca porterà avanti l'indagine su OpenAI
Inoltre, le domande rivolte a OpenAI non hanno fornito risposte soddisfacenti. In risposta alla denuncia, il vicepresidente dell'UODO, Jakub Groszowski, ha affermato il diritto di ricorso del querelante e ha sottolineato il dovere dei vigilanti sulla privacy dei dati .
“Lo sviluppo di nuove tecnologie deve avvenire nel rispetto dei diritti delle persone fisiche derivanti, tra gli altri, dal [Regolamento generale sulla protezione dei dati]. Il compito delle autorità europee per la protezione dei dati personali è proteggere i cittadini europei dagli effetti negativi delle tecnologie di elaborazione delle informazioni ”.
Ha affermato che la denuncia ha sollevato dubbi sul fatto che OpenAI rispetti il principio fondamentale del GDPR della “ privacy by design”. In risposta, l'UODO tenterà di chiarire le politiche sui dati di OpenAI, ha confermato il presidente dell'UODO.
“Il caso riguarda la violazione di numerose disposizioni in materia di protezione dei dati personali, per questo chiederemo ad OpenAI una risposta ad alcuni quesiti per poter svolgere in maniera esaustiva il procedimento amministrativo”.
L’UE ha incorporato le misure di salvaguardia dell’intelligenza artificiale (AI) nella sua legge GDPR nel maggio 2018.
Scopri qui come le identità decentralizzate possono salvaguardare le informazioni personali.
All’epoca fu criticata la sua richiesta alle aziende di spiegare come utilizzano le informazioni personali nell’intelligenza artificiale. I primi commentatori suggerivano che fosse quasi impossibile per le aziende sapere se erano pienamente conformi.
Leggi di più qui sulle piattaforme di social media decentralizzate che dipendono meno dai tuoi dati rispetto ai loro rivali centralizzati.
Inoltre, si credeva che le leggi costituissero un freno all’innovazione. All’epoca, il 74% degli intervistati in un sondaggio tedesco sull’industria digitale affermava che le leggi sulla privacy rappresentavano il principale ostacolo allo sviluppo di nuove tecnologie .
La nuova legislazione potrebbe correggere la cattiva gestione dei dati personali
Ma ci sono alcune questioni fondamentali riguardanti il processo decisionale automatizzato che sono state riprese dai precedenti modelli di intelligenza artificiale.
I primi modelli di machine learning, gli elementi costitutivi dei modelli linguistici di grandi dimensioni, furono criticati per la loro tendenza a interpretare i dati personali in un modo che rinforzava i mali sociali. Ad esempio, un modello potrebbe perpetuare i pregiudizi nelle assunzioni sottopesando le candidate donne per lavori di programmazione informatica.
La recente pandemia di COVID-19 ha spinto molti governi ad accelerare o ad aggirare del tutto la due diligence a favore della velocità. Molte aziende hanno sfruttato la pandemia per spingere gli strumenti di intelligenza artificiale, automazione e sorveglianza a favore del bene comune.
Un sistema creato dal dipartimento esami Ofqual ha tentato di prevenire algoritmicamente l'inflazione dei risultati scolastici britannici. Invece, ha discriminato i veri talenti e i bambini provenienti da contesti svantaggiati.
Entro la fine dell’anno, il primo ministro britannico Rishi Sunak ospiterà un vertice di dirigenti e ricercatori nel campo dell’intelligenza artificiale per decidere sul futuro dell’intelligenza artificiale. Il Parlamento europeo potrebbe approvare la legge sull’intelligenza artificiale dell’UE entro la fine dell’anno.
Hai qualcosa da dire sull'intenzione dell'UODO di avviare un'indagine sulla gestione dei dati personali da parte di OpenAI nel suo algoritmo o su qualsiasi altra cosa? Scrivici o partecipa alla discussione sul nostro canale Telegram. Puoi trovarci anche su TikTok , Facebook o X (Twitter) .
Il post La Polonia insegue OpenAI e ChatGPT è apparso per primo su BeInCrypto .