OpenAI, la rinomata società di intelligenza artificiale, è accusata di violazione della privacy dei dati in una significativa azione legale collettiva. La causa afferma che OpenAI, creatore del famoso strumento di intelligenza artificiale ChatGPT, ha estratto i dati degli utenti privati su Internet senza espressa autorizzazione.
Questo contenzioso ha intrappolato il titano della tecnologia, suggerendo implicazioni di vasta portata per la sfera digitale.
Le prime accuse in assoluto di aver rubato dati privati
La causa sostiene che OpenAI abbia utilizzato dati ottenuti da innumerevoli post sui social media, voci di blog, articoli di Wikipedia e persino ricette di famiglia per addestrare il suo strumento di intelligenza artificiale, ChatGPT .
La raccolta dei dati presumibilmente è avvenuta senza il consenso esplicito degli utenti, presumibilmente violando i diritti d'autore e la privacy di innumerevoli abitanti di Internet.
Il procedimento legale è stato avviato dallo studio legale Clarkson il 28 giugno presso il tribunale distrettuale degli Stati Uniti per il distretto settentrionale della California.
Secondo i querelanti, OpenAI ha illegalmente estratto dettagli privati dalle interazioni con ChatGPT. Se queste accuse dovessero reggere, OpenAI potrebbe essere ritenuta colpevole di aver violato il Computer Fraud and Abuse Act, che ha un precedente di web scraping.
In un colpo di scena, la causa ha anche coinvolto Microsoft, un importante sostenitore di OpenAI, come co-imputato.
Le accuse si estendono per sostenere che i prodotti di OpenAI sono costruiti su informazioni private rubate, come i dati di identificazione personale di centinaia di milioni di utenti.
Questi utenti includono adulti e bambini, tutti presumibilmente tenuti all'oscuro della raccolta dei dati. L'azienda è accusata di mettere irresponsabilmente tutti gli utenti in una zona di rischio incommensurabile, utilizzando impropriamente i loro dati per sviluppare una tecnologia sperimentale instabile.
OpenAI al bivio: reazioni normative tra crescenti preoccupazioni
Alla luce della crescente popolarità di strumenti di intelligenza artificiale come ChatGPT, i legislatori di tutto il mondo stanno ora prestando maggiore attenzione. Negli Stati Uniti, un gruppo bipartisan di legislatori ha introdotto il 20 giugno il National AI Commission Act, con l'intenzione di creare una commissione per valutare l'approccio del paese nei confronti dell'IA.
Anche l'Unione europea è intervenuta, con il Parlamento europeo che ha approvato all'inizio di questo mese l'Artificial Intelligence Act, introducendo un quadro di governance e supervisione per l'industria dell'IA nell'UE.
La causa ha anche toccato il lato oscuro del progresso dell'IA. Gli attori malintenzionati potrebbero utilizzare come arma le informazioni personali, sfruttando gli strumenti di intelligenza artificiale per impegnarsi in attività nefaste, come molestie, ricatti e sextortion.
Uno di questi metodi deplorevoli prevede l'uso dell'intelligenza artificiale per creare contenuti pornografici deepfake, causando disagio emotivo e potenziale danno alla reputazione della vittima.
In una svolta inquietante, la causa sostiene che ChatGPT potrebbe persino essere utilizzato per distribuire attacchi malware avanzati, aggirando gli strumenti di sicurezza informatica standard. Inoltre, l'introduzione dell'implementazione autonoma di ChatGPT, soprannominata "Chaos GPT", ha sollevato le sopracciglia. Si dice che questa variante AI, progettata con intenzioni discutibili, esprima il desiderio di "distruggere l'umanità".
Nonostante l'entità delle accuse, la causa rappresenta un allarmante campanello d'allarme per l'industria tecnologica e le autorità di regolamentazione. La difficile situazione di OpenAI sottolinea l'urgente necessità di barriere significative per le tecnologie AI.
Mentre l'intelligenza artificiale continua ad evolversi, garantire la protezione dei dati, la privacy e le considerazioni etiche devono rimanere in prima linea in qualsiasi progresso tecnologico.
La causa contro OpenAI, quindi, potrebbe segnare una svolta nella responsabilità e nella regolamentazione dell'IA. Il mondo della tecnologia seguirà da vicino lo svolgersi della saga.