L’Autorità Garante per la Protezione dei Dati Personali ha avviato un’indagine conoscitiva per valutare le pratiche di sicurezza dei siti web pubblici e privati per contrastare il crescente problema dello scraping dei dati basati sull’intelligenza artificiale. Questa iniziativa nasce come risposta alle preoccupazioni relative alla raccolta di dati per l’addestramento degli algoritmi di intelligenza artificiale (AI) e alle potenziali violazioni della privacy ad essa associate.
Prevenire il web scraping dei dati personali
Obiettivo primario dell'indagine è esaminare l'adozione di adeguate misure di sicurezza su siti web pubblici e privati per contrastare la pratica del “web scraping” di dati personali a fini di formazione sull'intelligenza artificiale. Destano particolare preoccupazione gli “spider” di terze parti utilizzati dai produttori di algoritmi di intelligenza artificiale per raccogliere dati da questi siti web.
L'ambito di applicazione del Garante per la protezione dei dati personali si estende a tutti i soggetti pubblici o privati che operano come titolari del trattamento in Italia o che forniscono servizi all'interno del Paese che rendono i dati personali liberamente accessibili online. Sebbene non siano state nominate società specifiche, l’autorità di regolamentazione ha riconosciuto che varie piattaforme di intelligenza artificiale utilizzano il web scraping per accumulare quantità significative di dati personali. A seguito delle indagini, l'autorità intende adottare tutte le misure necessarie, comprese le azioni urgenti.
Impatto globale dello scraping dei dati dell’intelligenza artificiale
In particolare, questo problema non riguarda solo l’Italia. A luglio, Google ha dovuto affrontare un’azione legale collettiva negli Stati Uniti per la sua politica sulla privacy aggiornata sullo scraping dei dati dell’intelligenza artificiale, applicata ai suoi servizi web per la formazione algoritmica interna dell’intelligenza artificiale.
Coinvolgimento delle parti interessate nell'indagine
Le autorità di regolamentazione italiane hanno invitato esperti del settore dell’intelligenza artificiale, accademici e altre parti interessate a partecipare attivamente a questo processo. Sono incoraggiati a condividere le loro intuizioni e commenti entro un periodo di 60 giorni, contribuendo a una comprensione più completa delle sfide poste dallo scraping dei dati basati sull’intelligenza artificiale.
La vigilanza dell’Italia su AI e privacy
L’autorità italiana di vigilanza sulla privacy è stata proattiva nell’affrontare le preoccupazioni legate all’intelligenza artificiale. Nel marzo 2023 ha vietato in Italia il funzionamento del popolare chatbot AI ChatGPT a causa di violazioni della privacy. Inoltre, a maggio, l’Italia ha istituito un fondo apposito con milioni di euro stanziati per sostenere i lavoratori a rischio di spostamento dal lavoro a causa dell’adozione dell’IA.
Collaborazione europea sulla regolamentazione dell’IA
Negli ultimi sviluppi, Italia, Francia e Germania hanno stipulato un accordo sulla futura regolamentazione dell’IA. Si prevede che questo accordo, delineato in un documento congiunto visionato da Reuters, faciliterà negoziati simili a livello di Unione Europea. I tre paesi stanno sostenendo impegni volontari per i fornitori di IA sia grandi che piccoli all’interno dell’Unione Europea, con l’obiettivo di stabilire un quadro che garantisca uno sviluppo e un’implementazione responsabili dell’IA.
Mentre l’Autorità italiana per la protezione dei dati personali approfondisce la sua indagine conoscitiva e cerca una più ampia collaborazione sulla regolamentazione dell’IA, sottolinea la crescente attenzione e gli sforzi globali per affrontare le complesse sfide poste dallo scraping dei dati dell’IA e dalle violazioni della privacy nell’era digitale.