In una sincera intervista con Devin Coldewey di TechCrunch, la CEO di Signal Meredith Whittaker ha espresso le sue gravi preoccupazioni sull'intersezione tra intelligenza artificiale (AI) e privacy. Afferma con veemenza che l’intelligenza artificiale è fondamentalmente intrecciata con il modello di business della sorveglianza ed è pronta a esacerbare le sfide alla privacy che si sono sviluppate dalla fine degli anni ’90, in particolare con l’avvento della pubblicità di sorveglianza.
Whittaker non usa mezzi termini quando afferma: “È necessario il modello di business della sorveglianza; è un'esacerbazione di ciò che abbiamo visto dalla fine degli anni '90 e dallo sviluppo della pubblicità di sorveglianza. Penso che l’intelligenza artificiale sia un modo per consolidare ed espandere il modello di business della sorveglianza”. La sua convinzione non lascia spazio a dubbi: la sovrapposizione tra intelligenza artificiale e sorveglianza è simile a un diagramma di Venn perfettamente coordinato.
Continua sottolineando che l’utilizzo dell’intelligenza artificiale è intrinsecamente di sorveglianza. Whittaker fornisce un esempio toccante: il passaggio accanto a una telecamera per il riconoscimento facciale dotata di capacità di riconoscimento delle emozioni pseudo-scientifiche si traduce nella generazione di dati sullo stato emotivo di un individuo, spesso imprecisi e invasivi. Questi sistemi sono, in sostanza, meccanismi di sorveglianza che vengono venduti a entità che esercitano potere su individui comuni – datori di lavoro, governi, agenzie di controllo delle frontiere – consentendo loro di prendere decisioni e previsioni che influenzano direttamente l’accesso alle risorse e alle opportunità.
Approfondisce la natura ad alta intensità di lavoro della creazione di sistemi di intelligenza artificiale. Whittaker sottolinea che il contributo umano è indispensabile per modellare la verità fondamentale dei dati, facendo affidamento su tecniche come l’apprendimento per rinforzo con feedback umano, che lei definisce come una forma di “lavoro umano precario che lava la tecnologia”. Migliaia di lavoratori, nonostante ricevano individualmente un compenso minimo, contribuiscono collettivamente alle spese sostanziali associate allo sviluppo di questi sistemi. A suo avviso, la facciata di intelligenza del settore dell’intelligenza artificiale spesso nasconde la forte dipendenza dagli sforzi umani, e quando il sipario viene alzato, la profondità della vera intelligenza spesso risulta carente.
La privacy è emersa come una preoccupazione urgente nel panorama dell’intelligenza artificiale. I modelli di intelligenza artificiale consumano voracemente enormi set di dati, lasciando agli individui un ricorso limitato per riprendere il controllo sulle proprie informazioni personali. L’intersezione tra intelligenza artificiale e privacy ha anche dato origine a incubi per numerose aziende, poiché alcuni titani del settore tecnologico hanno inavvertitamente esposto dati aziendali sensibili e segreti commerciali attraverso chatbot basati sull’intelligenza artificiale.
Mentre l’intelligenza artificiale continua a proliferare in vari ambiti, il futuro della privacy diventa sempre più intrecciato con l’evoluzione di questa tecnologia.
Il modello di business della sorveglianza: un connubio inquietante con l’intelligenza artificiale
L'affermazione di Whittaker secondo cui l'intelligenza artificiale è profondamente coinvolta nel modello di business della sorveglianza risuona con un crescente coro di voci preoccupate per l'erosione della privacy nell'era digitale. L'ascesa della pubblicità di sorveglianza alla fine degli anni '90 ha segnato una svolta significativa nel modo in cui i dati personali vengono raccolti e sfruttati. Con l’intelligenza artificiale, questa tendenza preoccupante sembra destinata a intensificarsi.
Le tecnologie di intelligenza artificiale non sono solo attori passivi; partecipano attivamente alla sorveglianza. I sistemi di riconoscimento facciale potenziati con discutibili capacità di riconoscimento delle emozioni sono un ottimo esempio di come l’intelligenza artificiale genera dati sugli individui senza il loro consenso o una rappresentazione accurata. Le conseguenze sono di vasta portata, poiché questi dati vengono sfruttati da entità potenti come datori di lavoro, governi e agenzie di controllo delle frontiere per effettuare determinazioni e previsioni che cambiano la vita.
Il lavoro umano nascosto dietro l’intelligenza artificiale
Whittaker rimuove gli strati per rivelare una realtà sconcertante: la creazione di sistemi di intelligenza artificiale fa molto affidamento sul lavoro umano, spesso sfruttato e sottopagato. Tecniche come l’apprendimento per rinforzo con feedback umano, che possono sembrare all’avanguardia, mascherano il vero costo dello sviluppo dell’intelligenza artificiale. Migliaia di lavoratori lavorano duramente per fornire dati concreti e, collettivamente, i loro sforzi si traducono in spese sostanziali. Questa rivelazione dissipa l’idea che l’intelligenza artificiale sia intrinsecamente intelligente; piuttosto, sottolinea la misura in cui i contributi umani sono indispensabili al suo funzionamento.
La posizione precaria della privacy nell’era dell’intelligenza artificiale
La privacy, o la sua mancanza, è sempre più in prima linea nelle discussioni sull’espansione dell’intelligenza artificiale. Poiché i modelli di intelligenza artificiale consumano voracemente grandi quantità di dati, gli individui si ritrovano con opzioni limitate per riprendere il controllo sulle proprie informazioni personali. Allo stesso tempo, le aziende sono alle prese con le conseguenze indesiderate dell’intelligenza artificiale, come evidenziato dalle fughe di dati aziendali privati e segreti commerciali di alto profilo attraverso chatbot basati sull’intelligenza artificiale.
La confluenza di intelligenza artificiale e privacy solleva profonde domande sul futuro dei dati personali e dell’autonomia individuale. Man mano che l’intelligenza artificiale si integra sempre più profondamente nella vita di tutti i giorni, gli individui devono confrontarsi con le implicazioni di vasta portata delle capacità di sorveglianza dell’intelligenza artificiale. Si tratta di una questione complessa che richiede un’attenta considerazione e misure proattive per salvaguardare il diritto alla privacy.