L’intelligenza artificiale sotto esame: privacy, pregiudizi e spinta alla decentralizzazione

L'intelligenza artificiale sotto esame: privacy, pregiudizi e spinta alla decentralizzazione

L’intelligenza artificiale (AI) è una tecnologia potente e trasformativa, ma rappresenta ancora un’enorme minaccia per sconvolgere la civiltà umana se gestita in modo errato. ChatGPT, il pionieristico Large Language Model (LLM), gode di una base di utenti di circa 180 milioni di utenti mensili. Ciò segnala che gli strumenti di intelligenza artificiale generativa sono diventati applicazioni quotidiane, con persone di ogni ceto sociale che utilizzano la tecnologia per migliorare la propria produttività o creatività.

Ma in mezzo a questa forte adozione si nasconde il pericolo: cosa succede quando attori disonesti decidono di abusare dell’intelligenza artificiale generativa per portare avanti i propri programmi? Si teme già che alcuni attori utilizzino l’intelligenza artificiale generativa per interferire con le elezioni ingannando gli elettori con falsi profondi e altri contenuti generati dall’intelligenza artificiale.

Secondo un recente bollettino federale delle agenzie di sicurezza statunitensi, l’intelligenza artificiale generativa è una delle minacce nelle prossime elezioni presidenziali previste per novembre 2024.

"Una serie di autori di minacce probabilmente tenterà di utilizzare l'intelligenza artificiale generativa (AI), ovvero i media aumentati, per influenzare e seminare discordia durante il ciclo elettorale statunitense del 2024, e gli strumenti di intelligenza artificiale potrebbero essere potenzialmente utilizzati per aumentare gli sforzi volti a interrompere le elezioni", ha osservato il rapporto. bollettino.

Bene, questa è solo la punta dell'iceberg. La trappola più significativa dei LLM e di altri strumenti di intelligenza artificiale generativa sono le aziende dietro queste innovazioni. Uno sguardo più attento agli sviluppi in corso nel settore evidenzia una situazione in cui la grande tecnologia si sta posizionando per continuare a controllare le masse.

ChatGPT esaminato per violazioni della privacy

L'anno scorso, la società madre di ChatGPT, OpenAI, è stata sottoposta al controllo di vari regolatori di tutto il mondo, inclusa la Federal Trade Commission (FTC) degli Stati Uniti. La FTC ha richiesto a OpenAI di fornire informazioni dettagliate sulle sue disposizioni sulla sicurezza dei dati e sulla tutela della privacy. Nel frattempo, in Italia, le autorità di regolamentazione a un certo punto hanno bloccato ChatGPT a causa di problemi di privacy, una mossa che ha spinto altri organi di vigilanza dell’UE a mettere ChatGPT sotto i riflettori.

Ciò che è più preoccupante, tuttavia, sono le recenti critiche da parte di figure importanti come l'informatore della NSA Edward Snowden, che ha messo in guardia contro ChatGPT in seguito alla nomina da parte di OpenAI di un ex direttore della NSA nel consiglio di amministrazione della società. Anche Elon Musk si è reso pubblico, criticando una potenziale collaborazione tra OpenAI e Apple, che a suo avviso porterà a una violazione del diritto alla privacy.

I Gemelli di Google accusati di pregiudizi razziali

Gemini LLM di Google è un altro caso esemplificativo del pregiudizio a cui l’intelligenza artificiale generativa può sottoporre i consumatori, consapevolmente e inconsapevolmente. Questo strumento di intelligenza artificiale ha ricevuto molte reazioni negative per la generazione di immagini che suggerivano un certo grado di pregiudizio razziale. Gli utenti si sono lamentati del fatto che Gemini non è riuscito a generare immagini di bianchi che raffigurassero determinati eventi storici.

Invece, questo AI LLM era sbilanciato verso la generazione di immagini di persone di colore anche quando erano chiaramente fuori contesto. Un buon esempio è quando un utente ha chiesto a Gemini di generare immagini dei padri fondatori dell'America; le immagini generate dall'intelligenza artificiale delle donne nere. Inoltre, Google ha recentemente avvisato gli utenti Gemini di non condividere alcuna informazione riservata con LLM, poiché gli annotatori umani leggono ed etichettano regolarmente le comunicazioni per migliorare il modello.

La funzione di richiamo di Microsoft soprannominata "spyware"

Anche l'ultima versione di Windows di Microsoft è stata attaccata per una funzionalità del suo nuovo assistente AI, Copilot. La funzione "Richiama" è progettata per registrare l'attività dello schermo, consentendo agli utenti di riprodurre facilmente un evento specifico o rivisitare determinate attività, in modo simile alle operazioni della memoria fotografica.

Ciò non è piaciuto a molti critici che hanno paragonato Recall allo spyware. Diversi utenti su Twitter (ex X) hanno espresso le loro preoccupazioni, sottolineando che mentre i dati sono archiviati localmente solo sul computer, rappresentano un pericolo se si perde il dispositivo o si cade in un'imboscata da parte delle autorità di regolamentazione che cercano di estrarre informazioni.

Gli sviluppi dell’intelligenza artificiale possono essere democratizzati?

Anche se la democratizzazione delle innovazioni dell’intelligenza artificiale potrebbe essere molto lontana, data l’influenza e l’accesso ai dati addestrabili di cui dispongono attualmente le aziende pionieristiche (big tech), è possibile decentralizzare le innovazioni in questo ambito.

Un modo per raggiungere questo obiettivo è integrare la tecnologia blockchain, che è fondamentalmente progettata per funzionare democraticamente in modo che nessuna singola autorità o punto di errore possa compromettere la rete.

Ad esempio, nella blockchain di livello 1 Qubic basata sull’intelligenza artificiale, l’ecosistema è alimentato da una moneta di utilità decentralizzata denominata $QUBIC. Questa moneta nativa è progettata come una “unità energetica” che alimenta essenzialmente le operazioni di contratto intelligente e altri servizi all’interno della piattaforma Qubic. A differenza degli sviluppi centralizzati dell'intelligenza artificiale, chiunque può contribuire alle operazioni di Qubic acquistando su scambi come gate.io o partecipando all'ecosistema di mining Useful Proof-of-Work (PoW) di Qubic.

Un altro modo per introdurre la democrazia nell’intelligenza artificiale è attraverso l’autoregolamentazione. Allo stato attuale, la maggior parte dei regolatori di tutto il mondo stanno cercando di recuperare terreno, rendendo molto difficile regolamentare il settore dell’intelligenza artificiale. Tuttavia, se gli attori di questo settore accettassero una qualche forma di autoregolamentazione, il tutto sarebbe più armonizzato.

Infatti, l’anno scorso, sette aziende, tra cui OpenAI, Microsoft, Google, Meta, Amazon, Anthropic e Inflection, hanno concordato un documento di autoregolamentazione per garantire fiducia, privacy e sicurezza. Un passo nella giusta direzione, ma cosa succede quando tutti questi attori colludono per violare la privacy dei consumatori o promuovere pregiudizi politici e sociali? Questo è l’avvertimento relativo all’autoregolamentazione.

Conclusione

Come evidenziato in questo articolo, la centralizzazione dell’intelligenza artificiale rappresenta un rischio per i principi fondamentali della società odierna. Da un lato, potrebbe essere utilizzata per infiltrarsi nel tessuto morale, mentre dall’altro l’intelligenza artificiale rappresenta una minaccia per la stessa democrazia politica.

Il bello, tuttavia, è che, come Internet, abbiamo ancora l’opportunità di integrare la moderazione negli sviluppi dell’IA. Ancora più importante, disponiamo di tecnologie avanzate come la blockchain, che potrebbero fungere da blocco fondamentale nell’introduzione di un futuro trasparente e imparziale che possa davvero apportare benefici alla società.

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto