L’ascesa dell’intelligenza artificiale nei processi decisionali

L’esplosione dell’intelligenza artificiale (AI) sta riempiendo il nostro mondo di sogni idealistici o di previsioni apocalittiche, ma nessuno dei due riesce a cogliere la vera minaccia.

Non siamo di fronte a una “grande ribellione dei robot” in cui le IA o i robot mettono in scena un’acquisizione ostile. Dimentica le scene del film Terminator o Matrix: non sono nelle carte. La tecnologia con cui le IA possono conquistare il mondo non esiste.

L’intelligenza artificiale può eccellere in compiti specifici, come piegare le proteine ​​o giocare a scacchi, ma non è in grado di costruire eserciti o governare nazioni.

Tuttavia, questa assenza di una rivolta dei robot non significa che siamo al sicuro. L’intelligenza artificiale si sta silenziosamente infiltrando nelle nostre vite attraverso mezzi meno drammatici, ma ugualmente potenti: la burocrazia digitale.

Il vero pericolo non sono i robot assassini. È l'invasione dell'intelligenza artificiale nelle decisioni che controllano la nostra vita quotidiana. Gli esseri umani si sono evoluti per temere le minacce tangibili. Pensa ai grandi predatori, come leoni e squali.

Ma siamo meno preparati a individuare le minacce derivanti da pratiche burocratiche, documenti o burocrazia. La burocrazia stessa è un’invenzione relativamente nuova, essendosi sviluppata solo 5.000 anni fa con la creazione della scrittura.

Prima della scrittura, la proprietà, ad esempio, dipendeva da ciò su cui la comunità concordava. Se “possedevi” un appezzamento di terreno, era perché i tuoi vicini lo rispettavano. Non erano richiesti documenti.

Dalle tavolette di argilla ai burocrati digitali

Tutto è cambiato quando le persone hanno iniziato a utilizzare tavolette e dischi di argilla. I documenti scritti significavano che i diritti di proprietà non riguardavano più il consenso della comunità ma i documenti ufficiali. Gli antichi mesopotamici trasformarono i pezzi di fango in simboli ufficiali di proprietà, ribaltando l'idea di proprietà.

Una decisione del tribunale potrebbe basarsi su una tavoletta d'argilla in cui si afferma che si possiede un pezzo di terra, anche se la comunità non è d'accordo. Avanzando rapidamente fino ad oggi, i nostri sistemi sono ancora costruiti su principi simili, solo che ora utilizziamo chip di silicio e dischi digitali invece dell'argilla.

Questo cambiamento ha trasformato le strutture di potere. La proprietà divenne qualcosa che poteva essere venduto e scambiato senza il consenso della comunità locale. Emersero burocrazie che resero possibile la riscossione delle tasse, i finanziamenti militari e il governo centrale.

I burocrati divennero attori essenziali in questi sistemi, utilizzando documenti, moduli e timbri per gestire gli eserciti, allocare risorse e persino controllare le leggi. Questi sistemi burocratici hanno dato origine a stati centralizzati con un ampio controllo sulle loro popolazioni, controllo che ora si sta spostando sull’intelligenza artificiale.

L'intelligenza artificiale non ha bisogno di formare un esercito di robot; deve solo padroneggiare i sistemi burocratici. All’interno di questi contesti, l’intelligenza artificiale può prendere decisioni più influenti di qualsiasi essere umano, come si vede oggi. Le IA stanno già decidendo se riceveremo prestiti, offerte di lavoro, ammissioni al college e persino diagnosi mediche.

Immaginate i banchieri IA che determinano l’ammissibilità del credito, i giudici IA che si pronunciano su casi giudiziari o le IA militari che calcolano gli obiettivi degli attacchi. L'intelligenza artificiale non ha bisogno di una ribellione robotica. Il potere burocratico che sta ereditando è già enorme.

L’intelligenza artificiale nei social media e l’influenza del pubblico

Gli algoritmi dei social media, sebbene primitivi, esercitano già un potere enorme. Gli algoritmi di intelligenza artificiale, in particolare quelli di Facebook, X (ex Twitter), YouTube e TikTok, sono realizzati con un obiettivo in mente: – Coinvolgimento degli utenti. Più a lungo le persone rimangono su queste piattaforme, più denaro affluisce alle aziende.

Attraverso tentativi ed errori con miliardi di utenti, questi algoritmi hanno capito che innescare emozioni come avidità, rabbia e paura aumenta il coinvolgimento. Quando premono questi pulsanti emotivi, tengono gli utenti agganciati.

Questi algoritmi non si limitavano a ottimizzare il tempo trascorso online. Sono andati oltre, scoprendo che i contenuti che provocano emozioni intense aumentano il coinvolgimento degli utenti. Questa scoperta ha portato alla diffusione di teorie del complotto, disinformazione e divisioni sociali.

Il mondo di oggi è inondato di indignazione digitale, allarmismo e polarizzazione, grazie ad algoritmi che danno priorità ai clic rispetto alla coesione. Sfruttando i fattori scatenanti emotivi, gli algoritmi dei social media hanno alimentato l’attuale epidemia di teorie del complotto e notizie false.

Questi “decisori” algoritmici non sono intrinsecamente dannosi. Al contrario, sono ottimizzati per svolgere i loro ruoli in modo efficiente. Tuttavia, le loro decisioni mancano dell’intuizione umana o del contesto che di solito ci aspettiamo in aree così importanti.

L’intelligenza artificiale potrebbe formulare giudizi più rapidi e coerenti, ma se qualcosa va storto, i risultati possono essere disastrosi. Questo potenziale rischio è già diventato visibile nell’influenza dei social media sulla società, fungendo da avvertimento su dove potrebbe portare il potere incontrollato dell’intelligenza artificiale.

Biden stabilisce le regole dell’IA per il Pentagono e le agenzie di intelligence

Il presidente Joe Biden ha annunciato un memorandum sulla sicurezza nazionale con nuove regole per l’uso dell’intelligenza artificiale nella sicurezza nazionale, impedendo al Pentagono e alle agenzie di intelligence di utilizzare l’intelligenza artificiale in modi che contraddicono i valori democratici.

Questa è la prima direttiva che guida il ruolo dell’IA nella sicurezza nazionale. Le nuove regole incoraggeranno la sperimentazione dell’intelligenza artificiale garantendo al tempo stesso che gli enti governativi non utilizzino l’intelligenza artificiale per violare diritti come la libertà di parola o indebolire i controlli nucleari.

“Il nostro memorandum definisce il primo quadro governativo in assoluto sui nostri impegni di gestione del rischio legato all’intelligenza artificiale”, ha affermato il consigliere per la sicurezza nazionale Jake Sullivan. Ha delineato gli obiettivi per evitare pregiudizi, sostenere la responsabilità e garantire il controllo umano dell’intelligenza artificiale in ruoli sensibili.

Sebbene non siano giuridicamente vincolanti, le norme coprono applicazioni di sicurezza nazionale come la sicurezza informatica, il controspionaggio e la logistica nelle operazioni militari. Biden ha anche imposto controlli sulle esportazioni lo scorso anno, rallentando i progressi dell’intelligenza artificiale in Cina limitando l’accesso alla tecnologia.

Secondo la direttiva, l’AI Safety Institute di Washington sarà responsabile dell’ispezione degli strumenti di intelligenza artificiale per prevenirne l’uso improprio prima del rilascio, mentre la comunità dell’intelligence statunitense darà priorità al monitoraggio dei progressi dell’intelligenza artificiale in altri paesi.

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto