Meta Platforms prevede di utilizzare l'intelligenza artificiale per valutare i rischi per la privacy e la società. Nel corso degli anni, l'azienda ha impiegato valutatori umani per analizzare i rischi associati a nuovi prodotti e funzionalità, ma con questo nuovo aggiornamento le cose sono destinate a cambiare.
Secondo conversazioni e documenti interni, Meta prevede di automatizzare il 90% di tutte le sue valutazioni del rischio. Ciò significa che gli aspetti relativi agli aggiornamenti critici degli algoritmi aziendali, alle funzionalità di sicurezza e alle modifiche alle modalità di condivisione dei contenuti sulle piattaforme Meta saranno per lo più approvati da un sistema supportato dall'intelligenza artificiale. Ciò significa anche che queste modifiche non saranno più soggette a revisione da parte del personale incaricato di discutere di come una modifica sulla piattaforma potrebbe avere effetti imprevisti o essere utilizzata impropriamente.
Meta intende passare a un sistema di revisione basato sull'intelligenza artificiale
Secondo fonti interne a Meta, lo sviluppo è stato visto come una vittoria per gli sviluppatori di prodotti, in quanto offre loro tempo sufficiente per rilasciare aggiornamenti e funzionalità delle app. Tuttavia, all'interno dell'azienda permangono preoccupazioni sulla complessità della situazione, sottolineando che consentire all'IA di prendere decisioni complesse sulle app di Meta potrebbe portare a danni concreti. Questa convinzione è condivisa sia dagli ex dipendenti che dagli attuali.
"Nella misura in cui questo processo, dal punto di vista funzionale, significa lanciare più prodotti più velocemente, con controlli e opposizioni meno rigorosi, significa che si creano rischi maggiori", ha affermato un ex dirigente di Meta che ha richiesto l'anonimato per timore di ritorsioni da parte dell'azienda. "È meno probabile che le esternalità negative delle modifiche ai prodotti vengano prevenute prima che inizino a causare problemi nel mondo".
In una recente dichiarazione, Meta ha affermato di aver investito miliardi di dollari per tutelare la privacy degli utenti. L'azienda è inoltre sottoposta al controllo della Federal Trade Commission dal 2012, che ha raggiunto un accordo con l'agenzia sulle modalità di gestione delle informazioni personali dei propri utenti. Di conseguenza, secondo ex e attuali dipendenti di Meta, c'è sempre stata la necessità di revisioni della privacy dei prodotti.
Nella sua dichiarazione, l'azienda ha aggiunto che le modifiche alla revisione del rischio di prodotto contribuiranno a semplificare il processo decisionale, sottolineando che continua a impiegare competenze umane in questioni nuove e complesse. Meta ha anche osservato che attualmente solo le decisioni a basso rischio vengono automatizzate, ma documenti interni esaminati da NPR mostrano che Meta sta valutando l'automazione delle revisioni per aspetti sensibili, tra cui la sicurezza dell'IA, il rischio per i giovani e un'altra categoria nota come integrità, responsabile di fattori come la disinformazione e i contenuti violenti.
Con il sistema precedente, gli aggiornamenti di prodotto e funzionalità venivano inviati prima ai valutatori del rischio prima di essere distribuiti al pubblico. Tuttavia, secondo una slide che mostra il funzionamento del nuovo processo, i team di prodotto riceveranno decisioni immediate dopo aver compilato un questionario sul progetto. La decisione, basata sull'intelligenza artificiale, identificherà diverse aree di rischio e i requisiti che potrebbero risolverle. Prima del lancio di tali progetti, il team di prodotto verificherà anche che i requisiti siano stati soddisfatti.
Il nuovo sistema evidenzia che gli ingegneri che sviluppano i prodotti Meta dovranno valutare i rischi. Secondo la diapositiva, in alcuni casi, inclusi nuovi rischi o quando un team di prodotto necessita di feedback aggiuntivo, i progetti saranno sottoposti a una revisione manuale eseguita da personale umano.
Tuttavia, Zvika Krieger, ex direttore per l'innovazione di Meta fino al 2022, ha affermato che i product manager e gli ingegneri non sono esperti di privacy. "La maggior parte dei product manager e degli ingegneri non sono esperti di privacy e questo non è il fulcro del loro lavoro. Non è ciò su cui vengono principalmente valutati e non è ciò che sono incentivati a dare priorità", ha affermato. Ha anche aggiunto che alcune di queste autovalutazioni si sono trasformate in esercizi che trascurano alcuni rischi importanti.
Cryptopolitan Academy: in arrivo a breve – Un nuovo modo per guadagnare reddito passivo con la DeFi nel 2025. Scopri di più