Il deepfake del presidente Biden che sollecita la repressione degli elettori innesca le indagini

Un allarmante audio deepfake in cui il presidente degli Stati Uniti Joe Biden esorta le persone a non votare alle primarie del New Hampshire ha scatenato una rapida risposta sia da parte del settore privato che delle forze dell’ordine. Il creatore di questo audace deepfake è stato sospeso da ElevenLabs, una startup specializzata in software di intelligenza artificiale (AI) per la replica vocale. Questo incidente ha sollevato serie preoccupazioni circa il potenziale uso improprio della tecnologia deepfake basata sull’intelligenza artificiale per interrompere le elezioni e sopprimere l’affluenza alle urne.

ElevenLabs, il fornitore di tecnologia dietro la creazione dell'audio deepfake, ha adottato misure immediate sospendendo l'utente responsabile della generazione del contenuto dannoso. Pindrop Security Inc., una società di rilevamento di frodi vocali, ha confermato che la tecnologia di ElevenLabs è stata utilizzata per produrre il deepfake.

Dopo aver appreso delle scoperte di Pindrop, ElevenLabs ha avviato un'indagine interna sull'incidente. La startup, che recentemente si è assicurata un impressionante finanziamento di 80 milioni di dollari da parte di investitori tra cui Andreessen Horowitz e Sequoia Capital, deve ora affrontare interrogativi sul potenziale uso improprio della sua tecnologia di clonazione vocale basata sull’intelligenza artificiale.

Implicazioni allarmanti per la sicurezza elettorale

La falsa chiamata robotica con protagonista il presidente Biden ha sollevato notevoli preoccupazioni tra gli esperti di disinformazione e i funzionari elettorali. Questo incidente non solo sottolinea la relativa facilità con cui è possibile creare deepfake audio, ma evidenzia anche il potenziale per i malintenzionati di sfruttare questa tecnologia per dissuadere gli elettori dalla partecipazione alle elezioni.

L'ufficio del procuratore generale del New Hampshire ha avviato un'indagine ufficiale sull'incidente del deepfake, considerandolo un tentativo illegale di interrompere le elezioni primarie presidenziali e di sopprimere gli elettori del New Hampshire. Questo sviluppo sottolinea la serietà con cui le autorità trattano il potenziale uso improprio della tecnologia deepfake nell’arena politica.

Sfide di rilevamento

Gli sforzi per identificare la tecnologia dietro il deepfake hanno incontrato sfide. Mentre lo strumento di "classificazione vocale" di ElevenLabs indicava una bassa probabilità di audio sintetico (2%), altri strumenti di rilevamento dei deepfake hanno confermato l'audio come deepfake ma non sono riusciti a individuare l'esatta tecnologia utilizzata.

Pindrop Security Inc. ha analizzato in profondità l'audio, ripulendolo rimuovendo il rumore di fondo, i silenzi e suddividendolo in segmenti per l'analisi. La loro ricerca ha confrontato l’audio con un database di campioni raccolti da oltre 100 sistemi di sintesi vocale comunemente utilizzati per la produzione di deepfake. La loro conclusione suggerisce fortemente che il deepfake sia stato creato utilizzando la tecnologia di ElevenLabs.

Anche Siwei Lyu, professore dell’Università di Buffalo specializzato in deepfake e analisi forense dei media digitali, ha condotto un’analisi. Ha analizzato il deepfake attraverso il classificatore di ElevenLabs, concludendo che probabilmente era stato utilizzato il software, sottolineando l'uso diffuso dello strumento nel settore.

Preoccupazioni per il futuro

Gli esperti avvertono che incidenti come questo probabilmente aumenteranno con l’avvicinarsi delle elezioni generali. La capacità di utilizzare la tecnologia deepfake per creare contenuti altamente personalizzati e ingannevoli è una preoccupazione crescente per la sicurezza elettorale.

Anche se ElevenLabs si vanta del fatto che la maggior parte dei suoi casi d'uso sono positivi, con un team dedicato alla moderazione dei contenuti, questo incidente evidenzia il potenziale di uso improprio che piattaforme come ElevenLabs devono affrontare. Garantire che gli strumenti basati sull’intelligenza artificiale non vengano utilizzati per scopi dannosi rimane una sfida significativa.

La rapida risposta di ElevenLabs sospendendo il creatore e avviando un'indagine interna evidenzia la gravità della situazione. Man mano che le autorità approfondiscono l’incidente, diventa chiaro che l’uso improprio della tecnologia deepfake basata sull’intelligenza artificiale in ambito politico è una preoccupazione urgente, con il potenziale di minare l’integrità delle elezioni. L’indagine farà senza dubbio più luce sulle origini e sulle conseguenze di questo episodio allarmante, stimolando al tempo stesso una discussione più ampia sull’uso responsabile della tecnologia deepfake nell’era digitale.

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto