Lo YouTuber MrBeast ha condiviso la sua clip deepfake sull'intelligenza artificiale (AI) per informare i suoi follower sulle truffe. Nel frattempo, uno dei più alti funzionari dell’Unione Europea (UE) è preoccupato per le rigide normative sull’IA.
Con l’avvento degli strumenti di intelligenza artificiale generativa, i regolatori e gli utenti sono diventati consapevoli della minaccia che la tecnologia può comportare. Tuttavia, la preoccupazione principale è quella di elaborare regolamenti equilibrati che si concentrino sulla protezione degli utenti senza però fermare l'innovazione.
I truffatori sfruttano la popolarità degli influencer attraverso i video Deepfake basati sull'intelligenza artificiale
James Stephen Donaldson, il creatore di uno dei canali YouTube più grandi del mondo, MrBeast, ha condiviso il suo video deepfake su X (Twitter) per mettere in guardia i suoi follower sulle truffe legate all'intelligenza artificiale. Ha scritto :
"Molte persone stanno ricevendo questa mia pubblicità di truffa deepfake… le piattaforme di social media sono pronte a gestire l'ascesa dei deepfake IA? Questo è un problema serio”.
Il video induce gli spettatori a credere che MrBeast stia regalando l'ultimo iPhone 15 Pro per $ 2. Chiede agli spettatori di fare clic su un collegamento, probabilmente reindirizzandoli a qualche sito Web di phishing .
Oltre a MrBeast, i truffatori stanno creando video deepfake con intelligenza artificiale utilizzando altre personalità famose come Elon Musk. A settembre, BeInCrypto ha riferito che i malintenzionati stanno conducendo truffe crittografiche attraverso i video deepfake di Musk su TikTok.
Per saperne di più: Le 15 truffe crittografiche più comuni a cui prestare attenzione
Un funzionario della Commissione Europea mette in guardia contro una regolamentazione restrittiva dell’IA
I video deepfake circolano già da un po’. Pertanto, alcuni chiedono norme rigorose sull’intelligenza artificiale.
D’altro canto, però, l’introduzione di norme più severe potrebbe rallentare l’innovazione. Pertanto, i regolatori devono trovare un equilibrio e non arrivare agli estremi di nessuna delle due parti.
Věra Jourová, vicepresidente della Commissione europea per i valori e la trasparenza, ritiene che nel regolamentare l'intelligenza artificiale dovrebbe esserci una solida analisi dei potenziali fattori di rischio invece della paranoia. Ha detto al Financial Times :
“Non dovremmo contrassegnare come ad alto rischio cose che al momento non sembrano esserlo. Dovrebbe esserci un processo dinamico in cui, quando vediamo che le tecnologie vengono utilizzate in modo rischioso, siamo in grado di aggiungerle successivamente all’elenco delle tecnologie ad alto rischio”.
L’UE ha lavorato alla stesura di un disegno di legge sull’IA negli ultimi due anni. In particolare, il disegno di legge richiederebbe la divulgazione obbligatoria del materiale protetto da copyright utilizzato per addestrare i modelli di intelligenza artificiale. Si prevede che i funzionari dell’UE concludano le discussioni sul disegno di legge sull’IA entro la fine del 2023.
Ma OpenAI, la società madre di ChatGPT, ritiene che la bozza della legge sull’intelligenza artificiale dell’UE stia regolamentando eccessivamente la tecnologia. A maggio, il CEO di OpenAI, Sam Altman, ha minacciato di lasciare l’Europa se il disegno di legge fosse stato approvato senza alcuna modifica.
Nel frattempo, anche il Regno Unito si sta concentrando sulle normative sull’IA. A novembre il Paese ospiterà un vertice globale sull’argomento.
Per saperne di più: I 6 lavori più interessanti nel campo dell'intelligenza artificiale (AI) nel 2023
Hai qualcosa da dire sulle truffe dell'IA deepfake o su qualsiasi altra cosa? Scrivici o partecipa alla discussione sul nostro canale Telegram. Puoi trovarci anche su TikTok , Facebook o X (Twitter).
Per l'ultima analisi Bitcoin (BTC) di BeInCrypto , clicca qui .
Il post I regolatori sono alle prese con il dilemma su come consentire le innovazioni dell'intelligenza artificiale e contrastare le truffe è apparso per la prima volta su BeInCrypto .