I danni delle truffe crittografiche si moltiplicano: l’esperto di Web3 sottolinea il ruolo dell’IA nell’escalation

La truffa delle criptovalute ha preso una svolta preoccupante poiché i criminali informatici stanno ora sfruttando il potere dell'intelligenza artificiale per migliorare le loro attività dannose.

Secondo Jamie Burke, il fondatore di Outlier Ventures, un importante acceleratore Web3, questi malintenzionati utilizzano l'intelligenza artificiale per creare robot sofisticati in grado di impersonare i membri della famiglia e ingannarli.

In una recente conversazione con Yahoo Finance UK su The Crypto Mile , Burke ha approfondito l'evoluzione e le potenziali ripercussioni dell'intelligenza artificiale nel regno del crimine informatico, facendo luce sulle relative implicazioni che pone per la sicurezza dell'industria delle criptovalute.

Ma in che modo esattamente l'integrazione dell'intelligenza artificiale nelle truffe crittografiche può creare tattiche più sofisticate e ingannevoli?

La crescente preoccupazione dei robot IA canaglia nel crimine crittografico

Durante l'intervista, Burke ha sottolineato la crescente preoccupazione che circonda l'uso di bot di intelligenza artificiale canaglia per scopi dannosi, che sta rimodellando il panorama di Internet.

Burke ha detto:

"Se guardiamo solo alle statistiche, in un hack devi catturare solo una persona su centomila, questo richiede molti tentativi, quindi gli attori malintenzionati aumenteranno il loro livello di sofisticazione dei loro bot in attori più intelligenti, usando l'intelligenza artificiale.

Invece di inviare semplicemente un'e-mail per richiedere trasferimenti di denaro, Burke ha dipinto un quadro preoccupante di un potenziale scenario. Ha descritto una situazione in cui le persone potrebbero trovare una chiamata Zoom prenotata nel loro calendario, apparentemente da una versione replicata digitalmente di un amico.

Questa replica basata sull'intelligenza artificiale assomiglierebbe molto alla persona, sia nell'aspetto che nel linguaggio, facendo le stesse richieste che farebbe il vero amico. Questo livello di inganno mira a indurre i destinatari a credere che il loro amico sia in difficoltà finanziarie, spingendoli a trasferire denaro o criptovaluta.

Burke ha sottolineato che l'importanza dei sistemi di prova della personalità diventa fondamentale. Questi sistemi svolgerebbero un ruolo cruciale nella verifica delle vere identità delle persone impegnate in interazioni digitali, fungendo da difesa contro le imitazioni fraudolente.

Implicazioni di vasta portata della truffa crittografica guidata dall'intelligenza artificiale

Le implicazioni derivanti dall'integrazione della tecnologia AI nella criminalità informatica sono ampie e preoccupanti. Questa tendenza emergente apre nuove strade per truffe e attività fraudolente, poiché i criminali informatici sfruttano le capacità dell'intelligenza artificiale per indurre individui e aziende ignari a divulgare informazioni sensibili o trasferire fondi.

Gli attori malintenzionati potrebbero sfruttare la perfetta integrazione della tecnologia AI per imitare il comportamento umano, rendendo sempre più difficile per le persone distinguere tra interazioni reali e interazioni fraudolente. L'impatto psicologico dell'incontro con una truffa crittografica guidata dall'intelligenza artificiale può essere grave, erodendo la fiducia e minando la sicurezza delle interazioni online.

Gli esperti concordano sul fatto che promuovere una cultura dello scetticismo ed educare le persone sui potenziali rischi associati alle truffe basate sull'intelligenza artificiale può aiutare a mitigare l'impatto di queste attività fraudolente.

Immagine in primo piano dal Michigan SBDC

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto