Il futuro dell’intelligenza artificiale: approfondimenti di Andrei Grachev di DWF Labs sulla prossima ondata di automazione

Il futuro dell'intelligenza artificiale: approfondimenti di Andrei Grachev di DWF Labs sulla prossima ondata di automazione

Il crescente investimento negli agenti IA suggerisce un futuro di automazione diffusa, potenzialmente ancora più trasformativo della rivoluzione industriale. Come per ogni innovazione tecnologica, gli agenti IA sono destinati ad affrontare problemi nel loro sviluppo. Il miglioramento continuo sarà essenziale per un uso responsabile e per realizzare il pieno potenziale degli agenti IA.

Al Consensus Hong Kong, BeInCrypto ha intervistato Andrei Grachev, socio amministratore di DWF Labs, sulle principali sfide che gli agenti di intelligenza artificiale devono affrontare per raggiungere l'adozione di massa e su come potrebbe essere un uso diffuso.

I settori tecnologici tradizionali e il Web3 abbracciano l’intelligenza artificiale

A questo punto si può affermare con certezza che l’adozione dell’intelligenza artificiale (AI) sarà presto inevitabile. I giganti della tecnologia tra cui Meta, Amazon, Alphabet e Microsoft hanno già annunciato piani per investire fino a 320 miliardi di dollari in intelligenza artificiale e data center nel 2025.

Durante la sua prima settimana in carica, il presidente degli Stati Uniti Trump ha annunciato Stargate, una nuova joint venture privata focalizzata sullo sviluppo di data center AI. L'impresa, composta da OpenAI, Softbank e Oracle, prevede di costruire fino a 20 grandi data center AI negli Stati Uniti.

L’investimento iniziale è stimato in 100 miliardi di dollari e i piani di espansione potrebbero portare il totale a 500 miliardi di dollari entro il 2029.

Anche i progetti Web3 stanno facendo investimenti simili nell’intelligenza artificiale. A dicembre, DWF Labs, una delle principali società di venture capital nel settore delle criptovalute, ha lanciato un fondo da 20 milioni di dollari per agenti di intelligenza artificiale per accelerare l'innovazione nelle tecnologie di intelligenza artificiale autonoma.

All’inizio di questo mese, la Fondazione NEAR, che sostiene il protocollo NEAR, ha anche annunciato un proprio fondo da 20 milioni di dollari incentrato sull’ampliamento dello sviluppo di agenti completamente autonomi e verificabili basati sulla tecnologia NEAR.

"La storia mostra che tutto ciò che può essere automatizzato sarà automatizzato, e sicuramente alcuniprocessi aziendali e di vita normale saranno superati dagli agenti di intelligenza artificiale", ha detto Grachev a BeInCrypto.

Ma man mano che lo sviluppo dell’intelligenza artificiale accelera, il potenziale del suo uso improprio diventa una preoccupazione crescente.

Uso dannoso degli agenti IA

Nel Web3, gli agenti AI stanno già rapidamente diventando mainstream. Offrono diverse funzionalità, dall'analisi di mercato al trading autonomo di criptovalute.

Tuttavia, la loro crescente integrazione presenta anche sfide cruciali. L’uso improprio dell’intelligenza artificiale da parte di soggetti malintenzionati è una delle principali preoccupazioni e comprende scenari che vanno da semplici campagne di phishing a sofisticati attacchi ransomware.

La diffusa disponibilità dell’intelligenza artificiale generativa dalla fine del 2022 ha cambiato radicalmente la creazione di contenuti, attirando allo stesso tempo attori malintenzionati che cercano di sfruttare la tecnologia. Questa democratizzazione della potenza di calcolo ha migliorato le capacità degli avversari e potenzialmente abbassato la barriera all’ingresso per gli autori di minacce meno sofisticati.

Secondo un rapporto Entrust, le falsificazioni di documenti digitali facilitate dagli strumenti di intelligenza artificiale superano ora le contraffazioni fisiche, con un aumento del 244% su base annua nel 2024. Nel frattempo, i deepfake rappresentano il 40% di tutte le frodi biometriche.

Lo stato delle frodi nel 2024.
Lo stato delle frodi nel 2024. Fonte: Entrust .

“Viene già utilizzato per le truffe. Viene utilizzato per le videochiamate quando si travisano le persone e si travisano le loro voci", ha detto Grachev.

Esempi di questo tipo di sfruttamento hanno già fatto notizia. All'inizio di questo mese, un impiegato finanziario di una multinazionale di Hong Kong è stato indotto con l'inganno ad autorizzare un pagamento di 25 milioni di dollari a truffatori utilizzando la tecnologia deepfake .

Il lavoratore ha partecipato a una videochiamata con persone che credeva fossero colleghi, incluso il direttore finanziario dell'azienda. Nonostante le esitazioni iniziali, secondo quanto riferito, il lavoratore ha proceduto al pagamento dopo che gli altri partecipanti si sono presentati e sembravano autentici. Successivamente si è scoperto che tutti i partecipanti erano invenzioni deepfake .

Dall'adozione anticipata all'accettazione mainstream

Grachev ritiene che tali usi dannosi siano inevitabili. Egli osserva che lo sviluppo tecnologico è spesso accompagnato da errori iniziali, che diminuiscono man mano che la tecnologia matura. Grachev ha fornito due esempi distinti per dimostrare il suo punto: le prime fasi del World Wide Web e Bitcoin.

“Dovremmo ricordare che Internet è iniziata dai siti porno. È stato come il primo Bitcoin, partito dagli spacciatori e poi migliorato”, ha detto.

Diversi rapporti si schierano con Grachev. Suggeriscono che l’industria dell’intrattenimento per adulti abbia svolto un ruolo cruciale nell’adozione e nello sviluppo di Internet. Oltre a fornire una base di consumatori, ha aperto la strada a tecnologie come videoregistratori, streaming video, realtà virtuale e qualsiasi forma di comunicazione.

Il porno ha funzionato come strumento di onboarding. L’industria dell’intrattenimento per adulti ha storicamente guidato l’adozione delle nuove tecnologie da parte dei consumatori.

L'adozione precoce e l'applicazione delle innovazioni, in particolare quando soddisfano con successo le richieste del pubblico, spesso portano a un'adozione più ampia da parte del mainstream.

“È iniziato con il divertimento, ma il divertimento ha coinvolto molte persone. Quindi puoi costruire qualcosa su questo pubblico”, ha detto Grachev.

Nel corso del tempo sono state messe in atto anche misure di salvaguardia per limitare la frequenza e l'accessibilità dell'intrattenimento per adulti. Indipendentemente da ciò, è ancora uno dei numerosi servizi offerti da Internet oggi.

Il viaggio di Bitcoin dalla Darknet alla rivoluzione

L' evoluzione di Bitcoin rispecchia da vicino i primi casi d'uso di Internet. L'adozione precoce di Bitcoin è stata significativamente associata ai mercati della darknet e ad attività illecite, tra cui il traffico di droga, la frode e il riciclaggio di denaro . La sua natura pseudonima e la facilità dei trasferimenti di fondi globali lo hanno reso attraente per i criminali.

Nonostante il suo continuo utilizzo in attività criminali, Bitcoin ha trovato numerose applicazioni legittime. La tecnologia blockchain alla base delle criptovalute fornisce soluzioni ai problemi del mondo reale e sconvolge i sistemi finanziari tradizionali.

Sebbene si tratti di settori ancora nascenti, le applicazioni di criptovaluta e blockchain continueranno ad evolversi. Secondo Garchev, lo stesso accadrà con l’impiego graduale della tecnologia dell’intelligenza artificiale. Per lui gli errori devono essere accolti favorevolmente per imparare da essi e adattarsi di conseguenza.

“Dovremmo sempre ricordare che prima si verificano le frodi e poi le persone iniziano a pensare a come prevenirle. Naturalmente accadrà, ma è un processo normale, è una curva di apprendimento”, ha detto Grachev.

Tuttavia, sapere che queste situazioni si verificheranno in futuro solleva anche interrogativi su chi dovrebbe essere ritenuto responsabile.

Preoccupazioni in materia di responsabilità

Determinare la responsabilità quando si verifica un danno a causa delle azioni di un agente è una questione giuridica ed etica complessa. Sorge inevitabilmente la questione su come ritenere responsabile l’IA.

La complessità dei sistemi di intelligenza artificiale crea sfide nel determinare la responsabilità per i danni. La loro natura di "scatola nera", il comportamento imprevedibile e le capacità di apprendimento continuo rendono difficile l'applicazione delle idee tipiche su chi è in colpa quando qualcosa va storto.

Inoltre, il coinvolgimento di più parti nello sviluppo e nella diffusione dell’IA complica le valutazioni delle responsabilità, rendendo difficile determinare la colpevolezza dei fallimenti dell’IA.

La responsabilità potrebbe spettare al produttore per difetti di progettazione o produzione, allo sviluppatore del software per problemi con il codice o all'utente per non aver seguito le istruzioni, installato aggiornamenti o mantenuto la sicurezza.

“Penso che tutto il materiale sia troppo nuovo e penso che dovremmo essere in grado di imparare da esso. Dovremmo essere in grado di fermare alcuni agenti IA se necessario. Ma dal mio punto di vista, se non ci fosse alcuna cattiva intenzione nel realizzarlo, nessuno ne sarebbe responsabile perché sei qualcosa di veramente nuovo", ha detto Grachev a BeInCrypto.

Tuttavia, secondo lui, queste situazioni devono essere gestite con attenzione per evitare di incidere sull’innovazione continua.

“Se si incolpasse questo imprenditore, si ucciderebbero le innovazioni perché le persone avrebbero paura. Ma se funziona male, sì, alla fine potrebbe funzionare. Dobbiamo trovare un modo per fermarlo, imparare, migliorare e reimparare”, ha aggiunto Grachev.

La linea sottile, tuttavia, rimane sottile come un rasoio, soprattutto negli scenari più estremi.

Affrontare i problemi di fiducia per l’adozione responsabile dell’IA

Una paura comune quando si parla del futuro dell’intelligenza artificiale riguarda le situazioni in cui gli agenti dell’intelligenza artificiale diventano più potenti degli esseri umani.

“Ci sono molti film a riguardo. Se parliamo, diciamo, di controlli della polizia o del governo, o di qualche esercito in qualche tipo di guerra, ovviamente l'automazione è come un grande spavento. Alcune cose possono essere automatizzate a un livello così ampio da poter ferire gli esseri umani”, ha affermato Grachev.

Alla domanda se uno scenario come questo potrebbe verificarsi, Grachev ha risposto che, in teoria, potrebbe accadere. Indipendentemente da ciò, ha ammesso che non poteva sapere cosa sarebbe successo in futuro.

Tuttavia, situazioni come queste sono emblematiche dei problemi fondamentali di fiducia tra esseri umani e intelligenza artificiale. Grachev afferma che il modo migliore per affrontare questo problema è esporre gli esseri umani a casi d’uso in cui l’intelligenza artificiale può effettivamente essere utile.

“L’intelligenza artificiale può essere difficile da credere per le persone. Ecco perché dovrebbe iniziare con qualcosa di semplice, perché la fiducia nell'agente AI non verrà creata quando qualcuno spiega che è affidabile. Le persone dovrebbero abituarsi ad usarlo. Ad esempio, se parli di crypto, puoi lanciare un meme, diciamo su Pump.fun, ma perché non lanciarlo tramite messaggio vocale? Con gli agenti AI, basta inviare un messaggio vocale che dice "per favore avvia questo e quello" e il gioco viene avviato. E poi il passo successivo [sarebbe] affidare all’agente alcune decisioni più importanti”, ha detto.

In definitiva, il viaggio verso un’adozione diffusa dell’IA sarà senza dubbio segnato da notevoli progressi e sfide impreviste.

Trovare un equilibrio tra innovazione e implementazione responsabile in questo settore in via di sviluppo sarà fondamentale per dare forma a un futuro in cui l’intelligenza artificiale avvantaggerà tutta l’umanità.

Il post Il futuro dell'intelligenza artificiale: approfondimenti di Andrei Grachev di DWF Labs sulla prossima ondata di automazione è apparso per la prima volta su BeInCrypto .

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto