Il cofondatore di Ethereum Vitalik Buterin ha espresso il suo entusiasmo per il potenziale della verifica formale assistita dall'intelligenza artificiale del codice e dell'individuazione dei bug.
In un Tweet di lunedì, Buterin ha osservato che il rischio tecnico più significativo di Ethereum deriva da bug nel codice, e qualsiasi cosa che potrebbe cambiare significativamente il gioco su quel fronte sarebbe rivoluzionaria.
“Un’applicazione dell’intelligenza artificiale di cui sono entusiasta è la verifica formale assistita dall’intelligenza artificiale del codice e l’individuazione dei bug. In questo momento, il più grande rischio tecnico di Ethereum sono probabilmente i bug nel codice, e qualsiasi cosa che potrebbe cambiare significativamente il gioco sarebbe sorprendente", ha scritto.
In particolare, una delle maggiori sfide che devono affrontare i protocolli Ethereum è lo sfruttamento dei bug, che comporta perdite di milioni di dollari per gli investitori a causa di incidenti di hacking. Secondo un rapporto di Chainalysis, i fondi crittografici rubati nel 2023 hanno raggiunto la sorprendente cifra di 1,7 miliardi di dollari, con circa due terzi dei fondi totali rubati riconducibili ad attacchi informatici che hanno preso di mira i protocolli DeFi. E sebbene i furti complessivi siano diminuiti rispetto agli anni precedenti, la minaccia dell’hacking DeFi rimane una preoccupazione significativa.
Nel frattempo, sebbene Buterin si esprima ottimista riguardo al potenziale dell’intelligenza artificiale, ha anche notato cautela. In un blog datato 30 gennaio, il cofondatore di Ethereum ha consigliato prudenza quando si tratta di integrare l'intelligenza artificiale con la tecnologia blockchain, sottolineando la necessità fondamentale di un approccio attento e misurato, soprattutto nell'implementazione dell'intelligenza artificiale in contesti che comportano valore e rischio significativi.
In particolare, l’anno scorso, l’esperimento della società di sviluppo di contratti intelligenti OpenZeppelin che utilizzava GPT-4 di OpenAI per rilevare problemi di sicurezza nei contratti intelligenti di Solidity ha prodotto risultati contrastanti. Secondo un rapporto dell’azienda, GPT-4 ha identificato accuratamente le vulnerabilità in 20 sfide su 28, ma a volte ha anche fabbricato vulnerabilità inesistenti.
Allo stesso modo, Kang Li, Chief Security Officer presso la società di sicurezza blockchain CertiK, ha messo in guardia dal fare affidamento esclusivamente su strumenti basati sull’intelligenza artificiale per la codifica. Parlando lo scorso settembre durante la settimana coreana della Blockchain, Li ha osservato che gli strumenti di intelligenza artificiale possono introdurre più problemi di sicurezza di quanti ne risolvano se utilizzati senza cautela.
Li ha inoltre sottolineato che ChatGPT, ad esempio, potrebbe non essere in grado di rilevare bug del codice logico con la stessa abilità degli sviluppatori esperti. Invece, l’esperto ha proposto di utilizzare gli assistenti AI come strumenti di supporto per gli sviluppatori esperti, consentendo loro di comprendere il codice in modo più efficace.