I ricercatori avvertono che la scansione delle competenze di OpenClaw non riesce a prevenire i plugin di agenti IA dannosi

Recenti ricerche dimostrano che il sistema di scansione delle competenze di OpenClaw non rappresenta un confine sicuro. La pubblicazione di competenze di terze parti rimane un problema per la creazione e l'utilizzo di agenti di intelligenza artificiale.

Le skill di OpenClaw continuano a rappresentare una minaccia per la sicurezza e, secondo recenti ricerche di esperti del settore, il recente sistema di scansione non costituisce una barriera sicura. La scansione delle skill è stata proposta come strumento di protezione per i creatori di skill, con l'obiettivo di intercettare payload di dati potenzialmente dannosi o elementi dannosi all'interno della skill stessa.

Come riportato da Cryptopolitan , i servizi di terze parti hanno già comportato rischi per la sicurezza, e l'adozione di agenti basati sull'intelligenza artificiale sta accelerando e aggravando il problema.

OpenClaw consente all'utente di creare agenti ed eseguirli su una macchina locale o su un server. Tuttavia, le skill vengono create immediatamente insieme a OpenClaw e possono ereditare lo stesso accesso a risorse e strumenti. Poiché alcune skill implicano attività sensibili come l'accesso al wallet o interazioni on-chain, i set di skill pubblicati da terze parti rimangono un rischio.

In che modo OpenClaw verifica le competenze per individuare eventuali intenti malevoli?

Recenti ricerche hanno dimostrato che Clawhub utilizza VirusTotal, oltre al sistema di moderazione interno di OpenClaw. I risultati di questi controlli classificano le competenze e impostano avvisi per l'utente durante l'installazione.

Questo sistema è ancora imperfetto e potrebbe classificare come innocue o addirittura potenzialmente dannose alcune skill. Un problema si presenta quando VirusTotal segnala la skill come sospetta, mentre OpenClaw la considera benigna. All'utente viene mostrato un avviso e può comunque confermare l'installazione della skill. Le skill classificate come completamente dannose non sono consentite per il download.

OpenClaw offre anche funzionalità di sandboxing e controlli in fase di esecuzione, ma queste sono opzionali e non costituiscono un limite predefinito rigido per le funzionalità di terze parti. OpenClaw lascia opzionale il sandboxing basato su Docker e alcuni strumenti rimangono disponibili anche con questa opzione disattivata.

Gli utenti scelgono il percorso diretto anche perché gli ambienti sandbox possono essere difficili da implementare e alcune funzionalità possono presentare malfunzionamenti. Ciò significa anche che la piattaforma si basa su revisioni e avvisi, un sistema che non offre una protezione diretta durante l'esecuzione delle funzionalità dell'agente.

OpenClaw è in grado di rilevare competenze dannose?

OpenClaw ha già implementato alcune misure di sicurezza, tra cui controlli per comportamenti specificamente collegati al codice di intercettazione in grado di leggere e trasmettere informazioni riservate. Questo approccio viene utilizzato nella sicurezza tradizionale per rilevare processi, richieste e altri comportamenti sospetti.

Le capacità degli agenti IA sono più difficili da analizzare perché gli input includono sia codice che istruzioni in linguaggio naturale, oltre al comportamento in fase di esecuzione. I sistemi di sicurezza tradizionali potrebbero presentare punti ciechi rispetto ai comportamenti degli agenti.

Il livello successivo consiste nell'utilizzare la scansione tramite intelligenza artificiale per individuare comportamenti più rischiosi che non sono stati rilevati da una ricerca statica o dal solito approccio basato sulle espressioni regolari. Gli agenti di intelligenza artificiale possono fornire un'indicazione sulla coerenza interna delle competenze, pur non essendo esaustivi di tutte le potenziali vulnerabilità. Ricercano il codice più evidentemente sfruttabile o le incongruenze generali.

I ricercatori hanno notato che il sistema di verifica e moderazione di OpenClaw approvava rapidamente le skill, mentre VirusTotal a volte impiegava giorni per segnalarne l'aggiunta. Era anche possibile aggiungere exploit a skill già approvate. Ciò significava che il processo di OpenClaw poteva dichiarare che le skill erano innocue quando in realtà potevano contenere comportamenti imprevisti.

Per gli sviluppatori di agenti di intelligenza artificiale, i ricercatori raccomandano l'utilizzo di sandbox o di strumenti per impedire l'esecuzione delle skill, anche se contrassegnate come innocue. I ricercatori hanno esortato le piattaforme di skill a presumere che le skill apparentemente normali possano nascondere vulnerabilità e ad evitare di utilizzarle in ambienti ad alto valore, dove potrebbero potenzialmente consentire l'accesso a portafogli di criptovalute o altre informazioni sensibili.

Non limitarti a leggere le notizie sulle criptovalute. Cerca di capirle. Iscriviti alla nostra newsletter. È gratis .

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto