I chatbot del mercato nero sono diventati una delle ultime tendenze emergenti nel settore dell'intelligenza artificiale e stanno prosperando poiché i modelli di linguaggio di grandi dimensioni (LLM) dannosi guadagnano denaro per i loro creatori.
Uno studio americano ha scoperto che esiste un fiorente mercato nero dell’intelligenza artificiale in cui gli LLM non registrati stanno facendo soldi vendendo i loro servizi clandestinamente. Le società registrate e rivolte al pubblico come OpenAI, Perplexity e altre grandi aziende che offrono gli stessi servizi seguono prescrizioni normative.
I LLM clandestini possono eludere gli antivirus
Lo studio, che si è concentrato principalmente su Malla, un ecosistema che prospera imbastardendo LLM legali e piattaforme di intelligenza artificiale a scopo di lucro, ha esaminato 212 LLM del mercato nero quotati sui mercati sotterranei tra aprile e ottobre 2023, valutandone le caratteristiche.
Uno degli autori, Zilong Lin dell’Università dell’Indiana, ha detto:
"Abbiamo scoperto che la maggior parte dei servizi mala sui forum clandestini esistono principalmente per guadagnare profitto."
Lo studio ha anche scoperto che alcune piattaforme guadagnano fino a 28.000 dollari in due mesi da abbonamenti e acquisti da parte di persone che vogliono sfuggire ai confini dell’intelligenza artificiale regolamentata.
Alcuni, come DarkGPT ed EscapeGPT, sono solo derivati del jailbreak di LLM debitamente autorizzati che vengono utilizzati legalmente.
Uno studio separato ha anche dimostrato che questi LLM illeciti possono essere utilizzati per molte attività, come la creazione di e-mail di phishing. Ad esempio, DarkGPT ed EscapeGPT potrebbero creare codici corretti quasi il 75% delle volte, ma gli antivirus non sono in grado di selezionarli.
Un altro modello noto come WolfGPT è stato visto come una “centrale elettrica” per creare e-mail di phishing e schivare i rilevatori di spam.
Secondo Andrew Hundt, esperto di innovazione informatica presso la Carnegie Mello University, il boom del mercato clandestino dell’intelligenza artificiale dovrebbe essere motivo di preoccupazione.
Ha chiesto un requisito legale che obblighi le aziende che sviluppano LLM ad avere sistemi robusti che impediscano la replicazione da parte di persone con motivazioni sinistre.
“Abbiamo anche bisogno di quadri giuridici per garantire che le aziende che creano questi modelli e forniscono servizi lo facciano in modo più responsabile in modo da mitigare i rischi posti da attori malintenzionati”, ha affermato Hundt.
Capire come funzionano i chatbot del mercato nero è fondamentale
Il professor Xiaofeng Wang dell'Università dell'Indiana, che ha preso parte allo studio, ha affermato che è importante capire come funzionano questi LLM del mercato nero in modo che le soluzioni siano specifiche per i problemi identificati.
Il professor Wang ha aggiunto che la manipolazione di questi LLM non può essere evitata, il che crea la possibilità per il settore di creare forti guardrail per ridurre al minimo i potenziali danni eseguiti attraverso attacchi informatici in tutte le sue forme.
“Crediamo che ora sia una buona fase per iniziare a studiarli perché non vogliamo aspettare fino a quando il grosso danno non sarà già stato fatto”.
Professor Wang.
Secondo il professore, ogni tecnologia, compresi i LLM, si presenta in due modi: il lato positivo e quello negativo.
Gli esperti di sicurezza informatica stanno già invitando l’industria dell’intelligenza artificiale a rallentare la sua corsa e a riflettere sui crescenti pericoli che la loro tecnologia venga adulterata da comunità Internet anonime.
Un articolo di Forbes pubblicato alla fine dello scorso anno affermava che dovrebbe esserci un’introduzione responsabile di nuove idee, in particolare intorno ai LLM. Ha inoltre sottolineato il ruolo della regolamentazione nel promuovere innovazioni responsabili nel campo dell’intelligenza artificiale, a differenza dell’idea sbagliata secondo cui la regolamentazione soffoca lo sviluppo.
“Gli sviluppatori e i fornitori di LLM devono prendere una pausa da una frenetica corsa agli armamenti che mira a sfornare modelli sempre più complessi e dovrebbero invece collaborare con i regolatori sull’adozione di quadri per la progettazione etica e l’uso di applicazioni di intelligenza artificiale generativa”, si legge in una parte del rapporto. .
Ora, a causa delle lacune normative, anche il mercato nero dell’intelligenza artificiale sta rapidamente crescendo fino a diventare un settore multimilionario e potrebbe aver bisogno di ampie risorse per essere contenuto, secondo Fast Company.