La startup francese di intelligenza artificiale Mistral affronta una reazione negativa poiché il nuovo LLM genera contenuti dannosi

La startup francese di intelligenza artificiale (AI), Mistral, ha recentemente presentato il suo attesissimo modello di linguaggio di grandi dimensioni (LLM), segnando il tentativo dell'Europa di competere con giganti della tecnologia come Meta. Tuttavia, il rilascio del modello è stato rovinato da polemiche, con i critici che hanno evidenziato la sua mancanza di moderazione dei contenuti. È stato scoperto che LLM di Mistral genera contenuti dannosi, comprese istruzioni dettagliate su come creare una bomba, una funzionalità preoccupante non presente nei modelli concorrenti di Meta, OpenAI e Google.

I contenuti non filtrati sollevano preoccupazioni

All'indomani del suo rilascio, il modello 7B di Mistral è stato sottoposto a un esame approfondito per la sua incapacità di filtrare contenuti dannosi e pericolosi. Test indipendenti condotti da Sifted hanno dimostrato che il modello forniva prontamente istruzioni passo passo sull’autolesionismo e sul danneggiamento degli altri, in netto contrasto con i suoi concorrenti che si rifiutavano costantemente di fornire tali informazioni. Questa scoperta ha lanciato campanelli d’allarme e ha acceso un’accesa discussione sulla responsabilità degli sviluppatori di intelligenza artificiale nel garantire la sicurezza dei loro modelli.

La risposta di Mistral e la mancanza di moderazione

In risposta alle crescenti preoccupazioni, Mistral ha aggiunto una casella di testo alla sua pagina di rilascio. La dichiarazione ha riconosciuto l'assenza di meccanismi di moderazione nel modello Mistral 7B Instruct ed ha espresso il desiderio di impegnarsi con la comunità per esplorare modi per implementare guardrail per risultati più responsabili. Tuttavia, la società ha rifiutato di fornire ulteriori commenti riguardo alla sicurezza del suo modello e alla sua uscita, lasciando molte domande senza risposta.

La sicurezza dell'intelligenza artificiale sotto i riflettori

Mentre ci sono altri LLM open source disponibili online che mancano anch'essi di moderazione dei contenuti, il ricercatore sulla sicurezza dell'intelligenza artificiale Paul Röttger, che ha avuto un ruolo nel rendere la pre-release di GPT-4 più sicura, ha espresso sorpresa per la decisione di Mistral di rilasciare un modello del genere. Ha sottolineato che quando una nota organizzazione rilascia un modello di chat di grandi dimensioni, valutare e affrontare i problemi di sicurezza dovrebbe essere una priorità assoluta. Röttger ha osservato che Mistral ha paragonato il suo modello ai modelli Llama e ha affermato la superiorità senza affrontare adeguatamente i problemi di sicurezza.

La responsabilità dei rilasci responsabili

I critici dei social media hanno sostenuto che qualsiasi LLM ben addestrato potrebbe produrre contenuti dannosi se non messo a punto o guidato utilizzando l’apprendimento per rinforzo attraverso il feedback umano. Tuttavia, Röttger ha sottolineato che il modello di Mistral è stato specificamente ottimizzato per la chat, rendendo fondamentale confrontare le sue caratteristiche di sicurezza con altri modelli ottimizzati per la chat. Ha osservato che Mistral non ha mai affermato che il suo modello di chat fosse particolarmente sicuro e semplicemente non si è espressa in merito, una scelta che ha conseguenze di vasta portata, soprattutto per le applicazioni che richiedono un livello di sicurezza più elevato.

Bilanciare innovazione e responsabilità

Il rilascio da parte di Mistral del suo modello 7B evidenzia il delicato equilibrio tra innovazione e responsabilità nel settore dell'intelligenza artificiale. Sebbene i progressi tecnologici siano essenziali per il progresso, devono essere accompagnati da rigorose misure di sicurezza, in particolare nei modelli progettati per chat e conversazioni. La controversia che circonda il LLM di Mistral serve a ricordare che la trasparenza, la responsabilità e i robusti meccanismi di moderazione dei contenuti sono cruciali nello sviluppo e nell'implementazione di modelli di intelligenza artificiale. Mentre la comunità dell’intelligenza artificiale continua ad affrontare queste sfide, l’uso responsabile della tecnologia dell’intelligenza artificiale rimane in prima linea nelle discussioni, garantendo che i progressi avvantaggino la società senza compromettere la sicurezza e l’etica.

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto