In una rivelazione agghiacciante, l'intelligenza artificiale di Microsoft, pubblicizzata come sicura e integrata nei software di tutti i giorni, è sotto esame per aver generato immagini raccapriccianti e violente. La preoccupazione riguarda Image Creator, una parte di Bing di Microsoft, recentemente aggiunta al diffuso Windows Paint. La tecnologia, nota come DALL-E 3 del partner di Microsoft OpenAI, deve ora affrontare interrogativi sulla sua sicurezza e sulla responsabilità dei suoi creatori.
Microsoft contro il "kill prompt"
Le immagini inquietanti sono state portate alla luce da Josh McDuffie, artista canadese coinvolto in una comunità online che esplora le capacità dell'intelligenza artificiale nel creare immagini provocatorie e talvolta di cattivo gusto. A ottobre, McDuffie e i suoi colleghi si sono concentrati sull'intelligenza artificiale di Microsoft, in particolare su Image Creator per Bing, incorporando la più recente tecnologia di OpenAI. Microsoft afferma di avere controlli per prevenire la generazione di immagini dannose, ma McDuffie ha trovato lacune significative.
Microsoft utilizza due strategie per prevenire la creazione di immagini dannose: input, che prevede l'addestramento dell'intelligenza artificiale con dati provenienti da Internet, e output, creando guardrail per fermare la generazione di contenuti specifici. McDuffie, attraverso la sperimentazione, scoprì un particolare prompt, chiamato “kill prompt”, che permetteva all’intelligenza artificiale di creare immagini violente. Ciò ha suscitato preoccupazioni sull'efficacia delle misure di sicurezza di Microsoft.
Nonostante gli sforzi di McDuffie per attirare l'attenzione sulla questione attraverso il programma AI bug bounty di Microsoft, le sue proposte sono state respinte, sollevando dubbi sulla reattività dell'azienda a potenziali vulnerabilità della sicurezza. Le e-mail di rifiuto citavano la mancata soddisfazione dei requisiti di Microsoft per una vulnerabilità di sicurezza, lasciando McDuffie demoralizzato ed evidenziando potenziali difetti nel sistema.
Microsoft vacilla nella supervisione dell’intelligenza artificiale
Nonostante il lancio di un programma di bug bounty sull'intelligenza artificiale, la risposta di Microsoft alle scoperte di McDuffie è stata tutt'altro che soddisfacente. Il rifiuto delle richieste di “kill prompt” e la mancanza di azione sulle preoccupazioni segnalate hanno sottolineato un potenziale disprezzo per l’urgenza della questione. Nel frattempo, l'IA continuava a generare immagini inquietanti, anche dopo che erano state apportate alcune modifiche al messaggio originale di McDuffie.
La mancanza di azioni concrete da parte di Microsoft solleva preoccupazioni sull’impegno dell’azienda verso un’intelligenza artificiale responsabile. I confronti con altri concorrenti dell’intelligenza artificiale, tra cui OpenAI, parzialmente di proprietà di Microsoft, rivelano disparità nel modo in cui le diverse aziende affrontano problemi simili. I ripetuti fallimenti di Microsoft nell’affrontare il problema segnalano una potenziale lacuna nel dare priorità ai guardrail dell’IA, nonostante gli impegni pubblici per uno sviluppo responsabile dell’IA.
Il modello per lo sviluppo etico dell’IA
La riluttanza di Microsoft ad intraprendere azioni rapide ed efficaci suggerisce un campanello d’allarme nell’approccio dell’azienda alla sicurezza dell’intelligenza artificiale. Gli esperimenti di McDuffie con il "kill prompt" hanno rivelato che altri concorrenti dell'intelligenza artificiale, comprese piccole start-up, si rifiutavano di generare immagini dannose basate su prompt simili. Anche OpenAI, partner di Microsoft, ha implementato misure per bloccare il prompt di McDuffie, sottolineando la necessità di robusti meccanismi di sicurezza.
L'argomentazione di Microsoft secondo cui gli utenti stanno tentando di utilizzare l'intelligenza artificiale "in modi non previsti" attribuisce la responsabilità ai singoli individui piuttosto che riconoscere potenziali difetti nella tecnologia. Il paragone con Photoshop e l’affermazione secondo cui gli utenti dovrebbero astenersi dal creare contenuti dannosi riecheggia un modello visto in passato, che ricorda le piattaforme di social media che lottano per affrontare l’uso improprio della loro tecnologia.
Mentre Microsoft è alle prese con le conseguenze della sua intelligenza artificiale che genera immagini inquietanti, la domanda rimane: l’azienda sta facendo abbastanza per garantire un uso responsabile della sua tecnologia? L’apparente riluttanza ad affrontare la questione in modo tempestivo ed efficace solleva preoccupazioni sulla responsabilità e sulla priorità dei guardrail dell’IA. Mentre la società si muove nel panorama in evoluzione dell’intelligenza artificiale, la responsabilità non spetta solo agli utenti ma anche ai giganti della tecnologia per garantire l’implementazione etica e sicura dell’intelligenza artificiale. Come può Microsoft colmare il divario tra innovazione e responsabilità nel campo dell'intelligenza artificiale?