In un recente sondaggio condotto dall’AI Policy Institute (AIPI), l’80% degli americani ha espresso la convinzione che presentare contenuti generati dall’intelligenza artificiale come se fossero stati creati da esseri umani dovrebbe essere illegale. L’indagine si è concentrata sul sentimento del pubblico riguardo all’uso dell’intelligenza artificiale nella creazione di contenuti, in particolare in una recente controversia che ha coinvolto Sports Illustrated, in cui l’intelligenza artificiale sarebbe stata utilizzata per scrivere articoli e assegnare loro falsi sottotitoli umani. Sebbene la rivista e la sua società madre abbiano negato il coinvolgimento diretto dell’intelligenza artificiale nella creazione di contenuti, la risposta del pubblico sottolinea le preoccupazioni sulla trasparenza e l’etica nei media riguardo ai contenuti generati dall’intelligenza artificiale.
Opinione pubblica sull’uso dell’intelligenza artificiale nella creazione di contenuti
Il sondaggio AIPI condotto su 1.222 americani ha approfondito quattro domande chiave relative al disastro dell'intelligenza artificiale di Sports Illustrated:
- Eticità dei contenuti generati dall’intelligenza artificiale: l’84% dei partecipanti ritiene non etico l’uso dell’intelligenza artificiale per “scrivere storie” e “assegnare loro sottotitoli falsi”, anche se la natura specifica del ruolo dell’intelligenza artificiale nella generazione di contenuti rimane controversa.
- Legalità dei contenuti generati dall’intelligenza artificiale: l’80% degli intervistati ritiene che presentare i contenuti generati dall’intelligenza artificiale come creati dall’uomo dovrebbe essere illegale.
- Divulgazione obbligatoria e filigrana: l'indagine ha anche messo in dubbio se le aziende debbano essere obbligate a "divulgare e filigranare i contenuti creati dall'intelligenza artificiale". Le risposte a queste domande sono state meno definitive, indicando una mancanza di consenso su questa questione specifica.
- Divulgazione dell'intelligenza artificiale negli annunci politici: per quanto riguarda la pubblicità politica, agli intervistati è stato chiesto se gli annunci politici dovrebbero essere tenuti a "divulgare e filigranare i contenuti creati dall'intelligenza artificiale", rivelando ancora una volta sentimenti contrastanti.
In particolare, le reazioni più vitali sono arrivate in risposta alle prime due domande, con la maggior parte dei partecipanti che ha espresso la propria disapprovazione per il coinvolgimento dell’intelligenza artificiale nella creazione di contenuti e ne ha sostenuto l’illegalità. In particolare, queste opinioni sembravano trascendere le linee dei partiti politici, con democratici, repubblicani e indipendenti tutti a nove punti di distanza l’uno dall’altro su entrambe le questioni.
Sentimenti contrastanti sulla divulgazione e sulla filigrana
Mentre l’eticità e la legalità dei contenuti generati dall’intelligenza artificiale hanno raccolto un chiaro consenso, le opinioni sulla divulgazione e sul watermarking erano meno uniformi. Questa divergenza potrebbe derivare dalla complessità di queste soluzioni e dalle potenziali incertezze sulla loro efficacia. Alcuni intervistati potrebbero considerare la divulgazione dell’intelligenza artificiale come un obbligo etico, ma devono ancora capire la praticità e l’impatto del watermarking. Altri potrebbero favorire misure alternative, come disclaimer espliciti e visibili, come un modo più efficace per informare i consumatori sull’uso dell’intelligenza artificiale nella creazione di contenuti.
Diritti dei consumatori ed etica dei media
I risultati del sondaggio evidenziano una questione fondamentale relativa ai diritti dei consumatori: il diritto di conoscere l’origine dei contenuti che consumano. La trasparenza è fondamentale per mantenere la fiducia tra i media e il loro pubblico. Supponiamo che gli editori scelgano di incorporare l'intelligenza artificiale nella produzione di contenuti. In tal caso, possono solo fornire ai lettori le informazioni necessarie per fare scelte informate sui contenuti con cui interagiscono. In caso contrario, intenzionale o meno, costituisce una violazione dell’etica fondamentale dei media e compromette l’integrità delle informazioni fornite al pubblico.
Affrontare le preoccupazioni del pubblico
Il sentimento schiacciante tra gli americani secondo cui presentare contenuti generati dall’intelligenza artificiale come prodotti dall’uomo dovrebbe essere illegale indica la preoccupazione del pubblico riguardo alla trasparenza e all’etica nei media. Sebbene il ruolo specifico dell’intelligenza artificiale nella creazione di contenuti presso Sports Illustrated rimanga controverso, le implicazioni più ampie di questo problema non possono essere ignorate.
Le organizzazioni dei media devono dare priorità alle considerazioni etiche e alle pratiche trasparenti quando utilizzano le tecnologie di intelligenza artificiale, soprattutto in un’era di crescente integrazione dell’intelligenza artificiale. Gli editori devono fornire informative chiare ed etichettature adeguate quando l’intelligenza artificiale è coinvolta nella creazione di contenuti, consentendo ai lettori di prendere decisioni informate sui contenuti che consumano.
Mentre la società continua a confrontarsi con l’evoluzione del ruolo dell’IA in vari settori, affrontare queste preoccupazioni e garantire un utilizzo responsabile dell’IA è essenziale per mantenere la fiducia del pubblico e sostenere i principi del giornalismo etico.