Il CEO di OpenAI, Sam Altman, afferma di essere più preoccupato dalle sottili decisioni quotidiane prese da ChatGPT che dalle principali mosse politiche

L'amministratore delegato di OpenAI, Sam Altman, ha spiegato come la sua azienda prende decisioni su ChatGPT. Ha affermato che le più piccole scelte sul comportamento del chatbot lo preoccupano più delle politiche generali.

In un'intervista con Tucker Carlson, Altman ha affermato di non "dormire molto bene la notte. Ci sono molte cose che mi pesano molto, ma probabilmente niente di più del fatto che ogni giorno centinaia di milioni di persone parlano con il nostro modello", ha detto Altman.

Altman ha descritto il suicidio come il problema più difficile che il team sta affrontando, citando una causa intentata da una famiglia che ha attribuito a ChatGPT la morte del figlio adolescente.

"Probabilmente hanno parlato di [suicidio], e probabilmente non gli abbiamo salvato la vita", ha detto. "Forse avremmo potuto dire qualcosa di meglio. Forse avremmo potuto essere più proattivi. Forse avremmo potuto fornire consigli un po' più efficaci, tipo: 'Ehi, hai bisogno di questo aiuto'".

Il mese scorso, i genitori di Adam Raine hanno intentato una causa per responsabilità da prodotto difettoso e omicidio colposo contro OpenAI dopo che il loro figlio sedicenne si è suicidato. Nella denuncia si affermava che "ChatGPT ha aiutato attivamente Adam a esplorare metodi di suicidio". Poco dopo, OpenAI ha pubblicato un post intitolato "Aiutare le persone quando ne hanno più bisogno", delineando le misure per migliorare le risposte in "situazioni delicate".

Chi stabilisce le regole etiche di ChatGPT?

Altman ha affermato che il modello di base è addestrato sulla conoscenza condivisa dell'umanità, e poi OpenAI allinea il comportamento e decide cosa il sistema non farà. "Questo è un problema davvero difficile. Ora abbiamo molti utenti, e provengono da prospettive di vita molto diverse… Ma nel complesso, sono rimasto piacevolmente sorpreso dalla capacità del modello di apprendere e applicare un quadro morale", ha affermato.

Ha affermato che l'azienda ha consultato "centinaia di filosofi morali e persone che si sono occupate di etica della tecnologia e dei sistemi". Ha sottolineato un limite imposto dall'azienda, ovvero che il sistema non fornirà istruzioni sulla creazione di armi biologiche.

"Ci sono chiari esempi di casi in cui l'interesse della società è in forte conflitto con la libertà dell'utente", ha affermato, aggiungendo che l'azienda "non riuscirà a fare tutto nel modo giusto e ha anche bisogno del contributo del mondo".

Cosa succede alla privacy degli utenti quando si utilizza ChatGPT?

Quando Carlson ha affermato che l'IA generativa potrebbe essere utilizzata per il "controllo totalitario", Altman ha risposto di aver spinto per un "privilegio dell'IA", in base al quale ciò che qualcuno dice a un chatbot sarebbe riservato. "Quando parli con un medico della tua salute o con un avvocato dei tuoi problemi legali, il governo non può ottenere quelle informazioni, giusto?… Penso che dovremmo avere lo stesso concetto per l'IA".

Come menzionato in un rapporto di Cryptopolitan, Altman ha precedentemente sottolineato che, man mano che l'intelligenza artificiale entra in ambiti più personali, l'input degli utenti rimane privo di garanzie legali .

Ha fatto notare che, al momento, le autorità statunitensi possono ottenere i dati degli utenti dall'azienda tramite una citazione in giudizio.

Alla domanda se l'esercito avrebbe usato ChatGPT per danneggiare le persone, Altman non ha dato una risposta diretta. "Non so come le persone nell'esercito usino ChatGPT oggi… ma sospetto che ci siano molte persone nell'esercito che si rivolgono a ChatGPT per chiedere consiglio", ha detto, aggiungendo in seguito di non essere sicuro "esattamente di come reagire al riguardo".

OpenAI è una delle aziende di intelligenza artificiale che ha ricevuto un premio del valore di 200 milioni di dollari dal Dipartimento della Difesa degli Stati Uniti.

Carlson ha previsto che, seguendo il suo percorso attuale, l'intelligenza artificiale generativa, e per estensione Altman, potrebbe accumulare più potere di qualsiasi altra persona, definendo ChatGPT una "religione".

"Quello che sta succedendo ora è che tantissime persone usano ChatGPT e altri chatbot, e sono tutti più capaci. Stanno tutti facendo di più. Sono tutti in grado di ottenere di più, avviare nuove attività, acquisire nuove conoscenze", ha detto Altman. Ha anche affermato di pensare che l'intelligenza artificiale eliminerà molti posti di lavoro oggi esistenti, soprattutto nel breve termine.

KEY Difference Wire : lo strumento segreto che i progetti crittografici usano per ottenere una copertura mediatica garantita

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto