Secondo un recente sondaggio Reuters/Ipsos, l'adozione di ChatGPT, un programma di chatbot basato sull'intelligenza artificiale generativa, è in aumento nei luoghi di lavoro negli Stati Uniti. ChatGPT nei luoghi di lavoro negli Stati Uniti è di tendenza nonostante i timori che hanno spinto aziende come Microsoft e Google a limitarne l'utilizzo a causa di potenziali rischi per la sicurezza e problemi di proprietà intellettuale.
Mentre le organizzazioni di tutto il mondo contemplano il modo migliore per sfruttare ChatGPT, le discussioni sui suoi vantaggi e svantaggi hanno guadagnato slancio. La capacità di ChatGPT di impegnarsi in conversazioni con gli utenti e rispondere a una vasta gamma di richieste utilizzando funzionalità guidate dall'intelligenza artificiale ha incuriosito e allarmato vari settori. Le società e le società di sicurezza hanno sollevato apprensioni per possibili fughe di proprietà intellettuale e informazioni strategiche derivanti dal suo utilizzo.
Esempi aneddotici che evidenziano l'impatto
In vari casi del mondo reale, le persone hanno adottato ChatGPT per semplificare le loro attività quotidiane, tra cui la composizione di e-mail, il riepilogo di documenti e la conduzione di ricerche preliminari. Nonostante la convenienza che ciò offre, solo il 22% degli intervistati nel sondaggio online ha dichiarato che i propri datori di lavoro hanno esplicitamente sanzionato l'uso di strumenti esterni come ChatGPT.
Il sondaggio Reuters/Ipsos, condotto tra l'11 e il 17 luglio e che ha coinvolto 2.625 adulti negli Stati Uniti, ha svelato intuizioni intriganti. Circa il 28% degli intervistati utilizza regolarmente ChatGPT per attività lavorative. Tuttavia, i dati hanno anche indicato una disconnessione, poiché solo una frazione di questo gruppo (22%) ha confermato che le proprie aziende hanno ufficialmente approvato l'utilizzo di strumenti di intelligenza artificiale esterni.
Risposte contrastanti sull'accettazione dello strumento AI
Al contrario, il sondaggio ha anche mostrato atteggiamenti diversi nei confronti degli strumenti di intelligenza artificiale all'interno dei luoghi di lavoro. Mentre un notevole 10% ha riferito che i propri datori di lavoro hanno esplicitamente proibito gli strumenti di IA esterni, circa il 25% è rimasto incerto sulla posizione della propria organizzazione.
L'ascesa fulminea di ChatGPT e i dibattiti in corso
Dal suo lancio a novembre, ChatGPT è cresciuto notevolmente, diventando rapidamente una delle applicazioni più popolari. Questa salita, tuttavia, non è stata senza polemiche. OpenAI, lo sviluppatore dietro ChatGPT, ha incontrato sfide normative, in particolare in Europa, dove sono state sollevate preoccupazioni sulle pratiche di raccolta dei dati e sulle violazioni della privacy.
L'area grigia dell'accesso ai dati e della privacy
Una delle preoccupazioni principali riguarda l'utilizzo dei dati e la privacy. Le aziende che utilizzano le chat generate da ChatGPT dispongono di revisori umani che potrebbero accedere a questi dati. I ricercatori hanno anche identificato casi in cui i sistemi di intelligenza artificiale riproducono i dati assorbiti durante l'addestramento, mettendo potenzialmente a rischio le informazioni proprietarie. Questa preoccupazione è ulteriormente aggravata dalla scarsa comprensione da parte degli utenti di come i servizi di intelligenza artificiale generativa sfruttano i loro dati.
Percezioni e strategie aziendali
Ben King, vicepresidente della fiducia dei clienti presso la società di sicurezza aziendale Okta, ha sottolineato un dilemma significativo: molti utenti non hanno accordi contrattuali con i servizi di intelligenza artificiale, spesso offerte gratuite. Ciò rende difficile per le aziende valutare i rischi attraverso i consueti processi di valutazione.
**Prospettiva di OpenAI e risposta del settore**
OpenAI si è astenuto dal commentare le implicazioni dei singoli dipendenti che utilizzano ChatGPT. Tuttavia, la società ha evidenziato un recente post sul blog in cui assicurava ai partner aziendali che i loro dati non sarebbero stati utilizzati per addestrare ulteriormente il chatbot a meno che non fosse stata concessa un'autorizzazione esplicita.
Mentre Bard di Google raccoglie testo, posizione e informazioni sull'utilizzo, l'azienda consente agli utenti di gestire i propri dati e rimuovere i contenuti inseriti nell'intelligenza artificiale. Google e Alphabet hanno rifiutato di fornire ulteriori commenti su questo argomento. Anche Microsoft è rimasta a bocca aperta in risposta alle domande.
Modelli di utilizzo per bilanciare politica e praticità
Nonostante aziende come Tinder non abbiano una "regola ChatGPT", prove aneddotiche suggeriscono che i dipendenti a volte utilizzano la tecnologia per ciò che considerano attività innocue, come redigere e-mail e creare divertenti inviti di calendario. Alcuni dipendenti sostengono che queste attività non rivelano informazioni sensibili sulla loro azienda.
Le risposte del settore mettono in guardia tra i benefici
Samsung Electronics, ad esempio, ha imposto un divieto globale al personale che utilizza ChatGPT e simili strumenti di intelligenza artificiale dopo che un dipendente ha caricato un codice sensibile sulla piattaforma. Alphabet ha anche messo in guardia i propri dipendenti sull'uso dei chatbot durante la promozione del programma a livello globale.
Man mano che la presenza di ChatGPT si espande nei luoghi di lavoro statunitensi, incapsula le complessità che circondano l'integrazione dell'IA nelle operazioni quotidiane. Nonostante le preoccupazioni sulla sicurezza dei dati e sulla proprietà intellettuale, il fascino di semplificare le attività con la tecnologia basata sull'intelligenza artificiale rimane forte. Trovare il giusto equilibrio tra vincoli normativi e strumenti che migliorano la produttività rimane una sfida mentre le aziende si muovono nel panorama dinamico dell'adozione dell'IA.