L’intelligenza artificiale generativa suscita preoccupazioni tra i leader aziendali: studio

Oltre il 90% dei dirigenti senior esprime preoccupazione per l’uso non monitorato degli strumenti di intelligenza artificiale generativa

Un recente studio condotto dal fornitore di sicurezza informatica Kaspersky ha rivelato crescenti preoccupazioni tra i dirigenti di alto livello riguardo alla proliferazione non regolamentata di strumenti di intelligenza artificiale generativa (GenAI) nelle loro organizzazioni. Con il 90% dei dirigenti aziendali senior che esprime preoccupazione per l’adozione incontrollata di questi strumenti, è evidente che l’intelligenza artificiale generativa sta diventando sempre più integrata nelle varie operazioni aziendali.

Infiltrazione silenziosa dell'IA generativa

Dallo studio di Kaspersky è emerso che più della metà (53%) dei dirigenti senior intervistati ritiene che l'intelligenza artificiale generativa stia ora “guidando” attivamente alcune linee di business all'interno delle loro organizzazioni. Tuttavia, il 59% di loro ha anche espresso profonda preoccupazione per quella che ha descritto come una “infiltrazione silenziosa” dell’intelligenza artificiale generativa, che porta ad un aumento dei rischi informatici. Questo fenomeno dell’“intelligenza artificiale ombra”, in cui i dipendenti incorporano l’intelligenza artificiale generativa senza un’adeguata supervisione, pone sfide significative alla sicurezza e alla governance dei dati.

Un dato allarmante è che solo il 22% dei leader aziendali intervistati ha discusso l’implementazione di politiche di governance interna per monitorare l’uso dell’intelligenza artificiale generativa all’interno delle proprie organizzazioni. Inoltre, il 91% ha ammesso di aver bisogno di una migliore comprensione di come questi strumenti vengono utilizzati per mitigare i rischi per la sicurezza.

David Emm, principale ricercatore sulla sicurezza di Kaspersky, ha sottolineato l'urgenza di affrontare questo problema, affermando: "Dato che la rapida evoluzione di GenAI attualmente non mostra segni di cedimento, più a lungo queste applicazioni funzioneranno senza controllo, più difficile diventerà controllarle e proteggerle nelle principali applicazioni." funzioni aziendali come risorse umane, finanza, marketing o persino IT."

Preoccupazioni sulla violazione dei dati

L’intelligenza artificiale generativa si basa sull’apprendimento continuo attraverso l’immissione di dati, rendendo la protezione dei dati una preoccupazione fondamentale. Anche se utilizzati in buona fede, i dipendenti potrebbero inconsapevolmente trasmettere dati sensibili all’esterno dell’organizzazione, causando potenzialmente una violazione dei dati. La ricerca di Kaspersky riflette questa preoccupazione, con il 59% dei leader che esprime seria preoccupazione per il rischio di perdita di dati.

Nonostante queste preoccupazioni, lo studio ha anche rivelato che il 50% dei leader aziendali prevede di sfruttare in qualche modo l’intelligenza artificiale generativa, principalmente per automatizzare le attività ripetitive. Inoltre, il 44% intende integrare strumenti di intelligenza artificiale generativa nella propria routine quotidiana. In particolare, il 24% ha indicato di essere propenso a utilizzare l’intelligenza artificiale generativa per automatizzare le funzioni IT e di sicurezza.

Emm ha commentato questa tendenza dicendo: "Si potrebbe supporre che la prospettiva di una perdita di dati sensibili e di perdita del controllo di unità aziendali critiche possa indurre i dirigenti a riflettere, ma i nostri risultati rivelano che quasi un quarto dei capi del settore sta attualmente prendendo in considerazione la delega di alcune delle loro funzioni più importanti all’IA”.

Tuttavia, ha anche sottolineato la necessità di una comprensione completa della gestione dei dati e di politiche solide prima di integrare ulteriormente GenAI nell’ambiente aziendale.

La discussione sui rischi e sui benefici dell’intelligenza artificiale generativa ha acquisito maggiore importanza. Il primo ministro britannico Rishi Sunak ha recentemente chiesto una maggiore consapevolezza dei rischi associati all’intelligenza artificiale generativa. Ciò avviene prima dell’AI Safety Summit a Bletchley Park, dove leader ed esperti del settore discuteranno del futuro della regolamentazione e dell’integrazione di questa tecnologia emergente.

Spada a doppio taglio dell’intelligenza artificiale generativa

Fabien Rech, vicepresidente senior e direttore generale di Trellix, ha evidenziato la duplice natura dell'intelligenza artificiale generativa, affermando: "L'intelligenza artificiale generativa è un'arma a doppio taglio: poiché il panorama della sicurezza informatica continua ad evolversi, la proliferazione dell'intelligenza artificiale generativa non fa altro che aggiungere ulteriore complessità al mix."

Rech ha sottolineato l’importanza che le organizzazioni siano consapevoli delle implicazioni della tecnologia dell’intelligenza artificiale generativa e di come possa essere sfruttata e integrata in modo efficace. Sebbene gli strumenti di intelligenza artificiale generativa offrano il vantaggio di semplificare le attività quotidiane e migliorare la produttività, ci sono anche preoccupazioni riguardo al loro potenziale uso improprio in attività dannose come l’iniezione di codice, il phishing, l’ingegneria sociale e la tecnologia deepfake.

Ha esortato le organizzazioni a dare priorità a solide misure di sicurezza e all’integrazione di soluzioni tecnologiche adeguate per costruire una protezione resiliente contro le minacce informatiche.

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto