In un panorama digitale in rapida evoluzione, il ruolo dei Chief Financial Officer (CFO) sta subendo una profonda trasformazione. Mentre le aziende adottano l’intelligenza artificiale (AI) per migliorare il processo decisionale finanziario, un recente rapporto di Gartner, Inc. fa luce sulle conversazioni critiche in cui i CFO dovrebbero impegnarsi per sfruttare il potenziale delle piattaforme di intelligenza artificiale generativa mitigando al contempo i rischi associati. Il rapporto prevede che entro il 2026, l’80% dei team finanziari delle grandi imprese farà affidamento su piattaforme di intelligenza artificiale generativa gestite e possedute internamente, addestrate con dati aziendali proprietari.
Sfatare l'hype: navigare nelle realtà dell'intelligenza artificiale
L’intelligenza artificiale generativa promette di rivoluzionare il modo in cui le organizzazioni affrontano le complessità e i volumi di dati. Tuttavia, come per qualsiasi tecnologia emergente, l’hype che circonda l’intelligenza artificiale può portare ad aspettative gonfiate. I CFO sono invitati a collaborare con la leadership tecnologica senior, tra cui il Chief Information Officer (CIO), il Chief Data Officer (CDO) e il Chief Information Security Officer (CISO), per distinguere i fatti dalla finzione.
L’intelligenza artificiale generativa , basata sul deep learning, sull’elaborazione del linguaggio naturale, sull’apprendimento per rinforzo e sulle reti di grafici, ha dimostrato notevoli capacità. Tuttavia, la complessità degli algoritmi di intelligenza artificiale spesso oscura la trasparenza dei loro processi decisionali. I CFO devono affrontare la sfida di comprendere se i sistemi di intelligenza artificiale possano sviluppare obiettivi nascosti o basare conclusioni su informazioni imprecise, irrilevanti, non etiche o addirittura illegali.
Mark D. McDonald, Senior Director Analyst presso Gartner Finance Practice, sottolinea l’importanza di queste conversazioni: “Tali limitazioni costituiscono la spina dorsale delle conversazioni che i CFO devono avere con i circoli dirigenziali quando considerano l’uso dell’intelligenza artificiale generativa”.
Definire i casi d'uso: allineare l'intelligenza artificiale alla strategia
Riconoscendo i limiti dell’intelligenza artificiale generativa, i CFO dovrebbero condurre discussioni volte a definire casi d’uso che siano al tempo stesso responsabili e attuabili. La collaborazione con la direzione operativa, i leader esecutivi e i rappresentanti della comunità di utenti è essenziale per garantire che questi casi d'uso siano in linea con la strategia generale dell'organizzazione e la tolleranza al rischio.
McDonald consiglia ai CFO di considerare l’unicità della propria organizzazione:
“Come con qualsiasi soluzione AI, i migliori casi d'uso sfruttano i punti di forza di un'azienda specifica e ne difendono i punti deboli. Copiare casi d’uso da altre aziende probabilmente non avrà lo stesso impatto in un’organizzazione con circostanze diverse. Al contrario, allineare le capacità fondamentali dell’intelligenza artificiale generativa alle strategie e agli obiettivi unici di un’azienda offre un valore che differenzia un’azienda dai suoi concorrenti”.
Governance e linee guida: garantire un uso responsabile dell’IA
L’intelligenza artificiale generativa, sebbene potente, richiede la supervisione umana per sostenere il giudizio, l’equità e l’etica umana. I CFO dovrebbero coinvolgere varie funzioni di supporto aziendale, tra cui ufficio legale, risorse umane (HR), audit e sicurezza, per stabilire linee guida complete su governance e utilizzo.
McDonald sottolinea l’importanza di queste linee guida: “Questa discussione deve includere anche il potenziale impatto sulla forza lavoro, sulla cultura aziendale e sulla formazione necessaria”. È essenziale considerare le implicazioni più ampie, come le dinamiche della forza lavoro e la cultura aziendale, quando si integra l’intelligenza artificiale generativa nel tessuto di un’organizzazione.