Secondo l'ultimo sondaggio US AI Pulse Survey di EY, i budget aziendali vengono investiti in progetti di intelligenza artificiale agentica in tutti i settori, ma la maggior parte dei decisori non sa ancora cosa sta acquistando.
Il termine viene usato ovunque, appiccicato a qualsiasi cosa che somigli anche lontanamente all'intelligenza artificiale generativa, e i dirigenti ne danno il via libera a decine di milioni senza avere una reale idea di cosa facciano effettivamente questi sistemi. Questo sta creando un divario tra denaro e capacità, e non è un problema di poco conto.
Uno su cinque dei dirigenti senior intervistati ha dichiarato che la propria azienda ha già investito oltre 10 milioni di dollari nell'intelligenza artificiale e quasi un terzo prevede di fare lo stesso l'anno prossimo.
Dan Diasio, responsabile globale dell'intelligenza artificiale di EY, non è sembrato sorpreso. "L'intelligenza artificiale generativa (Agentic AI) ha un certo fermento che molti sul mercato vogliono sfruttare", ha affermato Dan. "Abbiamo assistito a un incredibile rebranding di tutto ciò che riguarda l'intelligenza artificiale generativa, presentato come 'intelligenza artificiale generativa'".
Il problema? La maggior parte di ciò che le aziende chiamano "agentic" funziona ancora come un assistente. Digiti qualcosa e lui ti risponde. Potrebbe suggerire un passaggio successivo o automatizzare alcune attività amministrative, ma non fa nulla in modo indipendente. Dan ha affermato che i veri agenti sanno quando un'attività deve essere eseguita, ne comprendono il contesto e gestiscono ogni passaggio senza che nessuno glielo dica.
I leader spendono di più, adottano di meno
Nonostante l'aumento della spesa, l'implementazione procede a rilento. Solo il 14% dei leader intervistati ha dichiarato che la propria azienda ha implementato completamente l'intelligenza artificiale agentica . Tutti gli altri sono bloccati nel purgatorio dei progetti pilota. Dan ha affermato che il divario è dovuto al fatto che le aziende non sono pronte a soddisfare le richieste.
"Ciò implica avere conoscenze organizzate e di alta qualità per guidare questi sistemi e una chiara comprensione di come le aziende affrontano il massiccio cambiamento tra lo stato attuale e quello futuro". Traduzione: senza fondamenta, nessun lancio.
Nonostante i risultati ottenuti con i precedenti strumenti di intelligenza artificiale, la maggior parte delle aziende esita ad andare avanti. Dan ha affermato che è il mix di debolezza tecnica e resistenza al cambiamento a rallentare il processo. "Sebbene questa combinazione crei un clima di incertezza, fornisce una chiara tabella di marcia per le organizzazioni", ha affermato. Questa tabella di marcia? Risolvere prima il disordine interno. Altrimenti, si tratta solo di progetti pilota più costosi che non portano da nessuna parte.
Deepankar Mathur, direttore associato di Searce, ha affermato che l'idea stessa di un'adozione su larga scala è ormai inutile. "È come cercare di colpire un bersaglio in continuo movimento", ha detto Deepankar.
L'evoluzione dell'intelligenza artificiale agentica non prevede un singolo momento di lancio. Si tratta invece di aggiornamenti costanti. Identificare ciò che necessita di automazione, decidere cosa conta di più, utilizzare i migliori strumenti disponibili e poi migliorarli nuovamente, immediatamente. "Questo ciclo di miglioramento non è un progetto temporaneo; è un imperativo operativo 'sempre attivo'", ha affermato.
I dirigenti definiscono i ruoli, proteggono i sistemi e sbloccano i team
Dan ha affermato che il modo per evitare paura e confusione è trattare il mix IA-uomo come una vera partnership. Definire chiaramente chi fa cosa. "Questo significa elaborare una strategia che definisca quali compiti gestirà l'IA e quali ruoli svolgeranno gli esseri umani", ha affermato. Questo elimina i dubbi e dà ai dipendenti la possibilità di lavorare con gli strumenti anziché contro di essi.
Ma questo funziona solo se l'IA ha qualcosa con cui lavorare. "I lavori vengono svolti attraverso il know-how e l'esperienza, che sono informazioni che potrebbero esistere solo nella testa dei lavoratori", ha detto Dan. Quel tipo di conoscenza non si trova in un database. Deve essere acquisita e trasformata in materiale strutturato. I sistemi agentivi ne hanno bisogno per prendere decisioni intelligenti. Nessun input, nessun output.
E poi c'è la sicurezza informatica. Dan ha affermato che più agenti in produzione significano più vulnerabilità. "Stiamo iniziando a ricevere più notizie sulle implicazioni informatiche di molti agenti", ha affermato. Ciò significa che le aziende devono elaborare piani informatici incentrati sull'intelligenza artificiale fin dal primo giorno. Stabilire regole sull'uso dei dati, sulla privacy, sull'etica e su quando un essere umano deve intervenire. "Affrontando proattivamente queste questioni di governance, i leader possono costruire un sistema affidabile e trasparente", ha affermato.
Deepankar ha anche insistito affinché i team potessero accedere direttamente agli strumenti di intelligenza artificiale. Ha affermato che non è più necessario essere un ingegnere per creare qualcosa di utile. "La barriera all'implementazione dell'intelligenza artificiale si è notevolmente abbassata", ha affermato. Ma affidarsi a comitati direttivi o consigli di amministrazione centralizzati per l'intelligenza artificiale non fa altro che rallentare il processo. "Il vero progresso richiede che i leader sostengano attivamente e consentano questa adozione diffusa".
Ha affermato che le aziende più lungimiranti stanno creando centri di eccellenza interni per l'intelligenza artificiale. Non si tratta di dipartimenti giganteschi, ma di team ristretti di esperti che si integrano in diverse unità aziendali, li formano e li aiutano a creare i propri flussi di lavoro agentici. "Le aziende di maggior successo stanno creando piccoli team d'élite di specialisti 'cinture nere' in ambito AI", ha affermato.
Le menti più brillanti del mondo delle criptovalute leggono già la nostra newsletter. Vuoi partecipare? Unisciti a loro .