Il CEO di Perle Labs, Ahmed Rashad, spiega perché l’intelligenza artificiale ha bisogno di un’infrastruttura di dati verificabile

Il CEO di Perle Labs, Ahmed Rashad, spiega perché l'intelligenza artificiale ha bisogno di un'infrastruttura di dati verificabile

Gli agenti di intelligenza artificiale hanno dominato l'ETHDenver 2026, dalla finanza autonoma alla robotica on-chain. Ma con il crescente entusiasmo per le "economie agentiche", emerge una domanda più complessa: le istituzioni possono dimostrare su cosa sono stati addestrati i loro sistemi di intelligenza artificiale?

Tra le startup che affrontano questo problema c'è Perle Labs , che sostiene che i sistemi di intelligenza artificiale richiedano una catena di custodia verificabile per i loro dati di training, in particolare in ambienti regolamentati e ad alto rischio. Concentrandosi sulla creazione di un'infrastruttura dati verificabile e certificata per le istituzioni, Perle ha raccolto finora 17,5 milioni di dollari, con il suo ultimo round di finanziamento guidato da Framework Ventures. Tra gli altri investitori figurano CoinFund, Protagonist, HashKey e Peer VC. L'azienda segnala che oltre un milione di annotatori contribuiscono con oltre un miliardo di punti dati valutati sulla sua piattaforma.

BeInCrypto ha intervistato Ahmed Rashad, CEO di Perle Labs, a margine dell'ETHDenver 2026. Rashad ha precedentemente ricoperto un ruolo di leadership operativa presso Scale AI durante la sua fase di ipercrescita. Durante l'intervista, ha discusso di provenienza dei dati, collasso dei modelli, rischi avversari e del perché, a suo avviso, l'intelligence sovrana diventerà un prerequisito per l'implementazione dell'IA nei sistemi critici.

BeInCrypto: Descrivi Perle Labs come il "livello di intelligence sovrano per l'intelligenza artificiale". Per i lettori che non sono coinvolti nel dibattito sull'infrastruttura dati, cosa significa concretamente in termini pratici?

Ahmed Rashad: “La parola sovrano è deliberata e racchiude in sé diversi significati.

Il significato più letterale è controllo. Se sei un governo, un ospedale, un appaltatore della difesa o una grande azienda che implementa l'intelligenza artificiale in un ambiente ad alto rischio, devi possedere l'intelligenza dietro quel sistema, non esternalizzarla a una scatola nera che non puoi ispezionare o verificare. Sovrano significa che sai su cosa è stata addestrata la tua IA, chi l'ha convalidata e puoi dimostrarlo. La maggior parte del settore oggi non può dirlo.

Il secondo significato è indipendenza. Agire senza interferenze esterne. Questo è esattamente ciò di cui istituzioni come il Dipartimento della Difesa o un'azienda hanno bisogno quando implementano l'intelligenza artificiale in ambienti sensibili. Non si può permettere che la propria infrastruttura di intelligenza artificiale critica dipenda da pipeline di dati che non si controllano, non si possono verificare e non si può difendere dalle manomissioni. Questo non è un rischio teorico. Sia la NSA che la CISA hanno pubblicato linee guida operative sulle vulnerabilità della catena di fornitura dei dati come questione di sicurezza nazionale.

Il terzo significato è responsabilità. Quando l'intelligenza artificiale passa dalla generazione di contenuti alla presa di decisioni, mediche, finanziarie, militari, qualcuno deve essere in grado di rispondere: da dove proviene l'intelligence? Chi l'ha verificata? Questa registrazione è permanente? Su Perle, il nostro obiettivo è che ogni contributo di ogni esperto annotatore sia registrato on-chain. Non può essere riscritto. Questa immutabilità è ciò che rende il termine "sovrano" accurato, piuttosto che semplicemente ambizioso.

In termini pratici, stiamo costruendo un livello di verifica e accreditamento. Se un ospedale implementa un sistema diagnostico basato sull'intelligenza artificiale, dovrebbe essere in grado di ricondurre ogni punto dati del set di addestramento a un professionista qualificato che lo ha convalidato. Questa è intelligence sovrana. Questo è ciò che intendiamo."

BeInCrypto: Hai fatto parte di Scale AI durante la sua fase di ipercrescita, inclusi importanti contratti di difesa e l'investimento in Meta. Cosa ti ha insegnato quell'esperienza sui punti di rottura dei tradizionali data pipeline di intelligenza artificiale?

Ahmed Rashad: "Scale era un'azienda incredibile. Ero lì quando è passata da 90 milioni di dollari a 29 miliardi di dollari, quando tutto stava prendendo forma, e ho assistito in prima fila al momento in cui si formano le crepe.

Il problema fondamentale è che la qualità dei dati e la scalabilità vanno in direzioni opposte. Quando si cresce 100 volte, la pressione è sempre quella di muoversi rapidamente: più dati, annotazioni più rapide, costi per etichetta inferiori. E le vittime sono precisione e responsabilità. Si finisce con pipeline opache: si sa approssimativamente cosa è entrato, si hanno alcune metriche di qualità su cosa è uscito, ma il centro è una scatola nera. Chi ha convalidato tutto questo? Era effettivamente qualificato? L'annotazione era coerente? Queste domande diventano quasi impossibili da rispondere su larga scala con i modelli tradizionali.

La seconda cosa che ho imparato è che l'elemento umano è quasi sempre trattato come un costo da minimizzare piuttosto che come una capacità da sviluppare. Il modello transazionale: pagare per attività e poi ottimizzare la produttività non fa altro che degradare la qualità nel tempo. Brucia i migliori collaboratori. Le persone che possono fornirti annotazioni di qualità veramente elevata, di livello esperto, non sono le stesse persone che si soffermano su un sistema di micro-attività gamificato per pochi centesimi. Devi progettare in modo diverso se vuoi quel livello di input.

Questa consapevolezza è ciò su cui si basa Perle. Il problema dei dati non si risolve aggiungendo ulteriore lavoro. Si risolve trattando i collaboratori come professionisti, integrando credenziali verificabili nel sistema e rendendo l'intero processo verificabile end-to-end."

BeInCrypto: Hai raggiunto un milione di annotatori e ottenuto oltre un miliardo di punti dati. La maggior parte delle piattaforme di etichettatura dei dati si basa sul lavoro anonimo del crowd. Cosa c'è di strutturalmente diverso nel tuo modello di reputazione?

Ahmed Rashad: "La differenza fondamentale è che su Perle la tua storia lavorativa è tua e permanente. Quando completi un'attività, la registrazione di quel contributo, il livello di qualità raggiunto, il confronto con il consenso degli esperti, vengono registrati on-chain. Non possono essere modificati, eliminati o riassegnati. Col tempo, diventano una credenziale professionale che si arricchisce.

Confrontatelo con il lavoro collettivo anonimo, in cui una persona è essenzialmente fungibile. Non ha alcun interesse nella qualità perché la sua reputazione non esiste, e ogni compito è scollegato dal precedente. La struttura degli incentivi produce esattamente ciò che ci si aspetterebbe: il minimo sforzo possibile.

Il nostro modello inverte questa tendenza. I collaboratori creano un curriculum verificabile. La piattaforma riconosce le competenze specifiche nel settore. Ad esempio, un radiologo che produce costantemente annotazioni di immagini mediche di alta qualità crea un profilo che riflette tale competenza. Questa reputazione favorisce l'accesso a incarichi di maggior valore, una retribuzione migliore e un lavoro più significativo. È un volano: la qualità si accumula perché gli incentivi la premiano.

Abbiamo superato il miliardo di punti ottenuti nella nostra rete di annotatori. Non si tratta solo di un numero di volume, ma di un miliardo di contributi di dati tracciabili e attribuiti da parte di esseri umani verificati. Questo è il fondamento di dati di addestramento AI affidabili, ed è strutturalmente impossibile replicarlo con un lavoro collettivo anonimo."

BeInCrypto: Il collasso dei modelli è un argomento molto discusso negli ambienti della ricerca, ma raramente entra a far parte delle conversazioni tradizionali sull'intelligenza artificiale. Perché, secondo te, e perché più persone dovrebbero preoccuparsene?

Ahmed Rashad: "Non è al centro dell'attenzione perché è una crisi lenta, non drammatica. Il collasso del modello, in cui i sistemi di intelligenza artificiale, sempre più addestrati su dati generati dall'intelligenza artificiale, iniziano a degradarsi, perdere sfumature e comprimersi verso la media, non produce un evento di primo piano. Produce una graduale erosione della qualità che è facile non notare finché non diventa grave.

Il meccanismo è semplice: Internet si sta riempiendo di contenuti generati dall'intelligenza artificiale. I modelli addestrati su tali contenuti imparano dai propri output piuttosto che dalla vera conoscenza ed esperienza umana. Ogni generazione di addestramento amplifica le distorsioni della precedente. È un ciclo di feedback senza correzioni naturali.

Dovrebbero preoccuparsi più persone? Sì, soprattutto nei settori ad alto rischio. Quando il collasso del modello influisce su un algoritmo di raccomandazione dei contenuti, si ottengono raccomandazioni peggiori. Quando influisce su un modello di diagnostica medica, un sistema di ragionamento legale o uno strumento di intelligence per la difesa, le conseguenze sono categoricamente diverse. Il margine di degrado scompare.

Ecco perché il livello di dati verificati dall'uomo non è facoltativo con l'avanzare dell'intelligenza artificiale nelle infrastrutture critiche. È necessaria una fonte continua di intelligenza umana autentica e diversificata su cui basare l'addestramento; non output di intelligenza artificiale riciclati attraverso un altro modello. Abbiamo oltre un milione di annotatori che rappresentano competenze di dominio autentiche in decine di campi. Questa diversità è l'antidoto al collasso del modello. Non si può risolvere il problema con dati sintetici o con più capacità di calcolo.

BeInCrypto: Quando l'intelligenza artificiale si espande dagli ambienti digitali ai sistemi fisici, cosa cambia fondamentalmente in termini di rischio, responsabilità e standard applicati al suo sviluppo?

Ahmed Rashad: L'irreversibilità cambia. Questo è il nocciolo della questione. Un modello linguistico che allucina produce una risposta sbagliata. Puoi correggerlo, segnalarlo e andare avanti. Un sistema chirurgico robotico che opera su un'inferenza errata, un veicolo autonomo che effettua una classificazione errata, un drone che agisce su un bersaglio identificato erroneamente, questi errori non hanno pulsanti di annullamento. Il costo del fallimento passa dall'imbarazzante al catastrofico.

Questo cambia radicalmente gli standard da applicare. Negli ambienti digitali, lo sviluppo dell'intelligenza artificiale ha potuto procedere rapidamente e autocorreggersi. Nei sistemi fisici, questo modello è insostenibile. È necessario che i dati di addestramento alla base di questi sistemi siano verificati prima dell'implementazione, non sottoposti a audit dopo un incidente.

Cambia anche la responsabilità. In un contesto digitale, è relativamente facile distribuire la responsabilità: è stato il modello? I dati? L'implementazione? Nei sistemi fisici, in particolare quando gli esseri umani vengono danneggiati, le autorità di regolamentazione e i tribunali esigeranno risposte chiare. Chi ha addestrato tutto questo? Su quali dati? Chi ha convalidato quei dati e secondo quali standard? Le aziende e i governi che sapranno rispondere a queste domande saranno quelli autorizzati a operare. Quelli che non potranno farlo dovranno affrontare responsabilità che non avevano previsto.

Abbiamo creato Perle proprio per questa transizione. Verificato da esseri umani, affidato a esperti, verificabile on-chain. Quando l'intelligenza artificiale inizia a operare nei magazzini, nelle sale operatorie e sui campi di battaglia, il livello di intelligence sottostante deve soddisfare uno standard diverso. È questo standard che stiamo perseguendo.

BeInCrypto: Quanto è reale la minaccia di avvelenamento dei dati o di manipolazione avversaria nei sistemi di intelligenza artificiale odierni, in particolare a livello nazionale?

Ahmed Rashad: "È reale, è documentato e viene già trattato come una priorità per la sicurezza nazionale da persone che hanno accesso a informazioni riservate al riguardo.

Il programma GARD (Guaranteeing AI Robustness Against Deception) della DARPA ha dedicato anni allo sviluppo specifico di difese contro gli attacchi avversari ai sistemi di intelligenza artificiale, incluso il data poisoning. Nel 2025, la NSA e la CISA hanno pubblicato linee guida congiunte, avvertendo esplicitamente che le vulnerabilità della catena di fornitura dei dati e i dati di addestramento modificati in modo dannoso rappresentano minacce credibili all'integrità dei sistemi di intelligenza artificiale. Non si tratta di white paper teorici. Sono linee guida operative di agenzie che non pubblicano avvisi su rischi ipotetici.

La superficie di attacco è significativa. Se si riescono a compromettere i dati di addestramento di un sistema di intelligenza artificiale utilizzato per il rilevamento delle minacce, la diagnosi medica o l'ottimizzazione logistica, non è necessario hackerare il sistema stesso. Si è già modificato il modo in cui vede il mondo. Si tratta di un vettore di attacco molto più elegante e difficile da rilevare rispetto alle tradizionali intrusioni nella sicurezza informatica.

Il contratto da 300 milioni di dollari che Scale AI ha stipulato con il CDAO del Dipartimento della Difesa per l'implementazione dell'IA su reti classificate esiste in parte perché il governo è consapevole di non poter utilizzare un'IA addestrata su dati pubblici non verificati in ambienti sensibili. La questione della provenienza dei dati non è una questione accademica a quel livello. È operativa.

Ciò che sfugge al dibattito pubblico è che questo non è solo un problema governativo. Qualsiasi azienda che implementa l'intelligenza artificiale in un ambiente competitivo, nei servizi finanziari, nei prodotti farmaceutici o nelle infrastrutture critiche, ha un'esposizione ai dati avversari che probabilmente non ha ancora completamente mappato. La minaccia è reale. Le difese sono ancora in fase di sviluppo".

BeInCrypto: Perché un governo o una grande azienda non possono semplicemente costruire autonomamente questo livello di verifica? Qual è la vera risposta quando qualcuno si oppone?

Ahmed Rashad: "Alcuni ci provano. E quelli che ci provano imparano in fretta qual è il vero problema.

Costruire la tecnologia è la parte facile. La parte difficile è la rete. Esperti di settore, radiologi, linguisti, giuristi, ingegneri e scienziati, verificati e accreditati, non compaiono solo perché hai creato una piattaforma per loro. Devi reclutarli, accreditarli, costruire le strutture di incentivazione che li mantengano coinvolti e sviluppare meccanismi di consenso di qualità che rendano il loro contributo significativo su larga scala. Questo richiede anni e competenze che la maggior parte delle agenzie governative e delle aziende semplicemente non possiede internamente.

Il secondo problema è la diversità. Un'agenzia governativa che costruisce il proprio livello di verifica attingerà, per definizione, da un pool limitato e relativamente omogeneo. Il valore di una rete globale di esperti non risiede solo nelle credenziali; è la gamma di prospettive, linguaggi, contesti culturali e specializzazioni di dominio che si possono ottenere solo operando su scala reale in aree geografiche reali. Abbiamo oltre un milione di annotatori. Non è qualcosa che si replica internamente.

Il terzo problema è la progettazione degli incentivi. Mantenere attivi nel tempo i collaboratori di alta qualità richiede una retribuzione trasparente, equa e programmabile. L'infrastruttura blockchain rende possibile tutto ciò in un modo che i sistemi interni in genere non possono replicare: registri immutabili dei contributi, attribuzione diretta e pagamento verificabile. Un sistema di appalti pubblici non è progettato per farlo in modo efficiente.

La risposta onesta a questa resistenza è: non stai semplicemente acquistando uno strumento. Stai accedendo a una rete e a un sistema di credenziali che ha richiesto anni di sviluppo. L'alternativa non è "costruirselo da soli", ma "usare ciò che già esiste o accettare il rischio per la qualità dei dati che deriva dal non averlo".

BeInCrypto: Se l'intelligenza artificiale diventasse un'infrastruttura nazionale fondamentale, dove si collocherebbe un livello di intelligence sovrana in questo scenario tra cinque anni?

Ahmed Rashad: "Tra cinque anni, credo che sarà simile a come appare oggi la funzione di audit finanziario: uno strato di verifica non negoziabile che si colloca tra i dati e l'implementazione, con supporto normativo e standard professionali ad esso associati.

Al momento, lo sviluppo dell'intelligenza artificiale opera senza nulla di equivalente alla revisione contabile. Le aziende autocertificano i propri dati di addestramento. Non esiste alcuna verifica indipendente, nessuna certificazione professionale del processo, nessuna attestazione di terze parti che l'intelligenza alla base di un modello soddisfi uno standard definito. Siamo nell'equivalente iniziale della finanza pre-Sarbanes-Oxley, che opera in gran parte sulla fiducia e sull'autocertificazione.

Man mano che l'intelligenza artificiale diventa un'infrastruttura critica, che gestisce reti elettriche, sistemi sanitari, mercati finanziari e reti di difesa, questo modello diventa insostenibile. I governi imporranno la verificabilità. I ​​processi di approvvigionamento richiederanno la verifica della provenienza dei dati come condizione contrattuale. I quadri normativi sulla responsabilità attribuiranno conseguenze a guasti che avrebbero potuto essere evitati con un'adeguata verifica.

In questo contesto, Perle si colloca come livello di verifica e accreditamento, l'entità in grado di produrre una registrazione immutabile e verificabile di ciò su cui un modello è stato addestrato, da chi e secondo quali standard. Questa non sarà una caratteristica dello sviluppo dell'IA tra cinque anni. È un prerequisito.

Il punto più generale è che l'intelligence sovrana non è una questione di nicchia per gli appaltatori della difesa. È il fondamento che rende l'IA implementabile in qualsiasi contesto in cui un fallimento abbia conseguenze concrete. E con l'espansione dell'IA in un numero sempre maggiore di questi contesti, il fondamento diventa la componente più preziosa dello stack.

L'articolo di Ahmed Rashad, CEO di Perle Labs, sul perché l'intelligenza artificiale ha bisogno di un'infrastruttura di dati verificabile è apparso per la prima volta su BeInCrypto .

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto