In un contesto di aumento dei volumi di dati e di schemi di frode in evoluzione, le agenzie federali stanno riconoscendo il potenziale degli strumenti di intelligenza artificiale (AI) per migliorare la supervisione e contrastare le attività fraudolente. Il Pandemic Response Accountability Committee (PRAC), responsabile della supervisione della spesa relativa alla pandemia, ha identificato l’intelligenza artificiale come uno strumento prezioso per identificare potenziali frodi nei dati di spesa legati alla pandemia. Grazie alla capacità dell'intelligenza artificiale di analizzare rapidamente grandi quantità di dati, le agenzie stanno esplorando il suo potenziale per segnalare attività fraudolente e proteggere i programmi di benefit federali.
Il ruolo dell'intelligenza artificiale nell'identificazione di attività fraudolente
Il Chief Data Officer del PRAC, Brien Lorenze, ha sottolineato l’importanza dell’intelligenza artificiale nell’affrontare le frodi nell’ambito della spesa pandemica. Sfruttando le capacità dell’intelligenza artificiale, le agenzie possono identificare identità sintetiche e società di comodo che i truffatori potrebbero sfruttare per accedere in modo improprio ai benefici federali. Lorenze ha sottolineato l’“ambiente ricco di obiettivi” per l’IA nella supervisione della pandemia e il suo potenziale per accelerare l’identificazione di modelli fraudolenti.
Il PRAC detiene circa 95 accordi sull'utilizzo dei dati delle agenzie e gestisce circa un miliardo di record di transazioni da otto agenzie. La navigazione in questo vasto set di dati pone sfide a causa delle diverse regole e governance sull’utilizzo dei dati. Garantire l’uso etico e l’accuratezza degli strumenti di intelligenza artificiale rimane una priorità per l’amministrazione Biden.
Il potenziale dell'intelligenza artificiale per combattere le frodi in evoluzione
Mentre l’amministrazione Biden lavora per un’implementazione etica dell’IA, le agenzie sono alle prese con la crescente minaccia di schemi di frode accelerati da modelli dannosi di linguaggio ampio come FraudGPT e WormGPT. Questi modelli consentono ai truffatori di creare malware e attacchi di phishing in modo più efficiente, ponendo nuove sfide alle agenzie che combattono le frodi.
Lorenze ha riconosciuto che strumenti come FraudGPT e WormGPT possono aiutare i truffatori a realizzare attacchi più sofisticati, sottolineando la necessità che le agenzie comprendano questi strumenti per contrastarli efficacemente. La dualità dell’intelligenza artificiale richiede che le agenzie ne comprendano il potenziale per consentire la frode e la sua capacità di identificare attività fraudolente.
Migliorare l'intelligenza con gli strumenti di intelligenza artificiale
Heather Martin, della Direzione per i dati e l'innovazione digitale della National Geospatial-Intelligence Agency, ha evidenziato il potenziale dell'intelligenza artificiale nell'aiutare gli analisti a navigare su vasti volumi di immagini satellitari. Man mano che il volume dei dati cresce, gli strumenti di intelligenza artificiale aiutano gli analisti di intelligence a localizzare in modo efficiente gli oggetti, consentendo loro di concentrarsi su attività con priorità più elevata e analisi approfondite.
Sebbene l’intelligenza artificiale sia promettente, agenzie come US Citizenship and Immigration Services (USCIS) stanno adottando misure caute verso la sua adozione. Damian Kostiuk, vicedirettore dei dati dell’USCIS, ha sottolineato che i casi d’uso iniziali dell’intelligenza artificiale sono relativamente banali a causa di considerazioni legali. L’USCIS utilizza l’intelligenza artificiale per pre-redigere i documenti, ma la supervisione umana rimane fondamentale per garantire l’accuratezza e la conformità normativa.
Sfide nell'ambiente e nella condivisione dei dati
Kostiuk ha sottolineato che l’intelligenza artificiale richiede dati estesi per la formazione, ma molte agenzie federali operano in silos di dati, ostacolando la disponibilità di set di dati completi per i modelli di intelligenza artificiale. La condivisione dei dati tra agenzie rimane una sfida, limitando l’efficacia della tecnologia AI.
Il Dipartimento del Commercio sta conducendo un rapporto di valutazione della maturità dei dati a livello di agenzia per affrontare queste sfide legate ai dati. Questa valutazione mira a valutare il modo in cui le agenzie governano, gestiscono e sfruttano i dati, identificando lacune e opportunità di miglioramento. Migliorando la qualità, la governance, l’accessibilità e la condivisione dei dati, le agenzie possono sfruttare il potenziale dell’intelligenza artificiale in modo più efficace.
Il panorama in evoluzione delle frodi, spinto da modelli linguistici avanzati, richiede l’uso dell’intelligenza artificiale da parte delle agenzie per comprendere e contrastare le attività fraudolente. L’attenzione del PRAC sullo sfruttamento dell’intelligenza artificiale per identificare potenziali frodi nella spesa pandemica esemplifica il crescente riconoscimento del potenziale dell’intelligenza artificiale per semplificare la supervisione e migliorare le capacità di rilevamento delle frodi. Poiché le agenzie procedono con cautela, affrontare le sfide legate ai dati e migliorare l’utilizzo dei dati sarà essenziale per sbloccare il vero potenziale dell’intelligenza artificiale nella lotta alle frodi e nel rafforzamento della supervisione.