L’intelligenza artificiale nella polizia: bilanciare promesse e pericoli nelle forze dell’ordine

L’intelligenza artificiale (AI) ha permeato quasi ogni aspetto della vita moderna, comprese le forze dell’ordine. Nel mondo della polizia, l’intelligenza artificiale promette di rendere le indagini più efficienti ed efficaci. Tuttavia, man mano che le tecnologie di intelligenza artificiale guadagnano terreno nel settore, sono emerse preoccupazioni su pregiudizi e considerazioni etiche.

Sfide nel riconoscimento facciale

Una delle applicazioni più visibili dell’intelligenza artificiale nella polizia è la tecnologia di riconoscimento facciale. Le forze di polizia si sono rivolte agli algoritmi di intelligenza artificiale per vagliare grandi quantità di CCTV e dati di immagini, riducendo i tempi e i costi necessari per l’identificazione dei volti. Tuttavia, prove crescenti suggeriscono che questi sistemi sono lungi dall’essere infallibili. Il riconoscimento facciale tramite intelligenza artificiale è soggetto a pregiudizi di genere e razziali, con una marcata mancanza di accuratezza quando si tratta di giovani donne di colore.

La radice del problema risiede nei dati di addestramento. Gli algoritmi di intelligenza artificiale apprendono dai volti a cui sono esposti durante la fase di addestramento e, se questi dati consistono prevalentemente in un dato demografico, possono portare a risultati distorti. Di conseguenza, gli individui appartenenti a gruppi sottorappresentati potrebbero avere maggiori probabilità di essere identificati erroneamente.

Polizia predittiva

Un altro settore in cui l’intelligenza artificiale ha fatto breccia è quello della polizia predittiva. Gli algoritmi analizzano i dati storici per prevedere dove e quando si verificano i crimini o identificare potenziali autori di reato. Sebbene questo approccio sembri promettente, i primi studi hanno sollevato segnali di allarme.

La polizia predittiva si basa su dati storici sulla criminalità, spesso pieni di pregiudizi. Il risultato è che i modelli di intelligenza artificiale possono inavvertitamente etichettare gli individui provenienti da comunità emarginate come sproporzionatamente “pericolosi” o “senza legge”. Ad esempio, uno studio del 2016 ha rivelato che la “mappa termica” di Chicago per i crimini violenti previsti ha portato a più arresti in quartieri a basso reddito o diversificati senza una corrispondente riduzione della violenza armata. Ciò ha spinto i politici dell’UE a introdurre normative, compreso il divieto di software di polizia predittiva.

Progressi forensi e intelligenza artificiale

Passando ad una nota più positiva, l’intelligenza artificiale si sta rivelando preziosa in ambito forense. Dati complessi, come l’analisi del DNA e le prove digitali, possono essere travolgenti per gli esperti umani. L’intelligenza artificiale può elaborare rapidamente questi dati, rendendola un potente strumento per gli investigatori.

Sviluppi recenti come PACE, un sistema di analisi delle immagini basato sull’intelligenza artificiale, possono contare particelle microscopiche come polline o residui di spari sulle scarpe dei sospettati. Il conteggio manuale di tali particelle richiederebbe mesi per un esperto forense umano, ma l’intelligenza artificiale può farlo in poche ore. Inoltre, l’analisi basata sull’intelligenza artificiale semplifica la gestione di set di dati di grandi dimensioni, come registri bancari o telefonici, aiutando gli investigatori a identificare rapidamente indizi e connessioni.

Sebbene le capacità dell’intelligenza artificiale siano impressionanti, non riescono a comprendere gli aspetti emotivi e irrazionali del comportamento criminale. Molti crimini sono guidati da emozioni potenti come rabbia, odio, avidità e paura, che l’intelligenza artificiale fatica a comprendere. Ciò sottolinea il ruolo indispensabile del giudizio e dell’intuizione umana nella risoluzione di casi complessi.

Fiducia pubblica e considerazioni etiche

La crescente integrazione dell’intelligenza artificiale nelle attività di polizia ha sollevato questioni etiche e preoccupazioni riguardanti pregiudizi, responsabilità e trasparenza. I politici riconoscono la necessità di linee guida per garantire che le tecnologie di intelligenza artificiale siano utilizzate in modo etico e responsabile. Il rapporto Horizon Scanning del Parlamento britannico valuta l’impatto dell’intelligenza artificiale sulle attività di polizia come “elevato” e stima che questi cambiamenti potrebbero verificarsi entro i prossimi cinque anni.

In risposta alle sfide poste dall’intelligenza artificiale nelle forze dell’ordine, il Ministero degli Interni ha recentemente istituito un “Patto sull’intelligenza artificiale” in collaborazione con il Consiglio nazionale dei capi di polizia (NPCC). Questo accordo delinea i principi per guidare l’uso etico dell’IA nelle attività di polizia, con l’obiettivo di trovare un equilibrio tra efficienza ed equità.

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto