Microsoft ha vietato alle forze di polizia degli Stati Uniti di ottenere servizi di intelligenza artificiale generativa in esecuzione sul servizio Azure OpenAI. Si tratta di un nuovo approccio affrontato mercoledì nei termini di servizio aggiornati e mira a rispondere al crescente dilemma etico che l’IA deve affrontare nelle forze dell’ordine.
L’aggiornamento della politica evidenzia le preoccupazioni etiche
I termini rivisti prevedono espressamente che tali integrazioni non possano essere utilizzate “da o per” le agenzie di polizia negli Stati Uniti. Questa restrizione incorpora anche i modelli di analisi del testo e del parlato, sottolineando l’enfasi di Microsoft sull’uso responsabile dell’intelligenza artificiale. Come regolamento aggiuntivo, è stata introdotta una clausola separata per vietare specificamente l’uso della tecnologia di riconoscimento facciale in tempo reale sulle fotocamere mobili, comprese le body camera e le dashcam, in ambienti non controllati.
L’innesco di questi movimenti potrebbe essere identificato nei recenti progressi del settore tecnologico. Axon, la nota azienda tecnologica specializzata nel settore militare e delle forze dell'ordine, ha appena annunciato un prodotto che utilizza il modello di verbalizzatore di OpenAI con testo generativo GPT-4 per aiutare a riassumere l'audio registrato dalle telecamere del corpo. Le informazioni false generate e la distorsione del pregiudizio razziale nei dati di formazione sono state affrontate per mostrare immediatamente le preoccupazioni di alcuni critici.
Implicazioni e spazio di interpretazione
Sebbene la politica aggiornata rappresenti la posizione decisiva di Microsoft, consente comunque un'interpretazione. Il divieto del servizio Azure OpenAI si applica alla polizia statunitense solo man mano che continua la distribuzione internazionale. Inoltre, le limitazioni all’uso della tecnologia di riconoscimento facciale si applicano esclusivamente al suo utilizzo da parte delle forze dell’ordine statunitensi, escludendo le telecamere fisse in ambienti controllati.
Una metodologia così equilibrata si adatta bene all’ampia strategia di intelligenza artificiale di Microsoft per le forze dell’ordine e la difesa. Nel frattempo, nonostante i divieti su determinati usi, è nata lentamente la cooperazione tra OpenAI e agenzie governative, tra cui il Pentagono è un ottimo esempio. Tali partenariati indicano un cambio di posizione per OpenAI così come per Microsoft che sta cercando applicazioni di intelligenza artificiale nelle tecnologie militari.
Coinvolgimento del governo e dinamiche di settore
L'adozione del servizio Azure OpenAI di Microsoft da parte degli enti governativi ha subito un'accelerazione poiché Azure Government include ulteriori strumenti di conformità e gestione per casi d'uso da parte delle forze dell'ordine. Candice Ling, Senior Vice President di Microsoft Federal, avrà il compito di ottenere ulteriori approvazioni da parte del Dipartimento della Difesa per il servizio Azure OpenAI, dimostrando così che la piattaforma può essere utile in missioni urgenti.
L’area dinamica dell’etica e della regolamentazione dell’IA crea la necessità per le aziende tecnologiche di intraprendere azioni ponderate in anticipo. Attraverso la sua decisione di evitare l’utilizzo dell’intelligenza artificiale nelle forze dell’ordine, Microsoft dimostra una tendenza più ampia del settore ad aumentare la responsabilità e la trasparenza nell’implementazione dell’intelligenza artificiale. Durante le conversazioni sulla regolamentazione dell’IA, i fornitori di tecnologia, i politici e i gruppi di attivisti dovranno lavorare insieme per risolvere eticamente le nuove questioni.
La mossa di Microsoft di impedire ai dipartimenti di polizia degli Stati Uniti di utilizzare il servizio Azure OpenAI per scenari particolari è la prova dell’approccio deliberato e mirato che l’azienda sta adottando per affrontare le preoccupazioni etiche relative alla distribuzione dell’intelligenza artificiale. In effetti, l’emendamento rivela la sincerità dei politici e le complessità implicate in questo atto di bilanciamento. Considerando l’evoluzione delle discussioni etiche sull’IA, le parti interessate dovrebbero sempre partecipare a un dialogo costruttivo per creare una crescita e una fornitura responsabili dell’IA.