I giudici federali statunitensi ammettono di aver utilizzato l’intelligenza artificiale per ordini giudiziari “pieni di errori”

Due giudici federali degli Stati Uniti hanno ammesso che il personale dei loro studi si è affidato all'intelligenza artificiale per redigere le sentenze dei tribunali e che l'esperimento è andato malissimo.

In due lettere sincere, rese pubbliche giovedì dal senatore Chuck Grassley, presidente della Commissione Giustizia del Senato, i giudici Henry T. Wingate del Mississippi e Julien Xavier Neals del New Jersey hanno affermato che strumenti di intelligenza artificiale sono stati utilizzati nella preparazione di ordinanze giudiziarie, che in seguito si sono rivelate piene di errori fattuali e vizi giuridici. Entrambe le decisioni sono state successivamente ritirate.

Grassley, che aveva chiesto spiegazioni, ha affermato: "Ogni giudice federale e la magistratura in quanto istituzione hanno l'obbligo di garantire che l'uso dell'intelligenza artificiale generativa non violi i diritti dei litiganti né impedisca un trattamento equo ai sensi della legge".

Gli errori del personale espongono i limiti dell'intelligenza artificiale in tribunale

Nella sua lettera , il giudice Neals del distretto del New Jersey ha affermato che una bozza di sentenza in una causa sui titoli azionari era stata pubblicata "per errore – errore umano" dopo che un tirocinante di giurisprudenza aveva utilizzato ChatGPT di OpenAI per ricerche senza autorizzazione o divulgazione. La decisione è stata prontamente ritirata una volta scoperto l'errore.

Per evitare che ciò si ripeta, Neals ha affermato che il suo studio ha da allora creato una politica scritta sull'intelligenza artificiale e migliorato il suo processo di revisione.

Il giudice Wingate, che presta servizio nel distretto meridionale del Mississippi, ha affermato che un assistente legale ha utilizzato lo strumento di intelligenza artificiale Perplexity "come assistente di redazione fondamentale per sintetizzare le informazioni pubblicamente disponibili sul fascicolo".

Quella bozza di ordinanza, emessa in un caso di diritti civili, è stata successivamente sostituita dopo che Wingate ne ha individuato gli errori. Wingate ha dichiarato che l'evento "ha rappresentato una mancanza di supervisione umana", aggiungendo di aver da allora inasprito le procedure di revisione all'interno del suo studio.

Critiche all'uso dell'intelligenza artificiale nel lavoro legale

L'episodio si aggiunge a una crescente lista di controversie che coinvolgono materiale legale generato dall'intelligenza artificiale. Negli ultimi anni, avvocati di diverse giurisdizioni statunitensi hanno dovuto affrontare sanzioni per aver presentato documenti redatti da chatbot contenenti citazioni di casi falsificate e precedenti penali erroneamente applicati.

All'inizio di questo mese, il sistema giudiziario dello Stato di New York ha emanato una nuova politica che impedisce a giudici e personale di inserire informazioni riservate, privilegiate o non pubbliche sui casi in strumenti di intelligenza artificiale generativa pubblici.

Sebbene la professione legale abbia rapidamente esplorato il potenziale dell'IA per migliorare l'efficienza, gli incidenti hanno messo in luce i limiti della tecnologia, in particolare la sua tendenza a generare allucinazioni o a generare informazioni plausibili ma false . Per i tribunali, dove l'integrità, l'accuratezza delle sentenze e l'onere della prova sono fondamentali, tali lacune rischiano di minare la fiducia del pubblico nel sistema giudiziario.

Grassley, che ha elogiato Wingate e Neals per aver ammesso i propri errori, ha anche esortato la magistratura a mettere in atto linee guida più rigorose in materia di intelligenza artificiale.

L'Ufficio Amministrativo dei Tribunali degli Stati Uniti non ha pubblicato linee guida complete sull'uso dell'IA, sebbene diverse corti distrettuali stiano valutando la possibilità di un impiego limitato e supervisionato. I giuristi, d'altro canto, stanno proponendo una norma sulla trasparenza, che imporrà ai giudici di menzionare pubblicamente qualsiasi utilizzo dell'IA nelle loro opinioni o ordinanze, in modo simile ai requisiti di citazione per la ricerca esterna.

Gli incidenti si verificano mentre le agenzie federali e gli ordini professionali continuano ad affrontare questioni relative alla responsabilità dell'intelligenza artificiale.

Iscriviti gratuitamente per 30 giorni a una community premium di trading di criptovalute , normalmente al costo di 100 $ al mese.

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto