L'Alta Corte di Inghilterra e Galles ha messo in guardia gli avvocati dai pericoli dell'affidamento di strumenti di intelligenza artificiale come ChatGPT per la ricerca legale. La giudice Victoria Sharp ha stabilito che questi strumenti di intelligenza artificiale generativa non sono in grado di condurre ricerche legali affidabili.
Il giudice Sharp ha affermato che gli strumenti di intelligenza artificiale potrebbero fornire risposte apparentemente coerenti e plausibili, ma anche essere completamente errati. Ha chiarito che, sebbene gli avvocati possano utilizzare l'intelligenza artificiale nelle loro ricerche, hanno l'obbligo professionale di verificarne l'accuratezza facendo riferimento a fonti autorevoli prima di utilizzarla nel loro lavoro professionale.
Le dichiarazioni del giudice sono state pubblicate in un contesto di crescente preoccupazione per i casi in cui gli avvocati hanno citato falsità apparentemente generate dall'intelligenza artificiale . La decisione di Dame Sharp ha citato due casi recenti in cui è stato scoperto che gli avvocati avevano citato casi falsi generati dall'intelligenza artificiale in procedimenti giudiziari. Ha affermato che la sua sentenza sarà condivisa con gli ordini professionali del paese, tra cui il Consiglio dell'Ordine degli Avvocati e la Law Society.
L'avvocato Hussain cita casi inesistenti in un caso da 120 milioni di dollari
Avvocati, attenzione: i pericoli dell'uso dell'intelligenza artificiale per redigere documenti senza verifica
Nel caso Al-Haroun, il tribunale ha scoperto ben 45 citazioni inesistenti o contenenti citazioni inesatte. Incredibilmente, queste false citazioni erano state originariamente generate… pic.twitter.com/CbgNy1z7X1
– Lawpoint Uganda (@Lawpointuganda) 7 giugno 2025
L'avvocato Abid Hussain ha citato casi inesistenti in una causa da 120 milioni di dollari (89 milioni di sterline) riguardante una presunta violazione di un accordo di finanziamento con la Qatar National Bank. Hussain ha presentato un fascicolo contenente 45 citazioni, di cui 18 inesistenti, mentre molte altre non contenevano le citazioni a loro attribuite.
Il cliente, Hamad Al-Haroun, si è scusato per aver involontariamente ingannato la corte con dati falsi provenienti da strumenti di intelligenza artificiale disponibili al pubblico, affermando di essere responsabile lui stesso e non il suo avvocato, Hussain. Sharp, tuttavia, ha affermato che è "straordinario" che l'avvocato si sia affidato al cliente per l'accuratezza della propria ricerca legale, e non viceversa.
Il giudice Sharp, presidente della King's Bench Division, ha affermato che un uso improprio dell'intelligenza artificiale avrebbe gravi implicazioni per l'amministrazione della giustizia e la fiducia del pubblico nel sistema giudiziario. Ha aggiunto che gli avvocati che ne fanno un uso improprio potrebbero incorrere in ammonizioni pubbliche e denunce alla polizia. Ha invitato il Consiglio dell'Ordine degli Avvocati e la Law Society a prendere in considerazione misure per arginare il problema "con urgenza".
Il giudice ha inoltre chiesto ai responsabili degli studi legali e ai soci amministratori degli avvocati di garantire che tutti gli avvocati comprendano i propri doveri professionali ed etici quando utilizzano l'intelligenza artificiale.
"Le risposte possono contenere affermazioni convincenti che sono semplicemente false. Possono citare fonti inesistenti. Possono pretendere di citare passaggi da una fonte autentica che non compaiono in quella fonte."
– Giudice Victoria Sharp , Presidente della King's Bench Division
Ian Jeffery, amministratore delegato della Law Society of England and Wales, ha affermato che la sentenza ha messo a nudo i pericoli dell'utilizzo dell'IA nel settore legale. Ha aggiunto che gli strumenti di IA sono sempre più utilizzati a supporto dell'erogazione dei servizi legali. Tuttavia, il rischio concreto di risultati errati prodotti dall'IA generativa impone agli avvocati di controllare, rivedere e garantire l'accuratezza del proprio lavoro.
L'avvocato Forey cita cinque casi falsi nella richiesta di alloggio di un inquilino
L'avvocato Sarah Forey ha citato cinque casi falsi nella richiesta di risarcimento danni presentata da un inquilino contro il borgo londinese di Haringey. Forey ha negato di aver utilizzato l'intelligenza artificiale , ma Sharp ha affermato di non aver fornito al tribunale una spiegazione coerente dell'accaduto.
Il giudice ha inoltre avvertito che presentare materiale falso come autentico potrebbe essere considerato oltraggio alla corte o, "nei casi più eclatanti", deviare il corso della giustizia. Ha aggiunto che ciò potrebbe comportare gravi sanzioni per gli avvocati che non adempiono ai propri obblighi professionali.
Sharp ha affermato che Forey ha dimostrato una preoccupante mancanza di intuito, aggiungendo che la corte non ha accettato che la mancanza di accesso ai libri di testo o ai servizi di abbonamento elettronico all'interno delle camere, se così fosse, fornisse qualcosa di più di una mitigazione marginale.
Ha affermato che Forey avrebbe potuto verificare i casi da lei citati consultando il sito web della giurisprudenza degli Archivi Nazionali o consultando la biblioteca giuridica del suo Inn of Court. Sharp ha osservato che Forey deve aver deliberatamente incluso citazioni false o utilizzato l'intelligenza artificiale, pur avendolo negato nella sua deposizione testimoniale.
Il mese scorso, il giudice Ritchie ha dichiarato che, citando cinque casi falsi, il comportamento di Forey, allora studente presso la 3 Bolt Court, e degli avvocati dell'Haringey Law Centre di Londra era improprio, irragionevole e negligente. Ha inoltre condannato tutti al pagamento delle spese processuali non rimborsate.
Cryptopolitan Academy: Stanco delle oscillazioni del mercato? Scopri come la DeFi può aiutarti a generare un reddito passivo costante. Registrati ora