L’avvocato affronta il contraccolpo dell’eccessiva dipendenza da ChatGPT in tribunale

Un avvocato di New York, Steven Schwartz dello studio legale Levidow, Levidow & Oberman, è stato preso di mira per aver incorporato ChatGPT, un modello di linguaggio AI, nella sua ricerca legale mentre gestiva una causa contro Avianca Airlines. Il caso coinvolge Robert Mata, che afferma di aver subito un infortunio da un carrello di servizio durante un volo con la compagnia aerea colombiana nel 2019, come riportato da CNN Business il 28 maggio.

L'avvocato ha presentato documentazioni errate ottenute da ChatGPT

La vicenda ha preso una svolta inaspettata quando il giudice che sovrintende al procedimento ha rilevato incongruenze ed errori fattuali nella documentazione fornita. In una dichiarazione giurata datata 24 maggio, Schwartz ha ammesso di aver utilizzato ChatGPT per le sue ricerche legali e ha affermato di non essere a conoscenza del potenziale di false informazioni all'interno del suo contenuto. Ha inoltre affermato che questa era la prima volta che utilizzava il modello AI per la ricerca legale.

L'esame del giudice ha rivelato che diversi casi presentati dall'avvocato sembravano essere fittizi, con citazioni fabbricate e citazioni interne imprecise. Inoltre, alcuni casi citati sono risultati inesistenti e si è verificato un caso in cui un numero di registro è stato erroneamente associato a un'altra dichiarazione del tribunale.

L'avvocato ha espresso rammarico per aver fatto affidamento sul chatbot AI senza condurre la sua due diligence. La sua dichiarazione giurata ha sottolineato che si rammarica molto di aver utilizzato l'intelligenza artificiale generativa nel processo di ricerca e giura di non ripetere la pratica senza una verifica assoluta dell'autenticità.

Gli analisti discutono del potenziale dell'IA che sostituisce gli esseri umani

L'integrazione di ChatGPT nei flussi di lavoro professionali ha scatenato un dibattito in corso sulla sua idoneità e affidabilità. Mentre l'intelligenza dei modelli di intelligenza artificiale come ChatGPT continua ad avanzare, permangono dubbi sulla loro capacità di sostituire completamente i lavoratori umani. Syed Ghazanfer, uno sviluppatore di blockchain, riconosce il valore di ChatGPT ma mette in dubbio le sue capacità di comunicazione come sostituto completo dell'interazione umana. Sottolinea che i linguaggi di programmazione sono stati creati per soddisfare requisiti che potrebbero non essere trasmessi in modo efficace nell'inglese nativo.

Con il progredire della tecnologia AI, sia gli sviluppatori che i professionisti navigano nel delicato equilibrio tra lo sfruttamento delle sue capacità e la garanzia dell'accuratezza e della validità delle informazioni che genera. Il caso che coinvolge Steven Schwartz e il suo utilizzo di ChatGPT funge da ammonimento, sottolineando l'importanza della supervisione umana e della valutazione critica nella ricerca legale e in altri contesti professionali.

Sebbene i modelli di intelligenza artificiale come ChatGPT possano aiutare a semplificare determinate attività, dovrebbero essere utilizzati insieme all'esperienza umana e a processi di verifica approfonditi per ridurre al minimo il rischio di inesattezze e informazioni false. Man mano che i confini delle capacità dell'IA si espandono, rimane essenziale per i professionisti esercitare prudenza e discernimento quando incorporano tali strumenti nel loro lavoro.

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto