Perché le prove video potenziate dall’intelligenza artificiale non sono ammissibili in tribunale

L’uso di prove video “potenziate dall’intelligenza artificiale” in un noto procedimento giudiziario per triplice omicidio è stato vietato da un tribunale con una decisione storica presa a King County, Washington. In particolare, quello dell’elaborazione dei dati visivi è un ambito in cui la sentenza del giudice Leroy McCullough evidenzia i limiti della tecnologia AI. L’uso improprio degli strumenti di intelligenza artificiale, che spesso si traduce in interpretazioni errate e complica i procedimenti legali, è una crescente fonte di preoccupazione, come evidenzia questa negazione.

Svelare la realtà delle prove potenziate dall’intelligenza artificiale

In quest’era di rapido progresso tecnologico, l’integrazione dell’intelligenza artificiale (AI) in diversi campi ha generato in egual misura intrigo e sfiducia. Il miglioramento dei dati visivi è un’area in cui si dice che l’intelligenza artificiale abbia promesso scoperte rivoluzionarie. Ma l’ultima sentenza dello stato di Washington è un promemoria che fa riflettere sui pericoli connessi all’uso di prove generate dall’intelligenza artificiale in tribunale.

Anche se la fotografia potenziata dall’intelligenza artificiale è bella, i suoi principi di base sono misteriosi e talvolta fraintesi. La minaccia che questi approcci offrono è dimostrata dalla decisione del giudice McCullough di impedire la presentazione di prove video potenziate dall'intelligenza artificiale nel processo per triplice omicidio. Oltre alla mancanza di trasparenza negli algoritmi di intelligenza artificiale utilizzati per modificare i dati visivi, la corte ha espresso preoccupazione per il rischio di interpretazioni errate e di distorsione delle prove fattuali.

Sfidare le idee sbagliate

Questo caso nello stato di Washington è un sintomo di false credenze sull’imaging potenziato dall’intelligenza artificiale piuttosto che di un’incidenza singolare. Distinguere tra informazioni nascoste e una rappresentazione più accurata della realtà non è il risultato dell’applicazione degli upscaler dell’intelligenza artificiale alle fotografie. Invece di agire in questo modo, queste tecnologie funzionano aggiungendo ulteriori informazioni ai dati già esistenti, il che spesso si traduce in interpretazioni e conclusioni errate.

Le teorie del complotto sulla partecipazione di Chris Rock agli Academy Award 2022 sono un ottimo esempio dei pericoli associati alle immagini migliorate dall'intelligenza artificiale. Come risultato delle persone che utilizzano algoritmi di upscaling dell'intelligenza artificiale per eseguire screenshot dell'incidente, si ipotizzava che Rock indossasse un face pad dopo un incontro con Will Smith. La successiva analisi video ad alta risoluzione, tuttavia, ha chiaramente confutato queste accuse e ha mostrato i rischi associati al fatto di dipendere esclusivamente dalle immagini generate dall’intelligenza artificiale come prova.

Il rifiuto da parte del tribunale di Washington di fornire prove potenziate dall’intelligenza artificiale nel caso di omicidio solleva notevoli preoccupazioni riguardo alla validità e all’ammissibilità di tali dati in tribunale poiché il sistema legale fatica a incorporare questa tecnologia. In futuro, sarà fondamentale promuovere una comprensione articolata delle capacità e dei limiti dell’intelligenza artificiale per impedire l’uso improprio e la diffusione della disinformazione. Qual è il modo migliore per la società di bilanciare i vantaggi derivanti dalle scoperte dell’intelligenza artificiale con la protezione dalle implicazioni legali?

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto