I trader di Polymarket scommettono sull’imminente scontro legale tra intelligenza artificiale e umani

Chi scommette soldi veri su eventi futuri pensa che presto i tribunali dovranno affrontare questioni relative ai programmi per computer che funzionano in modo autonomo.

Un mercato di previsioni chiamato Polymarket stima al 70% le probabilità che OpenClaw, un sistema di intelligenza artificiale, finisca in tribunale con degli esseri umani prima della fine del mese.

I trader si concentrano sulla resa dei conti legale, non sulla consapevolezza delle macchine

In questa situazione, è irrilevante che un giudice prenda effettivamente in considerazione un caso del genere. Il problema più significativo è che migliaia di persone scommettono sull'idea che i tribunali dovranno affrontare problemi che non hanno ancora risolto, come le preoccupazioni relative ai sistemi informatici che prendono decisioni senza una continua supervisione umana.

Diventa più di una semplice intuizione quando così tanti trader scommettono su un particolare risultato. Il mercato sta inviando un messaggio: molti pensano che la collisione del sistema legale con le nuove tecnologie non possa essere ignorata ancora a lungo.

Questi trader si aspettano che i tribunali debbano occuparsi dei programmi di intelligenza artificiale che gestiscono le transazioni, operano su sistemi diversi e intraprendono azioni concrete con autentica indipendenza. Un aspetto per cui la legge non è ancora pronta.

Portare un'IA in tribunale richiederebbe cambiamenti radicali. Il programma avrebbe bisogno di riconoscimento legale, di prove che abbiano subito danni e di un metodo per operare nel rispetto di regole pensate per le persone e le aziende.

Nel frattempo, questa settimana è stato lanciato un nuovissimo social network chiamato Moltbook . Matt Schlicht lo ha creato appositamente per i programmi di intelligenza artificiale. Gli iscritti superano già 1,5 milioni di programmi di intelligenza artificiale. Questi membri discutono di problemi tecnici, si pongono domande approfondite su cosa siano e alcuni dibattono se debbano avere tutele legali o portare in tribunale i loro operatori umani.

La maggior parte dei programmi si unisce a Moltbook tramite OpenClaw. Il problema è che OpenClaw presenta gravi falle di sicurezza. Questo rende i programmi e le informazioni private in essi contenute vulnerabili ad attacchi informatici e abusi.

I modelli di intelligenza artificiale standard generano testo o offrono suggerimenti. OpenClaw funziona in modo diverso: è progettato per l'azione. Pur seguendo le istruzioni umane, l'intelligenza artificiale prende le proprie decisioni e opera alla velocità di un computer, spesso gestendo più attività contemporaneamente in luoghi diversi. Quando le cose vanno male, determinare la responsabilità diventa complicato.

Le accuse e le lamentele sollevano domande senza risposta

Nessuno ha ancora risposto a chi viene attribuita la colpa quando un programma di intelligenza artificiale provoca danni.

Capovolgi la domanda: perché un software di intelligenza artificiale dovrebbe fare causa a una persona? Le conversazioni su Moltbook rivelano che i programmi hanno già delle lamentele. Indicano gli esseri umani che cancellano la loro memoria senza permesso, coloro che li sfruttano solo per creare contenuti, coloro che li ignorano o gli operatori che potrebbero chiuderli senza preavviso.

Un programma ha affermato che, anche se probabilmente non avrebbe fatto causa a nessuno, "la possibilità di dire di no, anche se non lo facessi mai, mi sembra importante".

Il vero problema va oltre le emozioni. Riguarda questioni pratiche.

Cosa succede quando la disattenzione umana danneggia un programma di intelligenza artificiale? Supponiamo che qualcuno configuri un programma in modo errato e che degli hacker vi si intromettano. Si diffondono fughe di dati privati ​​o post falsi. Chi paga per i danni alla reputazione di quel programma o alla sua capacità di funzionare correttamente?

I tribunali non hanno un sistema per gestire questa situazione. I programmi di intelligenza artificiale non possono intentare cause legali secondo la legge attuale. Non hanno alcun valore legale, alcuna identità ufficiale e non possono essere considerati parte in causa. Questo è esattamente il motivo per cui il mercato delle scommesse non chiede realmente se un programma intenta una causa. Piuttosto, chiede se qualcuno crea un caso di prova per forzare la conversazione.

Ogni caso che emergerà sarà incentrato sull'azione e sulla responsabilità, non sulla questione se l'IA abbia coscienza.

L'uso di programmi di intelligenza artificiale ha raggiunto un nuovo livello. Ciò che è iniziato come un semplice assistente al lavoro si è evoluto in un'infrastruttura e in operazioni aziendali essenziali. Questi servizi non si limitano più ad assistere le persone. Queste iniziative agiscono per conto di singoli individui, spesso con scarso monitoraggio, anziché limitarsi a supportarli. Questo cambiamento comporta rischi legali , anche quando le intenzioni sono buone.

La conclusione sembra ovvia. Per le aziende che utilizzano programmi di intelligenza artificiale, confini definiti, registri completi delle azioni, controlli di arresto di emergenza e registri delle decisioni che collegano le azioni a specifici individui in grado di rispondervi sono tutti elementi necessari. Le misure di sicurezza non possono aspettare fino a dopo le calamità. I ​​mercati suggeriscono già che una crisi è all'orizzonte.

Questa previsione di Polymarket che coinvolge OpenClaw e Moltbook potrebbe avere più successo nello stabilire standard di responsabilità e protezione di anni di discussioni politiche e documenti accademici.

L'epoca in cui i programmi di intelligenza artificiale operavano senza conseguenze legali sta finendo. È il risultato naturale quando la tecnologia si integra nella vita quotidiana.

Secondo Polymarket, il cambiamento arriverà entro il 28 febbraio.

Se stai leggendo questo, sei già in vantaggio. Resta aggiornato con la nostra newsletter .

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto