In una recente intervista, il CEO di IBM Arvind Krishna ha chiesto una maggiore responsabilità nel settore dell’intelligenza artificiale, suggerendo che sia le società che sviluppano l’intelligenza artificiale sia quelle che la utilizzano in modo improprio dovrebbero essere ritenute responsabili per eventuali danni causati dalla tecnologia. Questa posizione distingue IBM da alcuni dei suoi colleghi del settore che sostengono misure normative più leggere riguardanti l’intelligenza artificiale.
Krishna ha sottolineato l’importanza della responsabilità legale come forza trainante per la responsabilità, attingendo a secoli di storia economica per sostenere la sua tesi. Secondo lui, ritenere gli sviluppatori di intelligenza artificiale responsabili delle carenze nei loro sistemi che provocano danni nel mondo reale è un passo necessario per garantire un uso responsabile dell’intelligenza artificiale. Inoltre, Krishna ritiene che anche le aziende che utilizzano l’intelligenza artificiale dovrebbero assumersi la responsabilità quando l’uso della tecnologia porta a problemi, come ad esempio accuse di discriminazione sul lavoro.
Un appello alla responsabilità nell’intelligenza artificiale
La posizione di Krishna sulla regolamentazione dell'IA prende una strada diversa rispetto all'approccio adottato con le piattaforme di social media, che hanno goduto di ampie tutele legali stabilite durante i primi giorni di Internet. Sostiene che imponendo la responsabilità legale alle società di intelligenza artificiale, ci sarà un maggiore incentivo per loro a creare sistemi più sicuri che aderiscano alle leggi esistenti, come i diritti d’autore e di proprietà intellettuale. La sua visione per il settore dell'intelligenza artificiale è quella in cui la responsabilità guida l'innovazione e la conformità.
Krishna si è impegnato attivamente nelle discussioni sulla regolamentazione dell'IA a Washington, partecipando recentemente a un forum insieme agli amministratori delegati di aziende come Meta, Google, Amazon e X. Il loro scopo era quello di consigliare i senatori su come regolamentare efficacemente l'intelligenza artificiale, riflettendo la crescente consapevolezza del settore nei confronti della regolamentazione dell'intelligenza artificiale. la necessità di una governance responsabile. IBM ha inoltre aderito all’impegno della Casa Bianca di costruire modelli di intelligenza artificiale sicuri, sottolineando il proprio impegno per lo sviluppo e l’implementazione responsabile delle tecnologie di intelligenza artificiale.
Sebbene Krishna riconosca che il suo appello affinché i creatori di intelligenza artificiale siano ritenuti responsabili potrebbe non renderlo popolare tra tutti, sostiene che quando si tratta di infrastrutture critiche e casi d’uso cruciali, il livello per l’implementazione dell’intelligenza artificiale dovrebbe essere fissato più in alto. Riconosce inoltre che la stessa IBM sarebbe soggetta a rischi legali in base alle regole che sostiene. Tuttavia, sottolinea che IBM costruisce modelli di intelligenza artificiale principalmente per altre aziende, che hanno un interesse acquisito a rispettare la legge. Al contrario, modelli di intelligenza artificiale come ChatGPT di OpenAI o Llama 2 di Meta sono più accessibili al pubblico e, quindi, più suscettibili a una vasta gamma di utenti.
Rafforzare la responsabilità e affrontare le sfide
Sebbene Krishna non abbia approfondito specifici meccanismi di applicazione della responsabilità, i suoi commenti sono in linea con le più ampie raccomandazioni politiche di IBM per l’intelligenza artificiale, come sottolineato in un recente post sul blog. Ha messo in guardia le autorità di regolamentazione dal richiedere licenze per sviluppare la tecnologia AI, rompendo i ranghi con concorrenti come Microsoft. Inoltre, ha esortato a non garantire l’immunità totale ai creatori e agli utilizzatori dell’IA, sottolineando l’importanza di ritenerli responsabili per eventuali conseguenze negative derivanti dall’uso dell’IA.
Dal punto di vista di Krishna, mentre aziende come IBM possono sostenere la responsabilità, sono in ultima analisi i legislatori che devono formulare le norme e i regolamenti che governano l’intelligenza artificiale. Incoraggia il Congresso e il governo federale a considerare il quadro di responsabilità nel settore dell’intelligenza artificiale.
Recentemente, IBM ha annunciato una mossa significativa per fornire copertura legale ai clienti aziendali accusati di violazioni involontarie di copyright o diritti di proprietà intellettuale attraverso la sua intelligenza artificiale generativa. Questa decisione rispecchia un’iniziativa simile di Microsoft, che mira ad alleviare le preoccupazioni sui modelli di intelligenza artificiale generativa che utilizzano vasti set di dati per creare immagini, testo e altri contenuti.
Krishna ritiene che questa mossa accelererà la crescita del mercato e creerà un precedente cruciale nel settore. Sottolinea che la responsabilità dovrebbe essere una responsabilità condivisa in tutto l’ecosistema dell’intelligenza artificiale, sottolineando la necessità di discussioni continue su come applicarla in modo efficace.
L'appello di Arvind Krishna alla responsabilità nel settore dell'IA evidenzia il panorama in evoluzione della regolamentazione e della governance dell'IA. Poiché la tecnologia continua ad avanzare, la discussione sull’etica dell’IA, sulla responsabilità legale e sull’implementazione responsabile diventa sempre più vitale. Il percorso da seguire richiederà la collaborazione tra leader del settore, regolatori e policy maker per trovare il giusto equilibrio tra innovazione e responsabilità nell’ecosistema dell’intelligenza artificiale.