Microsoft blocca inavvertitamente i dipendenti da ChatGPT durante il test dei sistemi di sicurezza

Microsoft blocca inavvertitamente i dipendenti da ChatGPT durante il test dei sistemi di sicurezza

Microsoft, un importante investitore in OpenAI, ha temporaneamente bloccato i suoi dipendenti dall'accesso a ChatGPT, il rinomato strumento di intelligenza artificiale di OpenAI.

Il blocco è stato successivamente identificato come un risultato involontario dei test del sistema di sicurezza per i modelli linguistici di grandi dimensioni (LLM) .

Microsoft blocca brevemente l'utilizzo di ChatGPT

La mossa di Microsoft è venuta alla luce un giovedì, quando i dipendenti del colosso del software si sono trovati esclusi dall'utilizzo di ChatGPT. Microsoft ha annunciato internamente :

“A causa di problemi di sicurezza e di dati, numerosi strumenti di intelligenza artificiale non sono più disponibili per l’utilizzo da parte dei dipendenti”.

La restrizione non era esclusiva di ChatGPT ma estesa ad altri servizi AI esterni come Midjourney e Replika.

Nonostante la confusione iniziale, Microsoft ha ripristinato l'accesso a ChatGPT dopo aver identificato l'errore. Un portavoce ha poi chiarito:

"Stavamo testando i sistemi di controllo degli endpoint per i LLM e inavvertitamente li abbiamo attivati ​​per tutti i dipendenti."

Microsoft ha incoraggiato i suoi dipendenti e clienti a utilizzare servizi come Bing Chat Enterprise e ChatGPT Enterprise, sottolineando la loro superiore protezione della privacy e della sicurezza.

Il rapporto tra Microsoft e OpenAI è stretto. Microsoft ha sfruttato i servizi di OpenAI per migliorare il proprio sistema operativo Windows e le applicazioni Office, con questi servizi in esecuzione sull'infrastruttura cloud Azure di Microsoft.

ChatGPT, un servizio con oltre 100 milioni di utenti, è rinomato per le sue risposte umane ai messaggi di chat.

Variazione dei visitatori del sito web ChatGPT dal lancio. Fonte: ToolTester
Variazione dei visitatori del sito web ChatGPT dal lancio. Fonte: ToolTester

È stato addestrato su una vasta gamma di dati Internet, il che ha portato alcune aziende a limitarne l'utilizzo per impedire la condivisione di dati riservati. L'aggiornamento di Microsoft consiglia l'uso del proprio strumento Bing Chat , che si basa anche sui modelli di intelligenza artificiale di OpenAI.

Valutare i rischi

Sulla scia di questi eventi, OpenAI, la società madre di ChatGPT, ha lanciato un team di preparazione . Questo team, guidato da Aleksander Madry, direttore del Center for Deployable Machine Learning del Massachusetts Institute of Technology, mira a valutare e gestire i rischi posti dai modelli di intelligenza artificiale.

Questi rischi includono la persuasione personalizzata, la sicurezza informatica e le minacce di disinformazione.

Ulteriori informazioni: 11 migliori estensioni Chrome ChatGPT da provare nel 2023

L'iniziativa di OpenAI arriva in un momento in cui il mondo è alle prese con i potenziali rischi dell'IA di frontiera, definiti come:

"Modelli di intelligenza artificiale generica altamente capaci in grado di eseguire un'ampia varietà di compiti e di eguagliare o superare le capacità presenti nei modelli più avanzati di oggi."

Mentre l’intelligenza artificiale continua ad evolversi e a modellare il nostro mondo, aziende come Microsoft e OpenAI si stanno impegnando per garantirne un utilizzo sicuro e responsabile, spingendo al contempo i limiti di ciò che l’intelligenza artificiale può ottenere.

Le migliori piattaforme crittografiche negli Stati Uniti | Novembre 2023

Disclaimer

In aderenza alle linee guida del Trust Project, BeInCrypto si impegna a fornire rapporti imparziali e trasparenti. Questo articolo di notizie mira a fornire informazioni accurate e tempestive. Tuttavia, si consiglia ai lettori di verificare i fatti in modo indipendente e di consultare un professionista prima di prendere qualsiasi decisione basata su questo contenuto.
Questo articolo è stato inizialmente compilato da un'intelligenza artificiale avanzata, progettata per estrarre, analizzare e organizzare informazioni da un'ampia gamma di fonti. Funziona senza convinzioni, emozioni o pregiudizi personali, fornendo contenuti incentrati sui dati. Per garantirne la pertinenza, l'accuratezza e l'aderenza agli standard editoriali di BeInCrypto, un editore umano ha esaminato, modificato e approvato meticolosamente l'articolo per la pubblicazione.

Il post Microsoft blocca inavvertitamente i dipendenti da ChatGPT durante il test dei sistemi di sicurezza è apparso per la prima volta su BeInCrypto .

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto