Perché i dipendenti di Google mettono in dubbio l’utilità di Bard

Perché i dipendenti di Google mettono in dubbio l'utilità di Bard

Lo screenshot di un server Discord dedicato al chatbot di intelligenza artificiale (AI) di Google, Bard, suggerisce che alcuni dipendenti di Google mettono in dubbio l'utilità dei chatbot LLM (Large Language Model).

I chatbot IA sono diventati mainstream nel 2023 grazie a ChatGPT di OpenAI e Bard di Google. Tuttavia, i chatbot IA, allo stato attuale, sono davvero utili?

Domanda principale sull'esperienza di Google Bard se i LLM stanno facendo la differenza

Secondo Bloomberg esiste un server Discord dedicato agli assidui utenti di Google Bard e ad alcuni dipendenti del colosso dei motori di ricerca. Nel server specifico discutono dell'efficacia e dell'utilità del chatbot.

Bloomberg ha raccolto screenshot della conversazione di due membri dei server Discord da luglio a ottobre. Ad agosto, Cathy Pearl, responsabile dell'esperienza utente di Google Bard, ha scritto:

“La sfida più grande a cui sto ancora pensando: a cosa servono veramente i LLM, in termini di utilità? Come fare davvero la differenza. Da definire!”

Per saperne di più: I modelli di machine learning più popolari nel 2023

Google Bard, dipendenti Google, intelligenza artificiale
Screenshot della chat Discord dei dipendenti di Google. Fonte: Bloomberg

I membri della comunità credono che Bard non possa rispondere nemmeno alle domande più elementari. Un utente X (Twitter) ha scritto :

“Chiunque abbia usato Bard probabilmente sarebbe d'accordo. Non può nemmeno rispondere a domande di base su come funzionano le app di Google, ad esempio Analytics, reCAPTCHA ecc. Vai a provarlo."

Il Product Manager di Google ritiene che l'output non sia attendibile

Si è discusso sull'affidabilità dei dati generati dai chatbot. Dominik Rabiej, product manager di Bard, afferma che i LLM non sono in una fase in cui gli utenti non possono fidarsi dei propri risultati senza verificarli in modo indipendente. Egli ha detto:

"La mia regola pratica è non fidarmi dell'output LLM a meno che non possa verificarlo in modo indipendente"

Gli LLM sono modelli di intelligenza artificiale addestrati con un ampio set di dati per generare output simili a quelli umani. Chatbot come ChatGPT e Bard utilizzano LLM.

Poiché i dati non sono completamente affidabili, Rabiej suggerisce che l'ideale sarebbe utilizzare Google Bard per scopi di brainstorming invece di fare affidamento su di esso solo per ottenere informazioni. È un dato di fatto, quando un utente inizia a utilizzare Bard per la prima volta , viene visualizzato un messaggio che afferma: "Bard è un esperimento". Il messaggio recita inoltre:

“Bard non sempre riuscirà a capire bene. Bard potrebbe dare risposte imprecise o offensive. In caso di dubbi, utilizza il pulsante Google per ricontrollare le risposte di Bard."

Per saperne di più: ChatGPT vs. Google Bard: un confronto tra chatbot AI

Google Bard, AI, intelligenza artificiale
Il messaggio di Google Bard. Fonte: sito ufficiale

Hai qualcosa da dire sul chatbot di Google Bard o altro? Scrivici o partecipa alla discussione sul nostro canale Telegram. Puoi trovarci anche su TikTok , Facebook o X (Twitter).

Per l'ultima analisi Bitcoin (BTC) di BeInCrypto , clicca qui .

Il post Perché i dipendenti di Google mettono in dubbio l'utilità di Bard è apparso per la prima volta su BeInCrypto .

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto