Che cos’è la generazione aumentata con recupero o RAG?

L'accuratezza e l'affidabilità dei modelli di intelligenza artificiale generativa possono essere migliorate dai dati ottenuti da fonti esterne e la tecnica utilizzata per recuperarli è chiamata generazione aumentata con recupero (RAG).

Per una comprensione semplice, diciamo che un buon modello linguistico di grandi dimensioni (LLM) può rispondere a un'ampia gamma di domande umane. Ma affinché le risposte siano credibili, devono essere citate alcune fonti e, a questo scopo, è necessario fare delle ricerche, quindi il modello avrà bisogno di un assistente. Questo processo di assistenza è chiamato generazione aumentata di recupero, o RAG, per comodità.

Comprendere la generazione aumentata con recupero o RAG

Per comprendere ulteriormente RAG, colma le lacune già presenti nei lavori LLM. La qualità o la potenza di un LLM è misurata dal numero di parametri che ha. I parametri sono fondamentalmente i modelli generali di come noi esseri umani usiamo le parole per creare frasi. I LLM possono essere incoerenti con le risposte che forniscono.

A volte forniscono le informazioni esatte di cui l'utente ha bisogno, a volte sfornano semplicemente fatti e cifre casuali dai set di dati inclusi nella loro formazione. Se a volte i LLM danno risposte vaghe, come se non sapessero cosa stanno dicendo, è perché non hanno davvero idea di quello che stanno dicendo. Poiché abbiamo parlato dei parametri nella riga precedente, gli LLM possono correlare le parole statisticamente, ma non ne conoscono il significato.

L'integrazione di RAG nei sistemi di chat basati su LLM presenta due vantaggi principali: garantisce che il modello possa accedere a fatti attuali e affidabili e garantisce inoltre che gli utenti possano verificare che le sue affermazioni siano affidabili poiché hanno accesso alle fonti dei dati. modello.

Il direttore delle tecnologie linguistiche presso IBM Research, Luis Lastras, ha affermato:

"Vuoi fare un riferimento incrociato tra le risposte di un modello e il contenuto originale in modo da poter vedere su cosa basa la sua risposta."

Fonte: IBM .

Ci sono anche altri vantaggi, in quanto riduce le possibilità di allucinazioni e fuga di dati poiché ha l'opportunità di basare le sue conoscenze su fonti esterne, quindi non deve fare affidamento esclusivamente sui dati su cui è stato addestrato. RAG riduce inoltre i costi finanziari e computazionali legati alla gestione dei chatbot poiché ha meno bisogno di essere addestrato su nuovi dati.

Vantaggi del RAG

Tradizionalmente, i modelli di conversazione digitale utilizzavano un approccio di dialogo manuale. Hanno stabilito la loro comprensione delle intenzioni di un utente, quindi hanno recuperato le informazioni su quella base e hanno fornito risposte in uno script generale già definito dai programmatori. Questo sistema era in grado di rispondere a domande semplici e dirette. Tuttavia, il sistema presentava dei limiti.

Fornire risposte a ogni domanda che un cliente potrebbe potenzialmente porre richiedeva molto tempo, se l'utente saltava un passaggio, il chatbot non aveva la capacità di gestire la situazione e improvvisare. Tuttavia, la tecnologia odierna ha consentito ai chatbot di fornire risposte personalizzate agli utenti senza la necessità di scrivere nuovi script da parte di esseri umani, e RAG fa un ulteriore passo avanti mantenendo il modello sui nuovi contenuti e riducendo la necessità di formazione. Come ha detto Lastras,

“Pensiamo al modello come a un giovane impiegato troppo ansioso che dà una risposta prima di verificare i fatti, l'esperienza ci insegna a fermarci e dire quando non sappiamo qualcosa. Ma i LLM devono essere formati esplicitamente per riconoscere le domande a cui non possono rispondere”.

Fonte: IBM.

Come sappiamo, le domande degli utenti non sono sempre semplici, possono essere complesse, vaghe e prolisse oppure richiedono informazioni che mancano nel modello o che non possono essere facilmente analizzate. In tali condizioni, gli LLM possono avere allucinazioni. La messa a punto può prevenire questi casi e gli LLM possono essere addestrati a fermarsi quando si trovano ad affrontare una situazione del genere. Ma bisognerà nutrire migliaia di esempi di tali domande per riconoscerle.

RAG è il miglior modello attualmente disponibile per basare i LLM sui dati più recenti e confermabili e anche per ridurre la formazione. Anche RAG si sta sviluppando con il tempo e necessita ancora di ulteriori ricerche per eliminare le imperfezioni.

La fonte di ispirazione può essere vista qui .

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto