Viene alla luce lo sviluppo dell'intelligenza artificiale e ciò che valuta le grandi macchine linguistiche ( LLM ) come altamente significative è una questione di attenzione. Questi dispositivi avanzati determineranno la tecnologia futura; pertanto, sono necessari il riconoscimento dei loro effetti negativi e la garanzia di sicurezza e correttezza. I grandi modelli linguistici che hanno aperto una nuova frontiera per la tecnologia dell’intelligenza artificiale devono affrontare grossi problemi, in particolare la sostituzione dell’affidabilità e dell’affidabilità.
Svelato l'approccio poliedrico di Raga AI
L'individuazione degli errori e la successiva rimozione degli errori all'interno degli LLM sono impegnative per vari motivi, come la scarsa disponibilità di dati di formazione o l'utilizzo di attacchi avversari. Tuttavia, la questione richiede un’attenta analisi funzionale nel contesto locale, indicando che è necessario un approccio su larga scala per raggiungere lo scopo della valutazione.
Raga AI è uno strumento; un quadro di valutazione approfondito composto da oltre un centinaio di criteri verrà fornito come parte delle armi per prevedere ogni potenziale problema che deve affrontare un'applicazione LLM. Dalla creazione e gestione di database di informazioni e argomenti alla selezione e valutazione dei LLM, si impegna ad accelerare pur riconoscendo la complessità intrinseca dell'attività.
Una delle principali capacità di ChatGPT in termini di individuazione di modelli di prompt, rilevamento e correzione di risposte imprecise, gestione del contesto in termini di senso e accuratezza e utilizzo di statistiche per rilevare e segnalare disinformazione, pregiudizi e perdite di intelligence è la sua capacità di generare paragrafi, analizzare e fornire una risposta accurata in base alla sua lettura e utilizzare le metriche.
Miglioramento della valutazione LLM La soluzione quadro di Raga AI
Ci sono esempi di casi in cui le cose sono andate storte con le applicazioni LML, come il chatbot AI di Air Canada che ha fornito informazioni errate sulla politica di lutto e il chatbot di Google che ha commesso errori durante la sua esecuzione. Questi casi dimostrano che grandi errori sono possibili.
Illustrano la questione principale dell'esame completo, per evitare la creazione di disinformazione e pregiudizi, che i modelli ottengono attraverso l'enorme quantità di dati con cui sono addestrati.
Inoltre, la capacità dei GM di produrre parole simili a quelle umane ha sollevato molte questioni etiche legate all’uso improprio della scrittura. Di conseguenza, è ancora più imperativo disporre di metodi di valutazione rigorosi per affrontare questo problema.
Ciò può minare il potere della verità e trasformare i canali veloci in una corsia preferenziale per condividere miti, notizie false o persino pregiudizi. Di conseguenza, ciò ridurrà la qualità delle informazioni e renderà lo spazio digitale più incerto che mai.
RagaAI pioniere degli standard etici nello sviluppo dell'intelligenza artificiale
L'approccio di RagaAI affronta tre dimensioni chiave cruciali per la creazione di applicazioni LLM affidabili e affidabili: disporre di test completi che coprano i dati, il modello e la parte operativa; utilizzare la valutazione multi-modello per promuovere la robustezza dei dati che includono immagini, testo, codice e così via e anche per fornire raccomandazioni strutturate che coinvolgano non solo l'individuazione di problemi ma anche l'indirizzo di soluzioni scientifiche.
Alla fine, i tentativi di RagaAI finiscono in un pacchetto open source volto a fornire semplici strumenti di valutazione per i LLM avanzati. RagaAI continua il suo contributo alla definizione di procedure standard nell'intelligenza artificiale rendendo disponibile il quadro di test completo per la comunità di sviluppatori in generale. Agisce come un acceleratore dell’innovazione e stimola la collaborazione nel perfezionamento e umanizzazione delle tecnologie di intelligenza artificiale.
L'attuazione dell'obiettivo di questa organizzazione di fornire una soluzione in grado di trasformare lo sviluppo dell'intelligenza artificiale in modo da aumentare significativamente la velocità dello sviluppo dell'intelligenza artificiale, ridurre i costi dell'infrastruttura di sviluppo e garantire inoltre che le applicazioni LLM performanti, affidabili e sicure distribuite siano una dimostrazione dell'importanza di disporre di meccanismi di valutazione adeguati nell’attuale era dell’IA.
Storia originale da: https://www.electronicspecifier.com/products/artificial-intelligence/evaluating-llms-how-and-why