I ricercatori della UC Berkeley presentano Gorilla: A Finetuned LLaMA

Blog

CasaCasa / Blog / I ricercatori della UC Berkeley presentano Gorilla: A Finetuned LLaMA

Jul 08, 2023

I ricercatori della UC Berkeley presentano Gorilla: A Finetuned LLaMA

A recent breakthrough in the field of Artificial Intelligence is the

Una recente svolta nel campo dell’intelligenza artificiale è l’introduzione dei Large Language Models (LLM). Questi modelli ci consentono di comprendere il linguaggio in modo più conciso e, quindi, di utilizzare al meglio l’elaborazione del linguaggio naturale (NLP) e la comprensione del linguaggio naturale (NLU). Questi modelli funzionano bene in ogni altra attività, incluso il riepilogo del testo, la risposta alle domande, la generazione di contenuti, la traduzione linguistica e così via. Comprendono suggerimenti testuali complessi, anche testi con ragionamento e logica, e identificano modelli e relazioni tra tali dati.

Sebbene i modelli linguistici abbiano mostrato prestazioni incredibili e si siano sviluppati in modo significativo negli ultimi tempi dimostrando la loro competenza in una varietà di compiti, rimane ancora difficile per loro utilizzare gli strumenti tramite chiamate API in modo efficiente. Persino LLM famosi come GPT-4 faticano a generare argomenti di input precisi e spesso consigliano chiamate API inappropriate. Per risolvere questo problema, i ricercatori di Berkeley e Microsoft Research hanno proposto Gorilla, un modello basato su LLaMA perfezionato che batte GPT-4 in termini di produzione di chiamate API. Gorilla aiuta nella scelta dell'API appropriata, migliorando la capacità dei LLM di lavorare con strumenti esterni per svolgere attività particolari.

Il team di ricercatori ha anche creato un set di dati APIBench, costituito da un corpus considerevole di API con funzionalità sovrapposte. Il set di dati è stato creato raccogliendo hub di modelli pubblici come TorchHub, TensorHub e HuggingFace per le loro API ML. Ogni richiesta API di TorchHub e TensorHub è inclusa per ciascuna API e vengono scelti i primi 20 modelli di HuggingFace per ciascuna categoria di attività. Inoltre, producono dieci richieste di query utente fittizie per ciascuna API utilizzando il metodo di autoistruzione.

Utilizzando questo set di dati APIBench e il recupero di documenti, i ricercatori hanno messo a punto Gorilla. Gorilla, il modello da 7 miliardi di parametri supera GPT-4 in termini di correttezza del funzionamento dell'API e riduce gli errori allucinatori. L'efficace integrazione del document retriever con Gorilla dimostra la possibilità per i LLM di utilizzare gli strumenti in modo più preciso. Le funzionalità migliorate di generazione delle chiamate API di Gorilla e la sua capacità di modificare la documentazione secondo necessità migliorano l'applicabilità e l'affidabilità dei risultati del modello. Questo sviluppo è importante perché consente ai LLM di stare al passo con la documentazione regolarmente aggiornata, fornendo agli utenti informazioni più accurate e aggiornate.

Uno degli esempi condivisi dai ricercatori mostra come Gorilla riconosce correttamente le attività e offre risultati API completi. Le chiamate API generate dai modelli hanno mostrato che GPT-4 produceva richieste API per modelli ipotetici, il che dimostra una mancanza di comprensione dell'attività. Claude ha scelto la biblioteca sbagliata, dimostrando una scarsa capacità di riconoscere le risorse giuste. Gorilla, al contrario, riconobbe correttamente il compito. Gorilla differisce quindi da GPT-4 e Claude poiché la creazione delle chiamate API è accurata, dimostrando sia le prestazioni migliorate che la comprensione delle attività.

In conclusione, Gorilla è un'importante aggiunta all'elenco dei modelli linguistici, poiché affronta anche il problema della scrittura delle chiamate API. Le sue capacità consentono la riduzione dei problemi legati alle allucinazioni e all'affidabilità.

Dai un'occhiata aDocumento, collegamento Github, EPagina del progetto.Non dimenticare di iscrivertiil nostro subReddit da 22k+ ML,Canale Discordia, ENewsletter via e-mail , dove condividiamo le ultime notizie sulla ricerca sull'intelligenza artificiale, interessanti progetti sull'intelligenza artificiale e altro ancora. Se avete domande riguardanti l'articolo sopra o se ci siamo persi qualcosa, non esitate a contattarci via email a[email protected]

🚀 Dai un'occhiata a 100 strumenti AI nell'AI Tools Club

Tanya Malhotra è una studentessa dell'ultimo anno presso l'Università degli studi sul petrolio e sull'energia, Dehradun, che persegue un BTech in ingegneria informatica con una specializzazione in intelligenza artificiale e apprendimento automatico. È un'appassionata di scienza dei dati con un buon pensiero analitico e critico, insieme a un ardente interesse nell'acquisizione di nuove competenze, nella guida di gruppi e nella gestione del lavoro in modo organizzato.