Orca: imitare correttamente i LLM proprietari |  di Cameron R. Wolfe, Ph.D.  |  Settembre 2023

 | Intelligenza-Artificiale

Sfruttare l’imitazione per creare LLM open source di alta qualità…

16 minuti di lettura

18 ore fa

(Fotografato da Thomas Lipke SU Unsplash)

Con il progredire della ricerca sui modelli linguistici di grandi dimensioni (LLM), una domanda chiave che rimane senza risposta è se un LLM esistente e di alta qualità possa essere utilizzato per formare efficacemente un altro LLM. Attualmente ci sono molti dibattiti e controversie su questo argomento. La recente esplosione di modelli di imitazione open source ha inizialmente indicato che i LLM proprietari come ChatGPT potrebbero essere facilmente replicati a basso costo. Tuttavia, ricerche successive hanno concluso che la valutazione di tali modelli era incompleta e fuorviante, scoprendo che questi modelli in realtà presentano ampie lacune nella loro comprensione. In questa panoramica, studieremo il lavoro (1) che mira a risolvere i limiti delle repliche open source di LLM proprietari attraverso un approccio più robusto. In particolare, vedremo che l’apprendimento per imitazione può essere reso più efficace curando un set di dati più ampio con informazioni più dettagliate.

“Mentre questi modelli continuano ad evolversi e diventano più potenti, sorge una domanda intrigante: possiamo usare il modello stesso per supervisionare il proprio comportamento o quello di altri modelli di intelligenza artificiale?” — da (1)

(da (1))

Prima di addentrarci nella panoramica, tratteremo alcune idee relative sia ai LLM che al deep learning in generale. Questi concetti potrebbero non essere descritti esplicitamente negli articoli che leggiamo. Piuttosto, vengono spesso citati tramite una citazione o si presume siano di dominio pubblico. Pertanto, acquisire una conoscenza di base di questi concetti renderà questa panoramica e gli articoli in essa presi in considerazione più facili da comprendere.

Sintonizzazione delle istruzioni

(da (12))

L’ottimizzazione delle istruzioni è stata originariamente proposta da FLAN (12) e mirava a fornire una forma di formazione che insegnasse ai LLM a risolvere compiti basati sulla lingua in generale, piuttosto che un compito specifico. In particolare, ciò viene fatto mettendo a punto un LLM su serie di “istruzioni” o prompt di input, incluso un…

Fonte: towardsdatascience.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *