
In questo tutorial esploreremo promptrefiner
: Un piccolo strumento Python che ho creato per creare prompt di sistema perfetti per il tuo LLM locale, utilizzando l'aiuto del modello GPT-4.
Il codice Python in questo articolo è disponibile qui:
https://github.com/amirarsalan90/promptrefiner.git
Creare un prompt di sistema efficace e dettagliato per il tuo programma può essere un processo impegnativo che spesso richiede molteplici prove ed errori, in particolare quando si lavora con LLM più piccoli, come un modello linguistico 7b. che generalmente può interpretare e seguire istruzioni meno dettagliate, un modello linguistico più piccolo e di grandi dimensioni come Mistral 7b sarebbe più sensibile alle istruzioni del sistema.
Immaginiamo uno scenario in cui stai lavorando con un testo. Questo testo discute alcuni individui, discutendo i loro contributi o ruoli. Ora, vuoi che il tuo modello linguistico locale, ad esempio Mistral 7b, distilli queste informazioni in un elenco di stringhe Python, ciascuna abbinando un nome con i dettagli associati nel testo. Prendiamo come esempio il seguente paragrafo:
Fonte: towardsdatascience.com