Un approfondimento sulle strategie che ho imparato per sfruttare la potenza dei modelli linguistici di grandi dimensioni
Il mese scorso ho avuto l’incredibile onore di vincere il primo concorso GPT-4 Prompt Engineering di Singapore, che ha riunito oltre 400 partecipanti tempestivamente brillanti, organizzato dalla Government Technology Agency di Singapore (GovTech).
Il Prompt Engineering è una disciplina che unisce arte e scienza: è tanto comprensione tecnica quanto creatività e pensiero strategico. Questo articolo è una raccolta delle strategie e degli approfondimenti di ingegneria tempestiva che ho appreso lungo il percorso, che spingono qualsiasi LLM a fare esattamente ciò di cui hai bisogno e altro ancora!
Questo articolo tratta quanto segue, con 🟢 che si riferisce a tecniche di suggerimento adatte ai principianti mentre 🟠 si riferisce a strategie avanzate:
1. (🟢) Strutturazione dei prompt utilizzando il framework CO-STAR
2. (🟢) Sezionamento dei prompt utilizzando i delimitatori
3. (🟠) Creazione di prompt di sistema con guardrail LLM
4. (🟠) Analisi di set di dati utilizzando solo LLM, senza plug-in o codice
Con un esempio pratico di analisi di un set di dati Kaggle del mondo reale
Una strutturazione tempestiva efficace è fondamentale per ottenere risposte ottimali da un LLM. Il framework CO-STAR, nato da un’idea del team Data Science & AI di GovTech Singapore, è un modello pratico per strutturare i prompt. Considera tutti gli aspetti chiave che influenzano l’efficacia e la pertinenza della risposta di un LLM, portando a risposte più ottimali.
Ecco come funziona:
(C) Contesto: fornire informazioni di base sull’attività
Ciò aiuta il LLM a comprendere lo scenario specifico in discussione, garantendo che la sua risposta sia pertinente.
(O) Obiettivo: definire qual è il compito…
Fonte: towardsdatascience.com