In che modo i prompt ottimizzati dal punto di vista computazionale rendono i modelli linguistici eccellenti e come tutto ciò influisce sull’ingegneria dei prompt

fotografato da Ali Shah Lakhani SU Unsplash

Mentre assistiamo al costante progresso dell’intelligenza artificiale (AI), che realizza compiti sempre più difficili mese dopo mese, c’è una preoccupazione generale per il futuro della nostra forza lavoro. Se l’intelligenza artificiale continua ad automatizzare molti dei compiti attualmente svolti dagli esseri umani, come saranno le occupazioni di domani? C’è quest’idea nell’aria che “programmare questi sistemi sarà un lavoro umano per anni“, o quello “avremo sempre bisogno di un essere umano per mantenere e riqualificare i modelli di intelligenza artificiale“, o quello “creare suggerimenti efficienti che guidano i modelli di intelligenza artificiale nel modo giusto è un’abilità umana”. Quest’ultimo, al centro di questo articolo, ha motivato la creazione del “prompt engineering” come “carriera”. E certamente c’è una certa maestria nello scrivere suggerimenti efficienti per far sì che il modello di intelligenza artificiale faccia esattamente ciò che ci si aspetta da esso, o per farlo “pensare” abbastanza bene da migliorare le sue risposte soprattutto ai problemi. Vedi questo, solo come esempio:

Tuttavia, è molto probabile che nessuno di questi interventi umani rimarrà rilevante per sempre. In particolare per il prompt engineering, sembra che queste competenze non saranno molto rilevanti già a breve. Continua a leggere per sapere perché e nel processo scopri i risultati molto interessanti riportati da DeepMind in una recente prestampa, che puoi applicare subito a tuo vantaggio quando utilizzi modelli linguistici di grandi dimensioni (LLM) come ti mostro con esempi pratici sulla versione gratuita di ChatGPT.

Prima di approfondire è necessario comprendere il concetto di “prompt”. I prompt sono istruzioni passate ai modelli di intelligenza artificiale per dire loro cosa vogliamo che facciano. I modelli di intelligenza artificiale rispondono agli input di testo o ai prompt generati dall’utente per generare i loro output: testo, grafica, audio, ecc. La qualità e la specificità dei prompt di input influiscono in modo significativo sul contenuto e sulla qualità degli output generati dai modelli…

Fonte: towardsdatascience.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *