Colmare il divario tra LLM e ragionamento simbolico

 | Intelligenza-Artificiale

I ricercatori hanno introdotto un nuovo approccio chiamato programmi incorporati nel linguaggio naturale (NLEP) per migliorare le capacità di ragionamento numerico e simbolico dei modelli linguistici di grandi dimensioni (LLM). La tecnica prevede di chiedere ai LLM di generare ed eseguire programmi Python per risolvere le query degli utenti, quindi fornire soluzioni in linguaggio naturale.

Sebbene gli LLM come ChatGPT abbiano dimostrato prestazioni impressionanti in vari compiti, spesso lottano con problemi che richiedono ragionamenti numerici o simbolici.

Gli NLEP seguono un modello di risoluzione dei problemi in quattro fasi: chiamare i pacchetti necessari, importare rappresentazioni in linguaggio naturale della conoscenza richiesta, implementare una funzione di calcolo della soluzione e produrre risultati come linguaggio naturale con visualizzazione dei dati opzionale.

Questo approccio offre numerosi vantaggi, tra cui maggiore precisione, trasparenza ed efficienza. Gli utenti possono analizzare i programmi generati e correggere direttamente gli errori, evitando la necessità di rieseguire interi modelli per la risoluzione dei problemi. Inoltre, un singolo NLEP può essere riutilizzato per più attività sostituendo determinate variabili.

I ricercatori hanno scoperto che gli NLEP hanno consentito a GPT-4 di raggiungere una precisione superiore al 90% su vari compiti di ragionamento simbolico, superando del 30% i metodi di suggerimento specifici per attività.

Oltre ai miglioramenti in termini di precisione, gli NLEP potrebbero migliorare la privacy dei dati eseguendo programmi localmente, eliminando la necessità di inviare dati sensibili degli utenti a società esterne per l’elaborazione. La tecnica può anche migliorare le prestazioni di modelli linguistici più piccoli senza costose attività di riqualificazione.

Tuttavia, i NLEP si basano sulla capacità di generazione di programmi di un modello e potrebbero non funzionare altrettanto bene con modelli più piccoli addestrati su set di dati limitati. La ricerca futura esplorerà metodi per fare in modo che LLM più piccoli generino NLEP più efficaci e studierà l'impatto di variazioni immediate sulla robustezza del ragionamento.

La ricerca, sostenuta in parte dal Center for Perceptual and Interactive Intelligence di Hong Kong, sarà presentata all' Conferenza annuale del capitolo nordamericano dell'Associazione per la Linguistica Computazionale dopo questo mese.

(Fotografato da Alex Azabache)

Guarda anche: Secondo quanto riferito, Apple sta ottenendo l’accesso gratuito a ChatGPT

Vuoi saperne di più sull'intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera dell'intelligenza artificiale e dei big data che si svolge ad Amsterdam, in California, e a Londra. L'evento completo è collocato in contemporanea con altri eventi importanti, tra cui Conferenza sull'automazione intelligente, BlockX, Settimana della trasformazione digitaleE Fiera sulla sicurezza informatica e sul cloud.

Esplora altri prossimi eventi e webinar sulla tecnologia aziendale forniti da TechForge Qui.

tag: ai, intelligenza artificiale, sviluppo, grandi modelli linguistici, llm, linguaggio naturale, controllo

Fonte: www.artificialintelligence-news.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *