I ricercatori di Google DeepMind e il Università della California del Sud.

Il loro nuovo quadro di suggerimenti ‘SELF-SCOVER’ – pubblicato questa settimana su arXiV E Volto che abbraccia – rappresenta un passo significativo oltre le tecniche esistenti, rivoluzionando potenzialmente le prestazioni di modelli leader come quello di OpenAI GPT-4 e quello di Google PALM2.

Il quadro promette miglioramenti sostanziali nell’affrontare compiti di ragionamento impegnativi. Dimostra notevoli miglioramenti, vantando un aumento delle prestazioni fino al 32% rispetto ai metodi tradizionali come Chain of Thought (CoT). Questo nuovo approccio ruota attorno ai LLM che scoprono autonomamente strutture di ragionamento intrinseche al compito per affrontare problemi complessi.

Fondamentalmente, il quadro consente agli LLM di scoprire se stessi e utilizzare vari moduli di ragionamento atomico – come il pensiero critico e l’analisi passo passo – per costruire strutture di ragionamento esplicite.

Imitando le strategie umane di risoluzione dei problemi, il quadro opera in due fasi:

  • La prima fase prevede la composizione di una struttura di ragionamento coerente intrinseca al compito, sfruttando una serie di moduli di ragionamento atomici ed esempi di compiti.
  • Durante la decodifica, i LLM seguono quindi questa struttura scoperta da soli per arrivare alla soluzione finale.

In test approfonditi su vari compiti di ragionamento – tra cui Big-Bench Hard, Thinking for Doing e Math – l’approccio di auto-scoperta ha costantemente sovraperformato i metodi tradizionali. In particolare, ha raggiunto una precisione dell’81%, 85% e 73% nelle tre attività con GPT-4, superando la catena di pensiero e le tecniche di pianificazione e risoluzione.

Tuttavia, le implicazioni di questa ricerca vanno ben oltre il semplice miglioramento delle prestazioni.

Dotando gli LLM di capacità di ragionamento migliorate, il quadro apre la strada per affrontare problemi più impegnativi e avvicina l’intelligenza artificiale al raggiungimento dell’intelligenza generale. Gli studi di trasferibilità condotti dai ricercatori evidenziano ulteriormente l’applicabilità universale delle strutture di ragionamento composte, allineandosi ai modelli di ragionamento umano.

Man mano che il panorama evolve, scoperte come il quadro di suggerimenti SELF-DISCOVER rappresentano pietre miliari cruciali nel far avanzare le capacità dei modelli linguistici e offrire uno sguardo al futuro dell’intelligenza artificiale.

(Fotografato da Vincitore SU Unsplash)

Guarda anche: Il Regno Unito sta superando gli Stati Uniti per quanto riguarda le assunzioni di AI

Vuoi saperne di più sull’intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera dell’intelligenza artificiale e dei big data che si svolge ad Amsterdam, in California, e a Londra. L’evento completo è co-localizzato con Settimana della trasformazione digitale E Fiera sulla sicurezza informatica e sul cloud.

Esplora altri prossimi eventi e webinar sulla tecnologia aziendale forniti da TechForge Qui.

Tag: agi, ai, intelligenza artificiale generale, intelligenza artificiale, arxiv, segno di riferimento, mente profonda, struttura, Google, viso abbracciato, grandi modelli linguistici, llm, carta, ricerca, Università della California del Sud

Fonte: www.artificialintelligence-news.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *