Strategia di coottimizzazione SW/HW per LLM – Parte 2 (Software) |  di Liz Li |  Gennaio 2024

 | Intelligenza-Artificiale

SW sta mangiando il mondo. Panorama SW degli LLM? Quali sono le librerie/framework SW emergenti per migliorare le prestazioni LLM?

Wcon un afflusso continuo di nuovi modelli e funzionalità LLM (controlla il classifica LLM con il volto abbracciato), gli strumenti software e le librerie vengono rilasciati a un ritmo accelerato. Questa rapida progressione sta anche innescando numerose innovazioni nell’hardware AI. Quando si ottimizzano gli LLM dal punto di vista del sistema, è fondamentale comprendere che mentre la ricerca in corso emerge quotidianamente da importanti aziende e istituti di ricerca come Meta, Google, OpenAI, Nvidia, Stanford e altri, lo stack/librerie software non può tradurre direttamente tutto nell’hardware per l’esecuzione immediata. È possibile supportare solo un insieme limitato e selettivo di funzionalità software che richiedono diversi mesi (~6 mesi) di sviluppo per la produzione. Se queste funzionalità devono essere supportate nell’acceleratore hardware AI, ciò richiede un ciclo di sviluppo ancora più lungo (2-4 anni) in caso di modifiche all’architettura. Affrontare questa discrepanza tra l’ottimizzazione del software e dell’hardware per i LLM rappresenta una sfida significativa, che miriamo ad affrontare in questa serie di post!

Immagine dell’autore

Gli strumenti software e le librerie emergenti soddisfano sia la formazione LLM che l’inferenza. In questo post, la nostra attenzione si concentrerà specificamente sull’implementazione LLM e su un’esplorazione approfondita di come questi strumenti migliorano le prestazioni LLM. In un prossimo post, approfondiremo i software di formazione LLM come deepspeed, Fairscale, colossal-AI e altri.

In precedenza, ho discusso i miglioramenti ai modelli LLM e evidenziato nuove funzionalità di ricerca. Puoi rinfrescarti la memoria rivisitando la discussione qui sotto

Gli LLM, progettati come modelli AI di dominio specializzati, si basano sullo stack AI convenzionale per convertire i modelli in codice macchina per l’esecuzione su hardware AI. Diverse aziende hardware offrono i rispettivi stack software per facilitare l’inferenza dell’intelligenza artificiale. Di seguito, presenterò tre importanti fornitori di hardware…

Fonte: towardsdatascience.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *