“L’API Assistants ti consente di creare assistenti IA all’interno delle tue applicazioni. Un Assistente ha istruzioni e può sfruttare modelli, strumenti e conoscenze per rispondere alle domande degli utenti”, OpenAI.
Sembra fantastico, quindi vedremo come utilizzare la nuova API per eseguire analisi dei dati sui dati locali.
L’API Assistants rappresenta un approccio alternativo almeno ad alcuni usi di Retrieval Augmented Generation (RAG). Quindi il RAG è stato solo una misura tampone, una soluzione temporanea agli inconvenienti dell’attuale generazione di LLM? Dopotutto, Jerry Liu di LlamaIndex lo ha detto RAG è solo un trucco (anche se potente).
Ecco tre problemi specifici inerenti ai LLM che RAG attualmente affronta e che affronterà anche l’API Assistants:
- Gli LLM non sono aggiornati. Ci vuole molto tempo e denaro (per non parlare dell’energia) per addestrare un modello, quindi le informazioni su cui è stato addestrato potrebbero risalire a un paio di anni fa.
- Gli LLM non ne sono a conoscenza tuo dati. È abbastanza improbabile che i tuoi dati facessero parte del set di formazione per un LLM.
- Gli LLM hanno allucinazioni. A volte daranno risposte del tutto plausibili che sono totalmente false.
Fornendo al LLM dati rilevanti per la tua applicazione puoi ridurre questi problemi.
Ad esempio, se desideri che LLM produca codice Streamlit, potresti fornirgli i dati della documentazione più recente per consentirgli di utilizzare le nuove funzionalità del framework. Oppure, se vuoi fare qualche analisi su alcuni dati specifici, fornirgli chiaramente quei dati è essenziale. E, infine, fornendo dati rilevanti al LLM, si aumenta la possibilità che fornisca una risposta adeguata e quindi si riduce la possibilità che si limiti a inventare cose.
Sebbene RAG sia stato utilizzato per mitigare questi problemi, ora vengono risolti anche dalla nuova API Assistants. L’approccio RAG rende…
Fonte: towardsdatascience.com