Analisi aziendale con LangChain e LLM |  di Naser Tamimi |  Dicembre 2023

 | Intelligenza-Artificiale

IA GENERATIVA

Un tutorial passo passo su come interrogare i database SQL con il linguaggio umano

Immagine dell’autore (generata tramite Midjourney)

Molte aziende hanno molti dati proprietari archiviati nei propri database. Se esiste un agente virtuale in grado di comprendere il linguaggio umano e di interrogare questi database, si aprono grandi opportunità per queste aziende. Pensa ai chatbot del servizio clienti, sono un esempio comune. Questi agenti possono accettare le richieste dei clienti, chiedere informazioni al database e fornire al cliente ciò di cui ha bisogno.

Il vantaggio di tali agenti non si limita alle interazioni con i clienti esterni. Molti imprenditori o persone di aziende, anche tecnologiche, potrebbero non conoscere SQL o linguaggi simili, ma hanno comunque bisogno di chiedere informazioni al database. È qui che entrano in gioco framework come LangChain. Tali framework semplificano la creazione di questi utili agenti/applicazioni. Agenti che possono parlare con gli esseri umani e, allo stesso tempo, parlare con database, API e altro ancora.

LangChain è un framework open source per la creazione di applicazioni interattive utilizzando Large Language Models (LLM). È uno strumento che aiuta gli LLM a connettersi con altre fonti di informazione e consente loro di parlare con il mondo che li circonda. Un concetto importante in tali contesti è la Catena. Diamo un’occhiata a questo concetto.

Cosa sono le catene?

Le catene sono strumenti avanzati in questo quadro che combinano LLM con altri strumenti per eseguire compiti più complicati. Nello specifico, le catene sono interfacce che utilizzano una sequenza di LLM insieme ad altri strumenti, come database SQL, chiamate API, operatori bash o calcolatrici matematiche, per completare un lavoro complesso. Un esempio potrebbe essere la nostra applicazione che riceve input da un utente e lo trasmette al nostro modello LLM; quindi, LLM chiama un’API. L’API risponde al LLM e il LLM accetta la risposta per eseguire un’altra attività e così via. Come puoi vedere, si tratta di una catena di input e output in cui, in molte parti di questa sequenza, abbiamo modelli LLM che gestiscono la situazione.

Ora è il momento di sporcarci le mani e iniziare a codificare una semplice applicazione supportata da LLM. Per questa applicazione, creeremo…

Fonte: towardsdatascience.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *