L’entusiasmo che circonda l’intelligenza artificiale generativa e il potenziale dei modelli linguistici di grandi dimensioni (LLM), guidati dal ChatGPT di OpenAI, a un certo punto sembravano praticamente insormontabili. Era certamente inevitabile. Quest’anno più di un dollaro su quattro è stato investito in startup statunitensi è andato a un’azienda legata all’intelligenza artificialementre OpenAI ha rivelato alla sua recente conferenza degli sviluppatori che ChatGPT continua ad esserlo uno dei servizi in più rapida crescita di tutti i tempi.

Eppure qualcosa continua a non andare bene. O meglio, continua ad aggiungersi qualcosa che non va.

Uno dei maggiori problemi con gli LLM è la loro capacità di avere allucinazioni. In altre parole, inventa le cose. Le cifre variano, ma una tariffa spesso citata è del 15%-20%. Un sistema Google è salito del 27%. Ciò non sarebbe così grave se non si manifestasse in modo così assertivo mentre lo fa. Jon McLoone (a sinistra), direttore della comunicazione tecnica e della strategia presso Wolfram Research, lo paragona al ‘saputello chiacchierone che incontri al pub’. “Dirà qualsiasi cosa che lo faccia sembrare intelligente”, dice McLoone Notizie sull’AI. “Non deve essere giusto.”

La verità è, tuttavia, che tali allucinazioni sono inevitabili quando si ha a che fare con gli LLM. Come spiega McLoone, è tutta una questione di scopo. “Penso che una delle cose che la gente dimentica, in questa idea di ‘macchina pensante’, è che tutti questi strumenti sono progettati con uno scopo in mente e che il macchinario funziona per quello scopo”, afferma McLoone. “E lo scopo non era conoscere i fatti.

“Lo scopo che ha guidato la sua creazione era quello di essere fluido; dire il tipo di cose che ti aspetteresti che dicesse un essere umano; essere plausibile”, aggiunge McLoone. “Dire la risposta giusta, dire la verità, è una cosa molto plausibile, ma non è un requisito di plausibilità.

“Quindi ottieni queste cose divertenti in cui puoi dire ‘spiega perché alle zebre piace mangiare i cactus’ – e sta facendo il suo lavoro di plausibilità”, dice McLoone. “Dice il tipo di cose che potrebbero sembrare giuste, ma ovviamente sono tutte sciocchezze, perché gli viene semplicemente chiesto di sembrare plausibili.”

Ciò che serve, quindi, è una sorta di intermediario in grado di infondere un po’ di obiettività nei procedimenti – ed è qui che entra in gioco Wolfram. A marzo, l’azienda ha rilasciato un plugin ChatGPTche mira a “rendere ChatGPT più intelligente fornendogli accesso a calcoli potenti, calcoli accurati, conoscenza curata, dati e visualizzazione in tempo reale”. Oltre ad essere un’estensione generale di ChatGPT, il plugin Wolfram può anche sintetizzare il codice.

“Insegna al LLM a riconoscere il tipo di cose che Wolfram|Alpha potrebbe conoscere: il nostro motore di conoscenza”, spiega McLoone. “Il nostro approccio a questo riguardo è completamente diverso. Non raschiamo il web. Abbiamo curatori umani che danno significato e struttura ai dati, e su questo eseguiamo calcoli per sintetizzare nuove conoscenze, in modo che tu possa porre domande sui dati. Abbiamo alcune migliaia di set di dati integrati in questo.”

Wolfram è sempre stato dalla parte della tecnologia computazionale, con McLoone che si descrive come una “persona computazionale per tutta la vita”, avendo lavorato con l’azienda per quasi 32 dei suoi 36 anni di storia. Quando si tratta di intelligenza artificiale, Wolfram si trova quindi sul lato simbolico del recinto, che si adatta ai casi d’uso del ragionamento logico, piuttosto che all’intelligenza artificiale statistica, che si adatta al riconoscimento di modelli e alla classificazione degli oggetti.

I due sistemi appaiono direttamente opposti, ma con più punti in comune di quanto si possa pensare. “Per come la vedo io, tutti gli approcci all’intelligenza artificiale condividono qualcosa in comune, ovvero l’utilizzo dei macchinari di calcolo per automatizzare la conoscenza”, afferma McLoone. “Ciò che è cambiato in quel periodo è il concetto di a quale livello si automatizza la conoscenza.

“Il buon vecchio mondo dell’intelligenza artificiale è quello in cui gli esseri umani stabiliscono le regole di comportamento e poi la macchina automatizza l’esecuzione di tali regole”, aggiunge McLoone. “Quindi, nello stesso modo in cui il bastone estende la portata dell’uomo delle caverne, il computer estende la capacità del cervello di fare queste cose, ma stiamo comunque risolvendo il problema in anticipo.

“Con l’intelligenza artificiale generativa, non significa più ‘concentriamoci su un problema e scopriamone le regole’. Ora stiamo iniziando a dire: “scopriamo semplicemente le regole del mondo”, e poi avremo un modello che possiamo provare ad applicare a problemi diversi piuttosto che a problemi specifici.

“Così, man mano che l’automazione è salita più in alto nello spettro intellettuale, le cose sono diventate più generali, ma alla fine si tratta solo di eseguire regole”, afferma McLoone.

Inoltre, poiché i diversi approcci all’intelligenza artificiale condividono un obiettivo comune, lo stesso vale per le aziende di entrambe le parti. Mentre OpenAI stava sviluppando la sua architettura di plugin, a Wolfram è stato chiesto di essere uno dei primi fornitori. “Quando è iniziata la rivoluzione LLM, abbiamo iniziato a fare una serie di analisi su ciò di cui erano realmente capaci”, spiega McLoone. “E poi, quando siamo arrivati ​​a capire quali fossero i punti di forza e di debolezza, è stato proprio a quel punto che OpenAI ha iniziato a lavorare sulla propria architettura di plugin.

“Si sono rivolti a noi fin dall’inizio, perché avevano un po’ più tempo di noi per pensarci, dato che lo prevedevano da due anni”, aggiunge McLoone. “Loro hanno già capito esattamente questo problema.”

McLoone dimostrerà il plugin con esempi prossimamente Fiera mondiale dell’intelligenza artificiale e dei big data evento a Londra dal 30 novembre al 1 dicembre, dove terrà un discorso. Tuttavia ci tiene a sottolineare che ci sono casi d’uso più vari là fuori che possono trarre vantaggio dalla combinazione della padronanza di ChatGPT del linguaggio non strutturato e della padronanza di Wolfram della matematica computazionale.

Uno di questi esempi è l’esecuzione della scienza dei dati su cartelle cliniche di medici di famiglia non strutturate. Si va dalla correzione di trascrizioni peculiari sul lato LLM – sostituendo ‘peacemaker’ con ‘pacemaker’ come esempio – all’utilizzo di calcoli vecchio stile e alla ricerca di correlazioni all’interno dei dati. “Ci concentriamo sulla chat, perché al momento è la cosa più sorprendente che possiamo parlare con un computer. Ma il LLM non riguarda solo la chat”, afferma McLoone. “Sono davvero fantastici con i dati non strutturati.”

Come vede McLoone lo sviluppo dei LLM nei prossimi anni? Verranno apportati vari miglioramenti incrementali e le migliori pratiche di formazione vedranno risultati migliori, per non parlare della velocità potenzialmente maggiore con l’accelerazione hardware. “Dove vanno i soldi, le architetture seguono”, osserva McLoone. Un cambiamento epocale della portata degli ultimi 12 mesi, tuttavia, può essere probabilmente escluso. In parte a causa dei costi di elaborazione paralizzanti, ma anche perché potremmo aver raggiunto il picco in termini di set di addestramento. Se le norme sul copyright vanno contro i fornitori di LLM, i set di formazione si ridurranno in futuro.

Il problema dell’affidabilità degli LLM, tuttavia, sarà in primo piano nella presentazione di McLoone. “Le cose computazionali sono quelle in cui è assolutamente più debole, non può davvero seguire regole al di là delle cose veramente basilari”, spiega. “Per tutto ciò in cui si sintetizzano nuove conoscenze o si esegue l’elaborazione con elementi orientati ai dati anziché con elementi orientati alla trama, il calcolo è davvero il modo ancora per farlo.”

Ancora mentre le risposte possono variare – dopo tutto bisogna tenere conto del grado di casualità di ChatGPT – la combinazione sembra funzionare, a patto che si diano istruzioni precise a LLM. “Non so se ho mai visto (un LLM) effettivamente ignorare un fatto che gli ho dato”, dice McLoone. “Quando gli dai la responsabilità del plugin, spesso pensa ‘Non credo che mi prenderò la briga di chiamare Wolfram per questo, conosco la risposta’, e inventerà qualcosa.

“Quindi, se sei responsabile, devi fornire un’ingegneria davvero forte e tempestiva”, aggiunge. “Dì ‘usa sempre lo strumento se ha qualcosa a che fare con questo, non provare ad agire da solo’. Ma quando accade il contrario – quando il calcolo genera la conoscenza e la inserisce nel LLM – non l’ho mai visto ignorare i fatti.

“È proprio come il chiacchierone al pub: se gli sussurri i fatti all’orecchio, se ne prenderà felicemente il merito.”

Wolfram sarà presente all’AI & Big Data Expo. Vuoi saperne di più sull’intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera dell’intelligenza artificiale e dei big data che si svolge ad Amsterdam, in California, e a Londra. L’evento completo è co-localizzato con Fiera sulla sicurezza informatica e sul cloud E Settimana della trasformazione digitale.

Esplora altri prossimi eventi e webinar sulla tecnologia aziendale forniti da TechForge Qui.

tag: ai, intelligenza artificiale, chatgpt, ai generativi, llm, Wolfram, Wolfram Alpha

Fonte: www.artificialintelligence-news.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *