OpenCog Hyperon e AGI: oltre i grandi modelli linguistici

 | Intelligenza-Artificiale

Per la maggior parte degli utenti web, l’intelligenza artificiale generativa è intelligenza artificiale. I Large Language Models (LLM) come GPT e Claude sono i Infatti porta verso l’intelligenza artificiale e le infinite possibilità che ha da offrire. Dopo aver padroneggiato la nostra sintassi e remixato i nostri meme, gli LLM hanno catturato l’immaginazione del pubblico.

Sono facili da usare e divertenti. E – a parte le strane allucinazioni – sono intelligenti. Ma mentre il pubblico gioca con il suo gusto preferito di LLM, coloro che vivono, respirano e dormono l’intelligenza artificiale – ricercatori, responsabili tecnologici, sviluppatori – si concentrano su cose più grandi. Questo perché l’obiettivo finale degli esperti di AI max è l’intelligenza artificiale generale (AGI). Questo è il finale.

Per i professionisti, gli LLM sono uno spettacolo secondario. Divertente ed estremamente utile, ma in definitiva “IA ristretta”. Sono bravi in ​​quello che fanno perché sono stati formati su set di dati specifici, ma sono incapaci di uscire dalla loro corsia e tentare di risolvere problemi più ampi.

I rendimenti decrescenti e le limitazioni intrinseche dei modelli di deep learning stanno spingendo all’esplorazione di soluzioni più intelligenti capaci di effettiva cognizione. Modelli che si trovano a metà strada tra LLM e AGI. Un sistema che rientra in questa fascia – più intelligente di un LLM e un assaggio della futura intelligenza artificiale – è OpenCog Hyperon, un framework open source sviluppato da SingularityNET.

Con il suo approccio “neurale-simbolico”, Hyperon è progettato per colmare il divario tra la corrispondenza dei modelli statistici e il ragionamento logico, offrendo una tabella di marcia che unisce i punti tra i chatbot di oggi e le infinite macchine pensanti di domani.

Architettura ibrida per AGI

SingularityNET ha posizionato OpenCog Hyperon come una piattaforma di ricerca AGI di prossima generazione che integra più modelli di intelligenza artificiale in un’architettura cognitiva unificata. A differenza dei sistemi incentrati sul LLM, Hyperon è costruito attorno all’integrazione neurale-simbolica in cui l’intelligenza artificiale può apprendere dai dati e ragionare sulla conoscenza.

Questo perché conneurale-simbolico L’intelligenza artificiale, le componenti dell’apprendimento neurale e i meccanismi di ragionamento simbolico sono intrecciati in modo che l’uno possa informare e migliorare l’altro. Ciò supera uno dei limiti principali dei modelli puramente statistici incorporando processi di ragionamento strutturati e interpretabili.

Fondamentalmente, OpenCog Hyperon combina la logica probabilistica e il ragionamento simbolico con la sintesi evolutiva del programma e l’apprendimento multi-agente. Sono molti i termini da prendere, quindi proviamo a spiegare come funziona tutto nella pratica. Per comprendere OpenCog Hyperon – e in particolare perché l’intelligenza artificiale neurale-simbolica è un grosso problema – dobbiamo capire come funzionano gli LLM e dove falliscono.

I limiti degli LLM

L’intelligenza artificiale generativa opera principalmente su associazioni probabilistiche. Quando un LLM risponde a una domanda, non “conosce” la risposta nel modo istintivo di un essere umano. Calcola invece la sequenza di parole più probabile che seguirà il prompt in base ai dati di addestramento. Nella maggior parte dei casi, questa “imitazione di una persona” risulta molto convincente, fornendo all’utente umano non solo l’output che si aspetta, ma anche quello corretto.

Gli LLM sono specializzati nel riconoscimento di modelli su scala industriale e sono molto bravi in ​​questo. Ma i limiti di questi modelli sono ben documentati. Naturalmente c’è l’allucinazione, di cui abbiamo già parlato, in cui vengono presentate informazioni apparentemente plausibili ma di fatto errate. Niente è più difficile di un LLM desideroso di compiacere il suo padrone.

Ma un problema più grande, soprattutto quando si affrontano problemi più complessi, è la mancanza di ragionamento. Gli LLM non sono abili nel dedurre logicamente nuove verità da fatti accertati se tali modelli specifici non fossero presenti nel set di formazione. Se hanno già visto lo schema, possono prevederne di nuovo l’aspetto. Se non lo fanno, si scontrano con un muro.

L’AGI, al contrario, descrive l’intelligenza artificiale in grado di comprendere e applicare realmente la conoscenza. Non si limita a indovinare la risposta giusta con un alto grado di certezza: la conosce e ha le capacità per sostenerla. Naturalmente, questa capacità richiede capacità di ragionamento esplicite e gestione della memoria, per non parlare della capacità di generalizzare quando vengono forniti dati limitati. Questo è il motivo per cui l’AGI è ancora lontana: quanto dipende da quale essere umano (o LLM) chiedi.

Ma nel frattempo, indipendentemente dal fatto che l’AGI sia a mesi, anni o decenni di distanza, abbiamo un’intelligenza artificiale neurale-simbolica, che ha il potenziale per mettere in ombra il tuo LLM.

Conoscenza dinamica su richiesta

Per comprendere l’IA neurale-simbolica in azione, torniamo aOpenCog Hyperon. Al centro c’è l’Atomspace Metagraph, una struttura grafica flessibile che rappresenta diverse forme di conoscenza tra cui dichiarativa, procedurale, sensoriale e diretta agli obiettivi, tutte contenute in un unico substrato. La metagrafia può codificare relazioni e strutture in modi che supportano non solo l’inferenza, ma la deduzione logica e il ragionamento contestuale.

Se questo suona molto simile all’AGI, è perché lo è. “Diet AGI”, se preferisci, fornisce un assaggio di dove è diretta l’intelligenza artificiale. Affinché gli sviluppatori possano costruire con Atomspace Metagraph e utilizzare la sua potenza espressiva, Hyperon ha creato MeTTa (Meta Type Talk), un nuovo linguaggio di programmazione progettato specificamente per lo sviluppo AGI.

A differenza dei linguaggi generici come Python, MeTTa è un substrato cognitivo che fonde elementi di logica e programmazione probabilistica. I programmi in MeTTa operano direttamente sul metagrafo, interrogando e riscrivendo le strutture della conoscenza e supportando il codice automodificante, che è essenziale per i sistemi che imparano a migliorarsi.

Ragionamento robusto come gateway per l’AGI

L’approccio neurale-simbolico alla base di Hyperon affronta un limite chiave dell’IA puramente statistica, vale a dire che i modelli ristretti hanno difficoltà con compiti che richiedono un ragionamento in più fasi. Problemi astratti confondono i LLM con il loro puro riconoscimento di modelli. Aggiungiamo però l’apprendimento neurale e il ragionamento diventerà più intelligente e più umano. Se l’intelligenza artificiale ristretta riesce a impersonare bene una persona, l’intelligenza artificiale neurale-simbolica ne fa una straordinaria.

Detto questo, è importante contestualizzare l’IA neurale-simbolica. Il design ibrido di Hyperon non significa che una svolta AGI sia imminente. Ma rappresenta una direzione di ricerca promettente che affronta esplicitamente la rappresentazione cognitiva e l’apprendimento autodiretto non basandosi solo sulla corrispondenza dei modelli statistici. E qui e ora, questo concetto non è limitato a qualche grande white paper: è là fuori e viene utilizzato attivamente per creare soluzioni potenti.

Il LLM non è morto – l’intelligenza artificiale ristretta continuerà a migliorare – ma i suoi giorni sono contati e la sua obsolescenza è inevitabile. È solo questione di tempo. Prima IA neurale-simbolica. Poi, si spera, l’AGI – il boss finale dell’intelligenza artificiale.

Fonte immagine: Depositphotos

Fonte: www.artificialintelligence-news.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *