Un miliardo di dollari in finanziamenti per avviare un’azienda che impiega 12 persone è un’indicazione che gli investitori hanno ancora fiducia nell’intelligenza artificiale. Ma il fondatore della startup in questione – Yann LeCun di AMI Labs – ritiene che il tipo di tecnologia che attualmente chiamiamo AI (modelli linguistici di grandi dimensioni) non è il modo attraverso il quale svilupperà risultati significativi e a lungo termine.
Yann LeCun ha lasciato il suo incarico di capo scienziato dell’intelligenza artificiale presso Meta alla fine dell’anno scorso e ha fondato Laboratori avanzati di intelligenza artificiale (AMI Labs) che, asserisce, rimarrà un’organizzazione di ricerca dalla quale non si prevede che produrrà un prodotto vendibile per forse cinque anni. Il team di AMI Labs si sta concentrando non su enormi modelli generici basati sul linguaggio, ma su IA che comprendono raccolte di componenti modulari, addestrati e funzionanti in casi d’uso specifici.
Il sistema di intelligenza artificiale proposto da LeCun comprenderebbe i seguenti tipi di elementi:
- un modello mondiale specifico per il dominio in cui l’IA opererebbe. Ciò potrebbe essere specifico del settore o, forse, più probabilmente, specifico del ruolo,
- un attore che propone i passi successivi, sulla base del classico apprendimento per rinforzo,
- un critico che analizza le diverse opzioni tratte dal modello mondiale e basato sulla memoria a breve termine, e valuta i passaggi proposti secondo regole codificate,
- un sistema di percezione specifico per l’uso dell’intelligenza artificiale: dati video o audio, testo, immagini e così via utilizzando, ad esempio, algoritmi di riconoscimento della vista con apprendimento profondo,
- una memoria a breve termine,
- un configuratore che orchestrasse il movimento delle informazioni tra ciascuno dei suddetti.

A differenza dei grandi modelli linguistici che sono stati addestrati su una sola fonte di informazione (il testo prelevato da Internet), a ciascuna istanza dell’intelligenza artificiale di LeCun verrebbero forniti dati diretti rilevanti solo per il suo ambiente e scopo. In ciascuna versione, l’importanza di ciascun modulo potrebbe essere impostata in modo diverso. Ad esempio, il modulo critico sarebbe più completo nelle aree che operano con informazioni sensibili, mentre il modulo di percezione sarebbe fondamentale nei sistemi che devono reagire rapidamente agli eventi del mondo reale.
Ogni modulo verrebbe addestrato in modi pertinenti al campo particolare dell’IA. In passato ci sono stati diversi esempi di successo in questo senso, come ad esempio i sistemi di apprendimento automatico che possono insegnare da soli come giocare a un video o a un gioco da tavolo. Questi sono in contrasto con i grandi modelli linguistici che sono alla base della stragrande maggioranza di ciò di cui parliamo attualmente quando parliamo di intelligenza artificiale.
Gli LLM sono addestrati come generalisti, creando le migliori risposte basate su ciò che hanno ingerito, che sono poi soggette a modifiche tramite ingegneria tempestiva tramite wrapper software (Claude Code è il più noto di recente), o a un livello più profondo per mezzo di modelli di ragionamento (la parte “pensare ad alta voce” delle risposte di base reimmessa nel prompt dell’intelligenza artificiale prima che l’utente veda le risposte finali).
Le implicazioni finanziarie delle IA prodotte dal tipo di metodi proposti da AMI Labs saranno interessanti per l’attuale settore dell’IA, presupponendo che le idee di Yann LeCun producano risultati fruttuosi e praticabili. I grandi modelli linguistici dei grandi fornitori di tecnologia (Anthropic, Meta, OpenAI, Google et al.) hanno consumato più risorse ad ogni iterazione negli ultimi cinque anni. Oltre alla crescita delle dimensioni dei modelli nella fase iniziale, la spinta ricorsiva necessaria per migliorare gli output delle versioni successive significa che la formazione e l’esecuzione di modelli di grandi dimensioni diventano sempre più costose e solo le grandi aziende possono permettersi di gestirli in perdita finanziaria.
I moduli più piccoli e mirati all’interno della soluzione proposta da AMI Labs potrebbero essere eseguiti con una frazione della potenza della GPU attualmente necessaria per i giganteschi LLM o addirittura su dispositivo. Invece dei modelli di centinaia di miliardi di parametri utilizzati da ChatGPT, ad esempio, i modelli specialistici – che non hanno bisogno di essere generalisti – dovrebbero necessitare solo di poche centinaia di milioni di parametri. Questo, e il presupposto che i costi dell’informatica generalmente diminuiranno, significano che l’intelligenza artificiale locale, economica e intrinsecamente più accurata potrebbe essere solo a un breve passo da qui.
Una startup con una nuova idea che raccoglie enormi quantità di sostegno finanziario non è una novità nella storia recente della tecnologia. Ma almeno parte della strategia di LeCun si basa sulla convinzione che gli attuali modelli linguistici di grandi dimensioni non possano migliorare in modo sufficientemente significativo da realizzare le ambiziose affermazioni avanzate dai loro creatori. AMI Labs sembra offrire agli investitori un modo in cui l’intelligenza artificiale può funzionare con successo in una fase del prossimo futuro con un costo gestibile, utilizzando un’architettura diversa dalla norma attuale. È una proposta diversa da quella attualmente sul tavolo dei colossi dell’intelligenza artificiale di oggi, ma il messaggio sul potenziale futuro è simile.
(Fonte immagine: “Perspective on Modular Construction” di sidehike è concesso in licenza con CC BY-NC-SA 2.0.)

Vuoi saperne di più sull’intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera dell’intelligenza artificiale e dei big data che si svolge ad Amsterdam, in California, e a Londra. L’evento completo è parte di TechEx e co-localizzato con altri importanti eventi tecnologici. Clic Qui per ulteriori informazioni
AI News è alimentato da Media TechForge. Esplora altri prossimi eventi e webinar sulla tecnologia aziendale Qui.
Fonte: www.artificialintelligence-news.com
