OpenAI e altre aziende leader nel settore dell'intelligenza artificiale stanno sviluppando nuove tecniche di formazione per superare i limiti dei metodi attuali. Affrontando ritardi e complicazioni imprevisti nello sviluppo di modelli linguistici più ampi e potenti, queste nuove tecniche si concentrano sul comportamento simile a quello umano per insegnare agli algoritmi a “pensare”.
Secondo quanto riferito, guidate da una dozzina di ricercatori, scienziati e investitori nel campo dell'intelligenza artificiale, le nuove tecniche di formazione, che sono alla base del recente progetto di OpenAI modello 'o1' (precedentemente Q* e Strawberry), hanno il potenziale per trasformare il panorama dello sviluppo dell’IA. I progressi riportati potrebbero influenzare i tipi o le quantità di risorse di cui le aziende di intelligenza artificiale hanno continuamente bisogno, inclusi hardware ed energia specializzati per favorire lo sviluppo di modelli di intelligenza artificiale.
Il modello o1 è progettato per affrontare i problemi in un modo che imita il ragionamento e il pensiero umano, suddividendo numerose attività in fasi. Il modello utilizza anche dati specializzati e feedback forniti da esperti nel settore dell’intelligenza artificiale per migliorarne le prestazioni.
Da quando ChatGPT è stato presentato da OpenAI nel 2022, c’è stata un’impennata nell’innovazione dell’intelligenza artificiale e molte aziende tecnologiche sostengono che i modelli di intelligenza artificiale esistenti richiedono espansione, attraverso maggiori quantità di dati o migliori risorse di calcolo. Solo allora i modelli di intelligenza artificiale potranno migliorare costantemente.
Ora, gli esperti di intelligenza artificiale hanno segnalato limitazioni nell’ampliamento dei modelli di intelligenza artificiale. Gli anni 2010 sono stati un periodo rivoluzionario per la scalabilità, ma Ilya Sutskever, co-fondatrice dei laboratori di intelligenza artificiale Safe Superintelligence (SSI) e OpenAI, afferma che la formazione dei modelli di intelligenza artificiale, in particolare nella comprensione delle strutture e dei modelli linguistici, si è stabilizzata.
“Gli anni 2010 sono stati l’era del ridimensionamento, ora siamo nuovamente nell’era delle meraviglie e delle scoperte. Ridimensionare la cosa giusta conta di più ora”, hanno detto.
Negli ultimi tempi, i ricercatori dei laboratori di intelligenza artificiale hanno riscontrato ritardi e sfide nello sviluppo e nel rilascio di modelli linguistici di grandi dimensioni (LLM) che sono più potenti del modello GPT-4 di OpenAI.
In primo luogo, c’è il costo della formazione di modelli di grandi dimensioni, che spesso ammonta a decine di milioni di dollari. Inoltre, a causa delle complicazioni che possono sorgere, come guasti hardware dovuti alla complessità del sistema, un’analisi finale del funzionamento di questi modelli può richiedere mesi.
Oltre a queste sfide, i percorsi di formazione richiedono notevoli quantità di energia, spesso con conseguenti carenze di energia che possono interrompere i processi e avere un impatto sulla rete elettrica più ampia. Un altro problema è l’enorme quantità di dati utilizzati dai modelli linguistici di grandi dimensioni, al punto che, secondo quanto riferito, i modelli di intelligenza artificiale hanno esaurito tutti i dati accessibili in tutto il mondo.
I ricercatori stanno esplorando una tecnica nota come “calcolo del tempo di test” per migliorare gli attuali modelli di intelligenza artificiale durante l'addestramento o durante le fasi di inferenza. Il metodo può comportare la generazione di risposte multiple in tempo reale per decidere una serie di soluzioni migliori. Pertanto, il modello può allocare maggiori risorse di elaborazione a compiti difficili che richiedono un processo decisionale e un ragionamento di tipo umano. L’obiettivo: rendere il modello più accurato e capace.
Noam Brown, ricercatore di OpenAI che ha contribuito a sviluppare il modello o1, ha condiviso un esempio di come un nuovo approccio possa ottenere risultati sorprendenti. Alla conferenza TED AI di San Francisco il mese scorso, Brown ha spiegato che “avere un bot che pensa per soli 20 secondi in una mano di poker ha ottenuto lo stesso miglioramento delle prestazioni dell'ingrandimento del modello di 100.000 volte e dell'addestramento per 100.000 volte più a lungo.”
Invece di aumentare semplicemente le dimensioni del modello e i tempi di addestramento, ciò può cambiare il modo in cui i modelli di intelligenza artificiale elaborano le informazioni e portare a sistemi più potenti ed efficienti.
È stato riferito che altri laboratori di intelligenza artificiale hanno sviluppato versioni della tecnica o1. L'includere xAI, Google DeepMindE Antropico. La concorrenza nel mondo dell’intelligenza artificiale non è una novità, ma potremmo vedere un impatto significativo sul mercato dell’hardware dell’intelligenza artificiale come risultato di nuove tecniche. Alle aziende piace Nvidiache attualmente domina l’offerta di chip IA a causa dell’elevata domanda dei loro prodotti, potrebbe essere particolarmente colpita dalle tecniche aggiornate di formazione IA.
Nvidia è diventata l'azienda di maggior valore al mondo in ottobre e la sua crescita nelle fortune può essere in gran parte attribuita all'uso dei suoi chip negli array di intelligenza artificiale. Le nuove tecniche potrebbero avere un impatto sulla posizione di mercato di Nvidia, costringendo l’azienda ad adattare i propri prodotti per soddisfare l’evoluzione della domanda di hardware AI. Potenzialmente, ciò potrebbe aprire più strade a nuovi concorrenti nel mercato dell’inferenza.
Una nuova era di sviluppo dell’intelligenza artificiale potrebbe essere all’orizzonte, guidata dall’evoluzione delle richieste hardware e da metodi di formazione più efficienti come quelli implementati nel modello o1. Il futuro sia dei modelli di intelligenza artificiale che delle aziende che li sostengono potrebbe essere rimodellato, sbloccando possibilità senza precedenti e una maggiore concorrenza.
Vedi anche: Anthropic sollecita una regolamentazione dell’IA per evitare catastrofi
Vuoi saperne di più sull'intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera dell'intelligenza artificiale e dei big data che si svolgerà ad Amsterdam, in California, e a Londra. L'evento completo è collocato in contemporanea con altri eventi importanti, tra cui Conferenza sull'automazione intelligente, BlockX, Settimana della trasformazione digitaleUN
Fonte: www.artificialintelligence-news.com