I dati di simulazione virtuale stanno guidando lo sviluppo dell’intelligenza artificiale fisica negli ambienti aziendali, guidati da iniziative come MolmoBot di Ai2.
Dare istruzioni all’hardware per interagire con il mondo reale si è storicamente basato su dimostrazioni molto costose e raccolte manualmente. I fornitori di tecnologia che costruiscono agenti di manipolazione generalisti in genere inquadrano un’ampia formazione nel mondo reale come base per questi sistemi.
In alcuni contesti, progetti come DROID includono 76.000 traiettorie teleoperate raccolte in 13 istituzioni, che rappresentano circa 350 ore di impegno umano. RT-1 di Google DeepMind ha richiesto 130.000 episodi raccolti in 17 mesi da operatori umani. Questa dipendenza dalla raccolta dati manuale e proprietaria gonfia i budget della ricerca e concentra le capacità all’interno di un piccolo gruppo di laboratori industriali dotati di risorse adeguate.
“La nostra missione è costruire un’intelligenza artificiale che faccia avanzare la scienza ed espanda ciò che l’umanità può scoprire”, ha affermato Ali Farhadi, CEO di Ai2. “La robotica può diventare uno strumento scientifico fondamentale, aiutando i ricercatori a muoversi più velocemente ed esplorare nuove domande. Per arrivarci, abbiamo bisogno di sistemi che si generalizzino nel mondo reale e di strumenti su cui la comunità di ricerca globale possa costruire insieme. Dimostrare il trasferimento dalla simulazione alla realtà è un passo significativo in quella direzione.”
I ricercatori del Allen Institute per l’intelligenza artificiale (Ai2) offrono un modello economico diverso con MolmoBot, una suite di modelli di manipolazione robotica aperta addestrata interamente su informazioni sintetiche. Generando traiettorie proceduralmente all’interno di un sistema chiamato MolmoSpaces, il team aggira la necessità della teleoperazione umana.
Il set di dati di accompagnamento, MolmoBot-Data, contiene 1,8 milioni di traiettorie di manipolazione esperta. Questa raccolta è stata prodotta combinando il motore fisico MuJoCo con una randomizzazione aggressiva dei domini, oggetti, punti di vista, illuminazione e dinamiche variabili.
“La maggior parte degli approcci cerca di colmare il divario tra simulazione e realtà aggiungendo più dati del mondo reale”, ha affermato Ranjay Krishna, direttore del team PRIOR presso Ai2. “Abbiamo fatto la scommessa opposta: il divario si riduce quando si espande notevolmente la diversità degli ambienti simulati, degli oggetti e delle condizioni della telecamera. Il nostro ultimo progresso sposta il vincolo nella robotica dalla raccolta di dimostrazioni manuali alla progettazione di mondi virtuali migliori, e questo è un problema che possiamo risolvere.”
Generazione di dati di simulazione virtuale per l’intelligenza artificiale fisica
Utilizzando 100 GPU Nvidia A100, la pipeline ha creato circa 1.024 episodi per ora di GPU, equivalenti a oltre 130 ore di esperienza del robot per ogni ora di orologio da parete.
Rispetto alla raccolta dati nel mondo reale, ciò rappresenta quasi quattro volte la velocità di trasmissione dei dati, con un impatto diretto sul ritorno sull’investimento del progetto accelerando i cicli di distribuzione.
La suite MolmoBot comprende tre distinte classi di policy valutate su due piattaforme: il manipolatore mobile Rainbow Robotics RB-Y1 e il braccio da tavolo Franka FR3. Il modello primario, costruito su una dorsale del linguaggio visivo Molmo2, elabora più passaggi temporali di osservazioni RGB e istruzioni linguistiche per dettare le azioni.
Flessibilità hardware con MolmoBot di Ai2
Per calcolo perimetrale ambienti in cui le risorse sono limitate, i ricercatori forniscono MolmoBot-SPOC, una politica di trasformazione leggera con meno parametri. MolmoBot-Pi0 utilizza un backbone PaliGemma per abbinare l’architettura del modello π0 di Physical Intelligence, consentendo confronti diretti delle prestazioni.
Durante i test fisici, queste policy hanno dimostrato un trasferimento zero-shot ad attività del mondo reale che coinvolgono oggetti e ambienti invisibili senza alcuna messa a punto.
Nelle valutazioni pick-and-place da tavolo, il modello primario MolmoBot ha raggiunto una percentuale di successo del 79,2%. Questo ha sovraperformato π0,5, un modello addestrato su estesi dati dimostrativi del mondo reale, che ha raggiunto un tasso di successo del 39,2%. Per la manipolazione mobile, le policy hanno eseguito con successo compiti come avvicinarsi, afferrare e aprire le porte attraverso l’intera gamma di movimento.
Fornire queste diverse architetture consente alle organizzazioni di integrare sistemi di intelligenza artificiale fisici capaci senza essere bloccate in un unico ecosistema di fornitori proprietari o in un’ampia infrastruttura di raccolta dati.
Il rilascio aperto dell’intero stack MolmoBot, inclusi i dati di addestramento, le pipeline di generazione e le architetture dei modelli, consente il controllo e l’adattamento interni. Chiunque esplori l’intelligenza artificiale fisica può sfruttare questi strumenti aperti per la simulazione e la costruzione di sistemi capaci controllando allo stesso tempo i costi.
“Affinché l’intelligenza artificiale possa realmente far avanzare la scienza, il progresso non può dipendere da dati chiusi o da sistemi isolati”, continua Ali Farhadi, CEO di Ai2. “Richiede un’infrastruttura condivisa su cui i ricercatori di tutto il mondo possano costruire, testare e migliorare insieme. Questo è il modo in cui crediamo che l’intelligenza artificiale fisica andrà avanti.”
Vedi anche: Nuova partnership per offrire robot intelligenti per ambienti pericolosi

Vuoi saperne di più sull’intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera dell’intelligenza artificiale e dei big data che si svolge ad Amsterdam, in California, e a Londra. L’evento completo è parte di TechEx ed è situato in concomitanza con altri importanti eventi tecnologici tra cui Fiera sulla sicurezza informatica e sul cloud. Clic Qui per ulteriori informazioni
AI News è alimentato da Media TechForge. Esplora altri prossimi eventi e webinar sulla tecnologia aziendale Qui.
Fonte: www.artificialintelligence-news.com
