Presentazione di Gemini Robotics e Gemini Robotics-ER, modelli di intelligenza artificiale progettati per consentire ai robot di comprendere, agire e reagire al mondo fisico.

 | Intelligenza-Artificiale

Promuovere responsabilmente l’intelligenza artificiale e la robotica

Mentre esploriamo il potenziale continuo dell’intelligenza artificiale e della robotica, stiamo adottando una strategia stratificata e olistico approccio per affrontare la sicurezza nella nostra ricerca, dal controllo motorio di basso livello alla comprensione semantica di alto livello.

La sicurezza fisica dei robot e delle persone che li circondano è una preoccupazione fondamentale e di lunga data nella scienza della robotica. Ecco perché i robotisti adottano misure di sicurezza classiche, come evitare collisioni, limitare l’entità delle forze di contatto e garantire la stabilità dinamica dei robot mobili. Gemini Robotics-ER può essere interfacciato con questi controllori critici per la sicurezza di “basso livello”, specifici per ogni particolare forma di realizzazione. Basandosi sulle principali funzionalità di sicurezza di Gemini, consentiamo ai modelli Gemini Robotics-ER di comprendere se un’azione potenziale è sicura o meno da eseguire in un determinato contesto e di generare risposte appropriate.

Per far avanzare la ricerca sulla sicurezza della robotica nel mondo accademico e industriale, stiamo anche rilasciando un nuovo set di dati per valutare e migliorare la sicurezza semantica nell’intelligenza artificiale e nella robotica. Nel lavoro precedente, abbiamo mostrato come a Costituzione del robot ispirato alle Tre leggi della robotica di Isaac Asimov potrebbe aiutare a spingere un LLM a selezionare compiti più sicuri per i robot. Da allora abbiamo sviluppato un framework per generare automaticamente costituzioni guidate dai dati – regole espresse direttamente in linguaggio naturale – per guidare il comportamento di un robot. Questo quadro consentirebbe alle persone di creare, modificare e applicare le costituzioni per sviluppare robot più sicuri e più in linea con i valori umani. Infine, il nuovo set di dati Asimov aiuterà i ricercatori a misurare rigorosamente le implicazioni sulla sicurezza delle azioni robotiche in scenari del mondo reale.

Per valutare ulteriormente le implicazioni sociali del nostro lavoro, collaboriamo con gli esperti del nostro team di sviluppo e innovazione responsabile e con il nostro Consiglio di responsabilità e sicurezza, un gruppo di revisione interno impegnato a garantire lo sviluppo responsabile delle applicazioni IA. Ci consultiamo anche con specialisti esterni su particolari sfide e opportunità presentate dall’intelligenza artificiale incorporata nelle applicazioni di robotica.

Oltre alla nostra partnership con Apptronik, il nostro modello Gemini Robotics-ER è disponibile anche per tester affidabili tra cui Agile Robots, Agility Robots, Boston Dynamics e Enchanted Tools. Non vediamo l’ora di esplorare le capacità dei nostri modelli e di continuare a sviluppare l’intelligenza artificiale per la prossima generazione di robot più utili.

Fonte: deepmind.google

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *