L’intelligenza artificiale fisica solleva questioni di governance per i sistemi autonomi

 | Intelligenza-Artificiale

Governance in giro IA fisica sta diventando sempre più difficile man mano che i sistemi di intelligenza artificiale autonomi si spostano verso robot, sensori e apparecchiature industriali. Il problema non è solo se gli agenti AI possono completare le attività. È il modo in cui le loro azioni vengono testate, monitorate e interrotte quando interagiscono con i sistemi del mondo reale.

La robotica industriale fornisce già un’ampia base per tale discussione. IL Federazione internazionale di robotica Nel 2024 in tutto il mondo saranno installati 542.000 robot industriali, più del doppio del livello annuale registrato dieci anni prima. Si prevede che le installazioni raggiungeranno le 575.000 unità nel 2025 e supereranno le 700.000 unità entro il 2028.

I ricercatori di mercato stanno inoltre applicando l’etichetta Physical AI a un gruppo più ampio di sistemi, tra cui la robotica, l’edge computing e le macchine autonome. Ricerca sulla grande visione ha stimato che il mercato globale dell’IA fisica sarà pari a 81,64 miliardi di dollari nel 2025 e prevede che raggiungerà i 960,38 miliardi di dollari entro il 2033, sebbene la categoria dipenda da come i fornitori definiscono l’intelligenza nei sistemi fisici.

Dall’output del modello all’azione fisica

La sfida della governance è diversa dall’automazione basata esclusivamente sul software perché i sistemi fisici possono operare attorno a luoghi di lavoro, infrastrutture e utenti umani. Possono anche essere collegati ad apparecchiature che richiedono chiari limiti di sicurezza. L’output di un modello può diventare un movimento del robot o un’istruzione della macchina. Può anche diventare una decisione basata sui dati dei sensori. Ciò rende i limiti di sicurezza e i percorsi di escalation parte della progettazione del sistema.

Il lavoro di robotica di Google DeepMind è un esempio recente di come i modelli di intelligenza artificiale vengono adattati a questo ambiente. L’azienda ha introdotto Gemini Robotics e Gemini Robotics-ER nel marzo 2025, descrivendoli come modelli basati su Gemini 2.0 per la robotica e l’intelligenza artificiale incorporata. Gemini Robotics è un modello di visione-linguaggio-azione progettato per controllare direttamente i robot, mentre Gemini Robotics-ER si concentra sul ragionamento incarnato, inclusa la comprensione spaziale e la pianificazione delle attività.

Un robot che utilizza questo tipo di modello potrebbe dover identificare un oggetto, comprendere un’istruzione e pianificare una sequenza di movimenti. È inoltre necessario valutare se l’attività è stata completata correttamente. Ciò crea un problema di controllo che include sia il comportamento del modello che i limiti meccanici del sistema.

Google DeepMind afferma che i robot utili necessitano di generalità, interattività e destrezza. La generalità copre oggetti e ambienti non familiari. L’interattività si riferisce all’input umano e alle condizioni mutevoli. La destrezza si riferisce a compiti fisici che richiedono movimenti precisi.

Nei suoi materiali di lancio, Google DeepMind ha affermato che Gemini Robotics potrebbe seguire istruzioni in linguaggio naturale ed eseguire attività di manipolazione in più fasi. Gli esempi includevano piegare la carta, imballare oggetti in una borsa e maneggiare oggetti non visti durante la formazione.

I requisiti tecnici per l’IA fisica sono più ampi della comprensione del linguaggio. I sistemi necessitano di percezione visiva e ragionamento spaziale. Hanno anche bisogno di pianificazione delle attività e di rilevamento dei successi. Nella robotica, il rilevamento del successo è importante perché il sistema deve decidere se un’attività è stata completata, se deve riprovare o se deve interrompersi.

Gemini Robotics-ER 1.6 di Google DeepMind, introdotto nell’aprile 2026, mostra come tali funzioni vengono integrate nei modelli più recenti. L’azienda descrive il modello come un supporto alla logica spaziale, alla pianificazione delle attività e al rilevamento del successo, con la capacità di ragionare attraverso passaggi intermedi e decidere se andare avanti o riprovare.

La documentazione per gli sviluppatori di Google afferma che Gemini Robotics-ER 1.6 è disponibile in anteprima tramite l’API Gemini. La documentazione lo descrive come un modello di linguaggio visivo che porta le capacità di Gemini nella robotica. Tali capacità includono l’interpretazione visiva, il ragionamento spaziale e la pianificazione da comandi in linguaggio naturale.

Google AI Studio fornisce un ambiente di sviluppo per lavorare con i modelli Gemini, mentre l’API Gemini fornisce un percorso per integrare tali modelli nelle applicazioni. Nel contesto dell’intelligenza artificiale incorporata, ciò pone test e suggerimenti più vicini agli sviluppatori che creano applicazioni agentiche.

I controlli di sicurezza entrano nella progettazione del sistema

La governance diventa più complessa quando questi sistemi possono richiamare strumenti, generare codice o attivare azioni. I controlli devono definire a quali dati può accedere il sistema, quali strumenti può utilizzare, quali azioni richiedono l’approvazione umana e come l’attività viene registrata per la revisione.

Ricerca di McKinsey sulla fiducia nell’intelligenza artificiale del 2026 sottolinea lo stesso problema nell’intelligenza artificiale aziendale in modo più ampio. È emerso che solo circa un terzo delle organizzazioni ha riportato livelli di maturità pari o superiori a tre nella strategia, nella governance e nella governance dell’IA tramite agenti, anche se i sistemi di intelligenza artificiale assumono funzioni più autonome.

Nella robotica la sicurezza comprende anche il comportamento fisico della macchina. Google DeepMind ha descritto la sicurezza dei robot come un problema a più livelli, che copre controlli di livello inferiore come evitare le collisioni, limiti di forza e stabilità, nonché ragionamenti di livello superiore sulla sicurezza di un’azione richiesta nel contesto.

L’azienda ha inoltre introdotto ASIMOV, un set di dati per valutare la sicurezza semantica nella robotica e nell’intelligenza artificiale incorporata. Google DeepMind ha affermato che il set di dati è stato progettato per verificare se i sistemi sono in grado di comprendere le istruzioni relative alla sicurezza ed evitare comportamenti non sicuri in ambienti fisici.

Gli stessi controlli utilizzati per gli agenti software diventano più difficili da gestire quando i sistemi sono collegati a robot, sensori o apparecchiature industriali. Questi includono i diritti di accesso, gli audit trail e il comportamento di rifiuto. Includono anche percorsi di escalation e test.

I quadri di governance come il NIST AI Risk Management Framework e ISO/IEC 42001 forniscono strutture per la gestione dei rischi e delle responsabilità dell’IA durante tutto il ciclo di vita del sistema. Nell’intelligenza artificiale fisica, tali controlli devono tenere conto del comportamento del modello, delle macchine connesse e dell’ambiente operativo.

Google DeepMind ha anche collaborato con aziende di robotica come parte del suo sviluppo dell’intelligenza artificiale incorporata. Nel marzo 2025, la società ha dichiarato che stava collaborando con Apptronik su robot umanoidi che utilizzano Gemini 2.0 e ha elencato Agile Robots, Agility Robotics, Boston Dynamics e Enchanted Tools tra i tester affidabili per Gemini Robotics-ER.

L’aggiornamento del 2026 fa riferimento anche al lavoro con Boston Dynamics che coinvolge attività di robotica come la lettura di strumenti. Questo tipo di caso d’uso dipende dalla comprensione visiva, dalla pianificazione delle attività e dalla valutazione affidabile delle condizioni fisiche.

L’intelligenza artificiale fisica si applica all’ispezione industriale, alla produzione e alla logistica. Si applica anche alle strutture e ai magazzini. Queste impostazioni richiedono che i sistemi interpretino le condizioni del mondo reale e agiscano entro limiti definiti. La questione della governance è come vengono fissati tali limiti prima che ai sistemi autonomi sia consentito prendere o eseguire decisioni.

Google DeepMind e Google AI Studio sono elencati come partner tecnologici dell’hackathon per AI & Big Data Expo North America 2026, che si svolgerà dal 18 al 19 maggio presso il San Jose McEnery Convention Center.

(Foto di Mitchell Luo)

Vedi anche: La governance degli agenti IA è al centro dell’attenzione mentre i regolatori segnalano le lacune di controllo

Vuoi saperne di più sull’intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera dell’intelligenza artificiale e dei big data che si svolge ad Amsterdam, in California, e a Londra. L’evento completo è parte di TechEx ed è situato in concomitanza con altri importanti eventi tecnologici, clicca Qui per ulteriori informazioni

AI News è alimentato da Media TechForge. Esplora altri prossimi eventi e webinar sulla tecnologia aziendale Qui.

Fonte: www.artificialintelligence-news.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *