OpenAI Agents SDK migliora la governance con l’esecuzione sandbox

 | Intelligenza-Artificiale

OpenAI sta introducendo l’esecuzione sandbox che consente ai team di governance aziendale di implementare flussi di lavoro automatizzati con rischi controllati.

I team che portano i sistemi dal prototipo alla produzione hanno dovuto affrontare difficili compromessi architetturali riguardo al luogo in cui si svolgevano le loro operazioni. L’utilizzo di strutture indipendenti dal modello offriva flessibilità iniziale ma non riusciva a sfruttare appieno le capacità dei modelli di frontiera. Gli SDK del provider di modelli rimanevano più vicini al modello sottostante, ma spesso non avevano sufficiente visibilità nel cablaggio di controllo.

Per complicare ulteriormente le cose, le API degli agenti gestiti hanno semplificato il processo di implementazione ma hanno fortemente limitato il luogo in cui i sistemi potevano essere eseguiti e il modo in cui accedevano ai dati aziendali sensibili. Per risolvere questo problema, OpenAI sta introducendo nuove funzionalità nell’Agents SDK, offrendo agli sviluppatori un’infrastruttura standardizzata con un cablaggio nativo del modello e un’esecuzione sandbox nativa.

L’infrastruttura aggiornata allinea l’esecuzione con il modello operativo naturale dei modelli sottostanti, migliorando l’affidabilità quando le attività richiedono il coordinamento tra diversi sistemi. Oscar Health fornisce un esempio di questa efficienza per quanto riguarda i dati non strutturati.

L’operatore sanitario ha testato la nuova infrastruttura per automatizzare un flusso di lavoro di cartelle cliniche che gli approcci precedenti non erano in grado di gestire in modo affidabile. Il team di ingegneri aveva bisogno che il sistema automatizzato estraesse i metadati corretti comprendendo correttamente i confini degli incontri con i pazienti all’interno di file medici complessi. Automatizzando questo processo, il fornitore potrebbe analizzare le storie dei pazienti più velocemente, accelerando il coordinamento delle cure e migliorando l’esperienza complessiva dei membri.

Rachael Burns, Staff Engineer e AI Tech Lead presso Oscar Health, ha dichiarato: “L’aggiornamento di Agents SDK ci ha reso possibile automatizzare un flusso di lavoro di cartelle cliniche critiche che gli approcci precedenti non erano in grado di gestire in modo sufficientemente affidabile.

“Per noi, la differenza non è stata solo estrarre i metadati corretti, ma comprendere correttamente i confini di ogni incontro in record lunghi e complessi. Di conseguenza, possiamo capire più rapidamente cosa sta succedendo a ciascun paziente in una determinata visita, aiutando i membri con le loro esigenze di cura e migliorando la loro esperienza con noi.”

OpenAI ottimizza i flussi di lavoro dell’intelligenza artificiale con un cablaggio nativo del modello

Per implementare questi sistemi, gli ingegneri devono gestire la sincronizzazione dei database vettoriali, controllare i rischi di allucinazioni e ottimizzare costosi cicli di elaborazione. Senza strutture standard, i team interni spesso ricorrono alla creazione di fragili connettori personalizzati per gestire questi flussi di lavoro.

Il nuovo cablaggio nativo del modello aiuta ad alleviare questo attrito introducendo memoria configurabile, orchestrazione compatibile con sandbox e strumenti di filesystem simili a Codex. Gli sviluppatori possono integrare primitive standardizzate come l’utilizzo di strumenti tramite MCP, istruzioni personalizzate tramite AGENTS.md e modifiche ai file utilizzando lo strumento di applicazione patch.

La divulgazione progressiva tramite competenze ed esecuzione di codice utilizzando lo strumento shell consente inoltre al sistema di eseguire attività complesse in sequenza. Questa standardizzazione consente ai team di progettazione di dedicare meno tempo all’aggiornamento dell’infrastruttura principale e di concentrarsi sulla creazione di una logica specifica per dominio che avvantaggia direttamente l’azienda.

L’integrazione di un programma autonomo in uno stack tecnologico legacy richiede un routing preciso. Quando un processo autonomo accede a dati non strutturati, fa molto affidamento sui sistemi di recupero per estrarre il contesto rilevante.

Per gestire l’integrazione di diverse architetture e limitare l’ambito operativo, l’SDK introduce un’astrazione Manifest. Questa astrazione standardizza il modo in cui gli sviluppatori descrivono lo spazio di lavoro, consentendo loro di montare file locali e definire directory di output.

I team possono connettere questi ambienti direttamente ai principali provider di storage aziendale, tra cui AWS S3, Azure Blob Storage, Google Cloud Storage e Cloudflare R2. La creazione di uno spazio di lavoro prevedibile fornisce al modello parametri esatti su dove individuare gli input, scrivere gli output e mantenere l’organizzazione durante i periodi operativi prolungati.

Questa prevedibilità impedisce al sistema di interrogare data Lake non filtrati, limitandoli a finestre di contesto specifiche e convalidate. I team di governance dei dati possono successivamente monitorare la provenienza di ogni decisione automatizzata con maggiore precisione, dalle fasi di prototipazione locale fino all’implementazione della produzione.

Miglioramento della sicurezza con l’esecuzione sandbox nativa

L’SDK supporta nativamente l’esecuzione sandbox, offrendo un livello pronto all’uso in modo che i programmi possano essere eseguiti all’interno di ambienti informatici controllati contenenti i file e le dipendenze necessari. I team di ingegneri non hanno più bisogno di mettere insieme manualmente questo livello di esecuzione. Possono implementare i propri sandbox personalizzati o utilizzare il supporto integrato per fornitori come Blaxel, Cloudflare, Daytona, E2B, Modal, Runloop e Vercel.

La mitigazione del rischio rimane la preoccupazione principale per qualsiasi azienda che implementa l’esecuzione autonoma del codice. I team di sicurezza devono presumere che qualsiasi sistema che legga dati esterni o esegua codice generato dovrà affrontare attacchi di pronta immissione e tentativi di esfiltrazione.

OpenAI affronta questo requisito di sicurezza separando il cablaggio di controllo dal livello di calcolo. Questa separazione isola le credenziali, mantenendole completamente fuori dagli ambienti in cui viene eseguito il codice generato dal modello. Isolando il livello di esecuzione, un comando dannoso inserito non può accedere al piano di controllo centrale o rubare le chiavi API primarie, proteggendo la rete aziendale più ampia dagli attacchi di movimento laterale.

Questa separazione risolve anche i problemi relativi ai costi di elaborazione relativi ai guasti del sistema. Le attività a esecuzione prolungata spesso falliscono a metà a causa di timeout di rete, arresti anomali del contenitore o limiti API. Se un agente complesso effettua venti passaggi per compilare un rapporto finanziario e fallisce al passaggio diciannove, rieseguire l’intera sequenza brucia costose risorse di calcolo.

Se l’ambiente si blocca con la nuova architettura, perdere il contenitore sandbox non significa perdere l’intera operatività. Poiché lo stato del sistema rimane esternalizzato, l’SDK utilizza snapshot e reidratazione integrati. L’infrastruttura può ripristinare lo stato all’interno di un nuovo contenitore e riprendere esattamente dall’ultimo checkpoint se l’ambiente originale scade o fallisce. Prevenire la necessità di riavviare processi costosi e di lunga durata si traduce direttamente in una riduzione della spesa per il cloud computing.

La scalabilità di queste operazioni richiede l’allocazione dinamica delle risorse. L’architettura separata consente alle esecuzioni di richiamare sandbox singoli o multipli in base al carico corrente, instradare agenti secondari specifici in ambienti isolati e parallelizzare le attività su numerosi contenitori per tempi di esecuzione più rapidi.

Queste nuove funzionalità sono generalmente disponibili per tutti i clienti tramite l’API, utilizzando prezzi standard basati su token e utilizzo degli strumenti senza richiedere contratti di approvvigionamento personalizzati. Le nuove funzionalità di cablaggio e sandbox verranno lanciate prima per gli sviluppatori Python, con il supporto TypeScript previsto per una versione futura.

OpenAI prevede di apportare funzionalità aggiuntive, tra cui la modalità codice e gli agenti secondari, alle librerie Python e TypeScript. Il fornitore intende espandere l’ecosistema più ampio nel tempo supportando ulteriori fornitori di sandbox e offrendo più metodi agli sviluppatori per collegare l’SDK direttamente ai loro sistemi interni esistenti.

Vedi anche: Commvault lancia un “Ctrl-Z” per i carichi di lavoro AI cloud

Banner per gli eventi AI & Big Data Expo di TechEx.

Vuoi saperne di più sull’intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera dell’intelligenza artificiale e dei big data che si svolge ad Amsterdam, in California, e a Londra. L’evento completo è parte di TechEx ed è situato in concomitanza con altri importanti eventi tecnologici tra cui Fiera sulla sicurezza informatica e sul cloud. Clic Qui per ulteriori informazioni

AI News è alimentato da Media TechForge. Esplora altri prossimi eventi e webinar sulla tecnologia aziendale Qui.

Fonte: www.artificialintelligence-news.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *