L’ultimo aggiornamento delle specifiche MCP rafforza l’infrastruttura aziendale con una sicurezza più rigorosa, spostando gli agenti AI dalla fase pilota a quella di produzione.
In occasione del suo primo anno, il progetto open source creato da Anthropic ha rilasciato questa settimana una specifica rivista mirata a risolvere i problemi operativi che mantengono gli agenti di intelligenza artificiale generativa bloccati in modalità pilota. Supportato da Amazon Web Services (AWS), Microsoft e Google Cloud, l’aggiornamento aggiunge il supporto per flussi di lavoro di lunga durata e controlli di sicurezza più severi.
Il mercato si sta allontanando da integrazioni fragili e su misura. Per le aziende, questa è un’opportunità per implementare un’intelligenza artificiale in grado di leggere e scrivere su archivi dati aziendali senza incorrere in ingenti debiti tecnici.
MCP passa dalla “curiosità dello sviluppatore” all’infrastruttura pratica
La narrazione è passata dai chatbot sperimentali all’integrazione strutturale. Da settembre, il registro si è ampliato del 407%, ospitando ora quasi duemila server.
“Un anno dopo il lancio del Model Context Protocol da parte di Anthropic, MCP è scomparso una curiosità dello sviluppatore a un modo pratico per connettere l’intelligenza artificiale ai sistemi in cui risiedono lavoro e dati”, afferma Satyajith Mundakkal, Global CTO presso Esawarea seguito di questo ultimo aggiornamento delle specifiche.
Microsoft ha già “segnalato il cambiamento aggiungendo il supporto MCP nativo a Windows 11”, spostando di fatto lo standard direttamente a livello del sistema operativo.
Questa standardizzazione del software arriva insieme a un aggressivo scale-up dell’hardware. Mundakkal evidenzia la “costruzione di infrastrutture senza precedenti”, citando il multi-gigawatt di OpenAI “Portale stellare” programma. “Questi sono segnali chiari che le capacità dell’intelligenza artificiale, e i dati da cui dipendono, si stanno espandendo rapidamente”, afferma.
MCP è l’impianto idraulico che alimenta queste enormi risorse di calcolo. Come dice Mundakkal: “L’intelligenza artificiale è valida quanto lo sono i dati può arrivare tranquillamente.”
Fino ad ora, l’inserimento di un LLM in un database era per lo più sincrono. Funziona per un chatbot che controlla il meteo, ma fallisce durante la migrazione di una base di codice o l’analisi delle cartelle cliniche.
La nuova funzionalità “Attività” cambia questo (SEP-1686). Fornisce ai server un modo standard per tenere traccia del lavoro, consentendo ai client di interrogare lo stato o annullare i lavori se le cose vanno male. I team operativi che automatizzano la migrazione dell’infrastruttura necessitano di agenti che possano funzionare per ore senza timeout. Supportare stati come lavorando O input_richiesto porta finalmente resilienza ai flussi di lavoro degli agenti.
L’aggiornamento delle specifiche MCP migliora la sicurezza
Soprattutto per i CISO, gli agenti IA spesso sembrano una superficie di attacco massiccia e incontrollata. I rischi sono già visibili; “I ricercatori di sicurezza hanno addirittura trovato circa 1.800 server MCP esposti sull’Internet pubblica entro la metà del 2025”, il che implica che l’adozione delle infrastrutture private è significativamente più ampia.
“Fatto male”, avverte Mundakkal, “(MCP) diventa un’espansione dell’integrazione e una superficie di attacco più ampia”.
Per risolvere questo problema, i manutentori hanno affrontato l’attrito della registrazione dinamica del client (DCR). La correzione è la registrazione client basata su URL (SEP-991), in cui i client forniscono un ID univoco che punta a un documento di metadati autogestito per eliminare il collo di bottiglia dell’amministrazione.
Poi c’è “Elicitazione modalità URL” (SEP-1036). Consente a un server, ad esempio che gestisce i pagamenti, di rimandare un utente a una finestra del browser sicura per le credenziali. L’agente non vede mai la password; ottiene semplicemente il token. Mantiene isolate le credenziali principali, non negoziabili per la conformità PCI.
Harish Peri, Vicepresidente senior presso Okritiene che ciò offra la “supervisione e il controllo degli accessi necessari per costruire un ecosistema di intelligenza artificiale sicuro e aperto”.
Una funzionalità come parte dell’aggiornamento delle specifiche per l’infrastruttura MCP è in qualche modo sfuggita al radar: “Sampling with Tools” (SEP-1577). I server erano raccoglitori di dati passivi; ora possono eseguire i propri cicli utilizzando i token del client. Immagina un “server di ricerca” che genera agenti secondari per analizzare i documenti e sintetizzare un rapporto. Non è richiesto alcun codice client personalizzato: sposta semplicemente il ragionamento più vicino ai dati.
Tuttavia, il cablaggio di queste connessioni è solo il primo passo. Mayur Upadhyaya, CEO di APIContextsostiene che “il primo anno di adozione di MCP ha dimostrato che l’intelligenza artificiale aziendale non inizia con le riscritture, ma con l’esposizione”.
Ma la visibilità è il prossimo ostacolo. “La prossima ondata riguarderà la visibilità: le aziende dovranno monitorare i tempi di attività di MCP e convalidare i flussi di autenticazione con la stessa precisione con cui monitorano oggi le API”, spiega Upadhyaya.
La tabella di marcia di MCP riflette questo, con aggiornamenti mirati a una migliore “affidabilità e osservabilità” per il debug. Se tratti i server MCP come “imposta e dimentica”, stai andando in cerca di guai. Mundakkal è d’accordo, sottolineando che la lezione del primo anno è quella di “abbinare MCP a una forte identità, RBAC e osservabilità fin dal primo giorno”.
Line-up di settori stellati che adottano MCP per le infrastrutture
Un protocollo è valido tanto quanto chi lo utilizza. In un anno dal rilascio delle specifiche originali, MCP ha raggiunto quasi duemila server. Microsoft lo sta utilizzando per collegare GitHub, Azure e M365. AWS lo sta inserendo in Bedrock. Google Cloud lo supporta su Gemini.
Ciò riduce il vincolo del fornitore. Un connettore Postgres creato per MCP dovrebbe teoricamente funzionare su Gemini, ChatGPT o un agente Anthropic interno senza riscrittura.
La fase “idraulica” dell’intelligenza artificiale generativa si sta stabilizzando e gli standard aperti stanno vincendo il dibattito sulla connettività. I leader tecnologici dovrebbero cercare di verificare le API interne per la preparazione MCP – concentrandosi sull’esposizione piuttosto che sulle riscritture – e verificare che la nuova registrazione basata su URL si adatti agli attuali framework IAM.
Anche i protocolli di monitoraggio devono essere stabiliti immediatamente. Sebbene l’ultimo aggiornamento delle specifiche MCP sia retrocompatibile con l’infrastruttura esistente; le nuove funzionalità sono l’unico modo per inserire gli agenti in flussi di lavoro regolamentati e rilevanti per la missione e garantire la sicurezza.

Vuoi saperne di più sull’intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera dell’intelligenza artificiale e dei big data che si svolge ad Amsterdam, in California, e a Londra. L’evento completo è parte di TechEx ed è situato in concomitanza con altri importanti eventi tecnologici tra cui Fiera della sicurezza informatica. Clic Qui per ulteriori informazioni
AI News è alimentato da Media TechForge. Esplora altri prossimi eventi e webinar sulla tecnologia aziendale Qui.
Fonte: www.artificialintelligence-news.com
