Endor Labs: AI Transparency vs “Open Washing”

 | Intelligenza-Artificiale

Poiché l'industria dell'intelligenza artificiale si concentra sulla trasparenza e sulla sicurezza, si stanno intensificando i dibattiti sul vero significato di “apertura”. Esperti della società di sicurezza open source Endor Labs pesato su questi argomenti urgenti.

Andrew Stiefel, Senior Product Marketing Manager di Endor Labs, ha sottolineato l'importanza di applicare le lezioni apprese dalla sicurezza del software ai sistemi di intelligenza artificiale.

“L'ordine esecutivo del governo del governo degli Stati Uniti su Migliorare la sicurezza informatica americana Include una disposizione che richiede alle organizzazioni di produrre un software Bill of Materials (SBOM) per ciascun prodotto venduto alle agenzie del governo federale. “

Un SBOM è essenzialmente un inventario che dettaglia i componenti open source all'interno di un prodotto, aiutando a rilevare le vulnerabilità. Stiefel ha sostenuto che “applicare questi stessi principi ai sistemi di intelligenza artificiale è il prossimo passo logico”.

“Fornire una migliore trasparenza per cittadini e dipendenti governativi non solo migliora la sicurezza”, ha spiegato, “ma offre anche visibilità sui set di dati, la formazione, i pesi e altri componenti di un modello”.

Cosa significa che un modello AI sia “aperto”?

Julien Sobrier, senior Product Manager di Endor Labs, ha aggiunto un contesto cruciale alla discussione in corso sulla trasparenza dell'intelligenza artificiale e “apertura”. Sobrier ha distrutto la complessità inerente alla classificazione dei sistemi di intelligenza artificiale come veramente aperta.

“Un modello di intelligenza artificiale è realizzato da molti componenti: il set di allenamento, i pesi e i programmi per formare e testare il modello, ecc. È importante rendere l'intera catena disponibile come open source per chiamare il modello” aperto “. Per ora è un'ampia definizione. ”

Sobrier ha notato la mancanza di coerenza tra i principali attori, che ha portato alla confusione per il termine.

“Tra i principali giocatori, le preoccupazioni sulla definizione di” Open “sono iniziate con Openi, e Meta è nelle notizie ora per il loro LAMA Modello anche se è “più aperto”. Abbiamo bisogno di una comprensione comune di cosa significhi un modello aperto. Vogliamo fare attenzione a qualsiasi “lavaggio aperto”, come l'abbiamo visto con software gratuito contro open source. ”

Una potenziale insidia, sottolineata da Sobrier, è la pratica sempre più comune del “lavaggio aperto”, in cui le organizzazioni sostengono la trasparenza imponendo restrizioni.

“Con i fornitori di cloud che offrono una versione a pagamento di progetti open source (come i database) senza contribuire, abbiamo visto un cambiamento in molti progetti open source: il codice sorgente è ancora aperto, ma hanno aggiunto molte restrizioni commerciali.”

I fornitori di LLM “Meta e altri” aperti “potrebbero seguire questa strada per mantenere il loro vantaggio competitivo: più apertura sui modelli, ma impedendo ai concorrenti di usarli”, ha avvertito Sobrier.

DeepSeek mira ad aumentare la trasparenza dell'IA

DeepSeek, uno dei crescenti – sebbene controverso – I giocatori nel settore dell'IA, lo ha fatto Prese provvedimenti Per rispondere ad alcune di queste preoccupazioni facendo parti dei suoi modelli e codice open source. La mossa è stata elogiata per aver avanzato la trasparenza fornendo approfondimenti sulla sicurezza.

“DeepSeek ha già rilasciato i modelli e i loro pesi come open source”, ha affermato Andrew Stiefel. “La prossima mossa fornirà una maggiore trasparenza nei loro servizi ospitati e darà visibilità a come si ottiene e gestisce questi modelli in produzione.”

Tale trasparenza ha benefici significativi, notato Stiefel. “Ciò renderà più facile per la comunità controllare i propri sistemi per i rischi per la sicurezza e anche per le persone e le organizzazioni gestire le proprie versioni di DeepSeek in produzione.”

Oltre alla sicurezza, DeepSeek offre anche una tabella di marcia su come gestire l'infrastruttura di intelligenza artificiale su vasta scala.

“Da un lato di trasparenza, vedremo come DeepSeek gestisce i loro servizi ospitati. Ciò contribuirà a risolvere i problemi di sicurezza emersi dopo che è stato scoperto che hanno lasciato non garantiti alcuni dei loro database di clic. ”

Stiefel ha sottolineato che le pratiche di DeepSeek con strumenti come Docker, Kubernetes (K8S) e altre configurazioni di infrastruttura come codice (IAC) potrebbero potenziare startup e hobbisti a costruire istanze ospitate simili.

Ai open source è caldo in questo momento

Le iniziative di trasparenza di Deepseek si allineano con la tendenza più ampia verso l'IA open source. Un rapporto di IDC rivela che il 60% delle organizzazioni sta optando per i modelli di intelligenza artificiale open source rispetto alle alternative commerciali per i loro progetti generativi di AI (GENAI).

La ricerca di Endor Labs indica inoltre che le organizzazioni utilizzano, in media, tra sette e ventuno modelli open source per applicazione. Il ragionamento è chiaro: sfruttare il modello migliore per compiti specifici e controllo dei costi API.

“A partire dal 7 febbraio, Endor Labs ha scoperto che oltre 3.500 modelli aggiuntivi sono stati addestrati o distillati dal modello originale di DeepSeek R1”, ha affermato Stiefel. “Questo dimostra sia l'energia nella comunità modello AI open source, sia perché i team di sicurezza devono comprendere sia il lignaggio di un modello che i suoi potenziali rischi.”

Per il sobriere, la crescente adozione di modelli AI open source rafforza la necessità di valutare le loro dipendenze.

“Dobbiamo considerare i modelli AI come principali dipendenze da cui dipende il nostro software. Le aziende devono assicurarsi che siano legalmente autorizzate a utilizzare questi modelli, ma anche che sono sicure da utilizzare in termini di rischi operativi e rischi della catena di approvvigionamento, proprio come le biblioteche open source. “

Ha sottolineato che eventuali rischi possono estendersi ai dati di formazione: “Devono essere sicuri che i set di dati utilizzati per la formazione dell'LLM non fossero avvelenati o avessero informazioni private sensibili”.

Costruire un approccio sistematico al rischio del modello AI

Man mano che l'adozione dell'IA open source accelera, la gestione del rischio diventa sempre più critico. Stiefel ha delineato un approccio sistematico incentrato su tre passaggi chiave:

  1. Scoperta: Rileva i modelli AI attualmente utilizzati dalla tua organizzazione.
  2. Valutazione: Rivedere questi modelli per potenziali rischi, comprese le preoccupazioni di sicurezza e operative.
  3. Risposta: Impostare e applicare i guardrail per garantire l'adozione del modello sicuro e sicuro.

“La chiave è trovare il giusto equilibrio tra abilitare l'innovazione e la gestione del rischio”, ha affermato Stiefel. “Dobbiamo fornire i team di ingegneria del software latitudine per sperimentare, ma dobbiamo farlo con la piena visibilità. Il team di sicurezza ha bisogno di linee di vista e intuizione per agire. ”

Sobrier ha inoltre sostenuto che la comunità deve sviluppare le migliori pratiche per la costruzione e l'adozione in modo sicuro dei modelli di intelligenza artificiale. È necessaria una metodologia condivisa per valutare i modelli di intelligenza artificiale su parametri come sicurezza, qualità, rischi operativi e apertura.

Oltre la trasparenza: misure per un futuro di AI responsabile

Per garantire la crescita responsabile dell'intelligenza artificiale, l'industria deve adottare controlli che operano su più vettori:

  • Modelli SaaS: Salvaguardare l'uso dei dipendenti di modelli ospitati.
  • Integrazioni API: Gli sviluppatori che incorporano API di terze parti come DeepSeek in applicazioni, che, attraverso strumenti come Openi Integrations, possono cambiare la distribuzione con solo due righe di codice.
  • Modelli open-source: Gli sviluppatori che sfruttano modelli costruiti dalla comunità o creano i propri modelli dalle basi esistenti gestite da aziende come DeepSeek.

Sobrier ha avvertito del compiacimento di fronte ai rapidi progressi dell'intelligenza artificiale. “La comunità deve costruire le migliori pratiche per sviluppare modelli di intelligenza artificiale sicuri e aperti”, ha consigliato, “e una metodologia per valutarli lungo la sicurezza, la qualità, i rischi operativi e l'apertura”.

Come Styfel ha riassunto in modo succinto: “Pensa alla sicurezza attraverso più vettori e implementa i controlli appropriati per ciascuno”.

Vedi anche: AI nel 2025: modelli guidati dallo scopo, integrazione umana e altro ancora

Vuoi saperne di più sull'intelligenza artificiale e sui big da parte dei leader del settore? Guardare AI e Big Data Expo si svolge ad Amsterdam, in California e a Londra. L'evento completo è co-localizzato con altri eventi principali tra cui Conferenza di automazione intelligente, Blockx, Settimana di trasformazione digitaleE Cyber ​​Security & Cloud Expo.

Esplora altri prossimi eventi tecnologici aziendali e webinar alimentati da TechForge Qui.

Fonte: www.artificialintelligence-news.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *