Laboratori Endor ha iniziato ad assegnare punteggi ai modelli di intelligenza artificiale in base alla loro sicurezza, popolarità, qualità e attività.
Denominata “Endor Scores for AI Models”, questa funzionalità unica mira a semplificare il processo di identificazione dei modelli AI open source più sicuri attualmente disponibili su Hugging Face, una piattaforma per la condivisione di Large Language Models (LLM), modelli di apprendimento automatico e altri modelli e set di dati di intelligenza artificiale open source, fornendo punteggi semplici.
L'annuncio arriva mentre gli sviluppatori si rivolgono sempre più a piattaforme come Hugging Face per modelli di intelligenza artificiale già pronti, rispecchiando i primi tempi del software open source (OSS) prontamente disponibile. Questa nuova versione migliora La governance dell’intelligenza artificiale consentendo agli sviluppatori di “iniziare in modo pulito” con modelli di intelligenza artificiale, un obiettivo che finora si è rivelato irraggiungibile.
Varun Badhwar, co-fondatore e CEO di Endor Labs, ha dichiarato: “La nostra missione è sempre stata quella di proteggere tutto ciò da cui dipende il tuo codice, e i modelli di intelligenza artificiale sono la prossima grande frontiera in questo compito critico.
“Ogni organizzazione sta sperimentando modelli di intelligenza artificiale, sia per alimentare particolari applicazioni sia per costruire intere attività basate sull’intelligenza artificiale. La sicurezza deve tenere il passo, e qui c’è una rara opportunità di iniziare in modo pulito ed evitare rischi e costi di manutenzione elevati in futuro”.
George Apostolopoulos, ingegnere fondatore di Endor Labs, ha aggiunto: “Tutti stanno sperimentando modelli di intelligenza artificiale in questo momento. Alcuni team stanno costruendo nuovissime attività basate sull'intelligenza artificiale, mentre altri sono alla ricerca di modi per applicare un adesivo “alimentato dall'intelligenza artificiale” sul loro prodotto. Una cosa è certa: i tuoi sviluppatori stanno giocando con i modelli di intelligenza artificiale”.
Tuttavia, questa comodità non è priva di rischi. Apostolopoulos avverte che il panorama attuale assomiglia al “selvaggio west”, con le persone che si appropriano di modelli che si adattano alle loro esigenze senza considerare le potenziali vulnerabilità.
L'approccio di Endor Labs tratta i modelli di intelligenza artificiale come dipendenze all'interno della catena di fornitura del software
“La nostra missione in Endor Labs è quella di 'proteggere tutto ciò da cui dipende il tuo codice'”, afferma Apostolopoulos. Questa prospettiva consente alle organizzazioni di applicare metodologie di valutazione del rischio simili ai modelli di intelligenza artificiale come fanno con altri componenti open source.
Lo strumento di Endor per il punteggio dei modelli IA si concentra su diverse aree di rischio chiave:
- Vulnerabilità della sicurezza: I modelli pre-addestrati possono nascondere codice dannoso o vulnerabilità all'interno dei pesi del modello, portando potenzialmente a violazioni della sicurezza quando integrati nell'ambiente di un'organizzazione.
- Problemi legali e di licenza: Il rispetto dei termini di licenza è fondamentale, soprattutto considerando la complessa discendenza dei modelli di intelligenza artificiale e dei relativi set di addestramento.
- Rischi operativi: La dipendenza da modelli preaddestrati crea un grafico complesso che può essere difficile da gestire e proteggere.
Per combattere questi problemi, lo strumento di valutazione di Endor Labs applica 50 controlli predefiniti ai modelli IA su Hugging Face. Il sistema genera un “punteggio Endor” basato su fattori quali il numero di manutentori, sponsorizzazioni aziendali, frequenza di rilascio e vulnerabilità note.
I fattori positivi nel sistema per il punteggio dei modelli di intelligenza artificiale includono l’uso di formati di peso sicuri, la presenza di informazioni sulla licenza e metriche di download e coinvolgimento elevate. I fattori negativi comprendono documentazione incompleta, mancanza di dati sulle prestazioni e utilizzo di formati di peso non sicuri.
Una caratteristica fondamentale di Endor Scores è il suo approccio intuitivo. Gli sviluppatori non hanno bisogno di conoscere nomi di modelli specifici; possono iniziare la ricerca con domande generali come “Quali modelli posso utilizzare per classificare i sentimenti?” oppure “Quali sono i modelli Meta più popolari?” Lo strumento fornisce quindi punteggi chiari che classificano sia gli aspetti positivi che quelli negativi di ciascun modello, consentendo agli sviluppatori di selezionare le opzioni più appropriate per le loro esigenze.
“Ogni giorno i vostri team vengono interrogati sull'intelligenza artificiale e cercheranno i modelli da utilizzare per accelerare l'innovazione”, osserva Apostolopoulos. “La valutazione dei modelli di intelligenza artificiale open source con Endor Labs ti aiuta a garantire che i modelli che stai utilizzando facciano ciò che ti aspetti e siano sicuri da usare.”
(Foto di Elemento5 digitale)
Vedi anche: China Telecom addestra un modello di intelligenza artificiale con 1 trilione di parametri su chip nazionali
Vuoi saperne di più sull'intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera dell'intelligenza artificiale e dei big data che si svolge ad Amsterdam, in California, e a Londra. L'evento completo è collocato in contemporanea con altri eventi importanti, tra cui Conferenza sull'automazione intelligente, BlockX, Settimana della trasformazione digitaleE Fiera sulla sicurezza informatica e sul cloud.
Esplora altri prossimi eventi e webinar sulla tecnologia aziendale forniti da TechForge Qui.
Fonte: www.artificialintelligence-news.com