OpenAI sta mettendo più controlli di sicurezza direttamente nelle mani degli sviluppatori di intelligenza artificiale con una nuova anteprima di ricerca sui modelli di “salvaguardia”. La nuova famiglia di modelli a peso aperto “gpt-oss-safeguard” mira direttamente a personalizzare la classificazione dei contenuti.
La nuova offerta comprenderà due modelli, gpt-oss-safeguard-120b e uno più piccolo gpt-oss-safeguard-20b. Entrambe sono versioni ottimizzate della famiglia gpt-oss esistente e saranno disponibili sotto la licenza permissiva Apache 2.0. Ciò consentirà a qualsiasi organizzazione di utilizzare, modificare e distribuire liberamente i modelli come ritiene opportuno.
La vera differenza qui non è solo la licenza aperta; è il metodo. Invece di fare affidamento su un insieme fisso di regole integrate nel modello, gpt-oss-safeguard utilizza le sue capacità di ragionamento per interpretare la politica di uno sviluppatore nel punto di inferenza. Ciò significa che gli sviluppatori di intelligenza artificiale che utilizzano il nuovo modello di OpenAI possono impostare il proprio quadro di sicurezza specifico per classificare qualsiasi cosa, dai suggerimenti dei singoli utenti alle cronologie complete delle chat. Lo sviluppatore, non il fornitore del modello, ha l’ultima parola sul set di regole e può adattarlo al proprio caso d’uso specifico.
Questo approccio presenta un paio di chiari vantaggi:
- Trasparenza: I modelli utilizzano un processo di catena di pensiero, quindi uno sviluppatore può effettivamente guardare sotto il cofano e vedere la logica del modello per una classificazione. Si tratta di un enorme passo avanti rispetto al tipico classificatore a “scatola nera”.
- Agilità: Poiché la politica di sicurezza non è permanentemente addestrata al nuovo modello di OpenAI, gli sviluppatori possono iterare e rivedere le loro linee guida al volo senza bisogno di un ciclo di riqualificazione completo. OpenAI, che originariamente ha creato questo sistema per i suoi team interni, sottolinea che questo è un modo molto più flessibile per gestire la sicurezza rispetto alla formazione di un classificatore tradizionale per indovinare indirettamente cosa implica una politica.
Invece di fare affidamento su un livello di sicurezza unico per tutti da parte del titolare della piattaforma, gli sviluppatori che utilizzano modelli di intelligenza artificiale open source possono ora creare e applicare i propri standard specifici.
Sebbene non siano attivi al momento della stesura di questo articolo, gli sviluppatori potranno accedere ai nuovi modelli di sicurezza AI a peso aperto di OpenAI sulla piattaforma Hugging Face.
Vedi anche: OpenAI si ristruttura ed entra nel “capitolo successivo” della partnership con Microsoft

Vuoi saperne di più sull’intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera dell’intelligenza artificiale e dei big data che si svolge ad Amsterdam, in California, e a Londra. L’evento completo è parte di TechEx ed è situato in concomitanza con altri importanti eventi tecnologici tra cui Fiera della sicurezza informaticaclic Qui per ulteriori informazioni
AI News è alimentato da Media TechForge. Esplora altri prossimi eventi e webinar sulla tecnologia aziendale Qui.
La posta OpenAI svela modelli di sicurezza AI a peso aperto per gli sviluppatori è apparso per primo Notizie sull’AI.
Fonte: www.artificialintelligence-news.com
