
Se stai costruendo con AI o stai cercando di difenderti dal lato meno salato della tecnologia, Meta ha appena lasciato cadere nuovo Lama Strumenti di sicurezza.
I migliorati strumenti di sicurezza per i modelli Llama AI arrivano insieme a nuove risorse di meta progettate per aiutare i team di sicurezza informatica a sfruttare l'IA per la difesa. Fa tutto parte della loro spinta a rendere lo sviluppo e l'uso di AI un po 'più sicuro per tutti i soggetti coinvolti.
Gli sviluppatori che lavorano con la famiglia di modelli Llama ora hanno un kit aggiornato con cui giocare. Puoi prendere questi ultimi strumenti di protezione Llama direttamente dalla pagina di protezioni di Meta o trovarli in cui vivono molti sviluppatori: abbracciare Face e GitHub.
Il primo è la Guardia 4. Pensa come un'evoluzione del filtro di sicurezza personalizzabile di Meta per l'IA. La grande notizia qui è che ora è multimodale, quindi può capire e applicare regole di sicurezza non solo al testo, ma anche alle immagini. È cruciale poiché le applicazioni di intelligenza artificiale diventano più visive. Questa nuova versione viene anche cotta nella nuovissima API Llama di Meta, che è attualmente in anteprima limitata.
Poi c'è llamafirewall. Questo è un nuovo pezzo del puzzle di Meta, progettato per agire come un centro di controllo della sicurezza per i sistemi AI. Aiuta a gestire diversi modelli di sicurezza che lavorano insieme e si agganciano agli altri strumenti di protezione di Meta. Il suo lavoro? Per individuare e bloccare il tipo di rischi che mantengono gli sviluppatori di intelligenza artificiale di notte-cose come gli attacchi intelligenti di “iniezione rapida” progettati per ingannare l'intelligenza artificiale, la generazione di codice potenzialmente ingannevole o il comportamento rischioso da plug-in AI.
Meta ha anche dato una messa a punto della sua guardia del lama. Il modello principale per la guardia 2 (86 m) è ora più bravo a annusare quei fastidiosi tentativi di jailbreak e iniezioni prompt. Più interessante, forse, è l'introduzione di Prompt Guard 2 22m.
Prompt Guard 2 22m è una versione molto più piccola e nippier. Meta ritiene che può tagliare la latenza e calcolare i costi fino al 75% rispetto al modello più grande, senza sacrificare troppa potenza di rilevamento. Per chiunque abbia bisogno di risposte più veloci o lavora su budget più stretti, questa è una gradita aggiunta.
Ma Meta non si concentra solo sui costruttori di AI; Stanno anche guardando i difensori informatici in prima linea nella sicurezza digitale. Hanno sentito le richieste di migliori strumenti basati sull'intelligenza artificiale per aiutare nella lotta contro gli attacchi informatici e stanno condividendo alcuni aggiornamenti rivolti a questo.
La suite di benchmark Cybersec Eval 4 è stata aggiornata. Questo toolkit open source aiuta le organizzazioni a capire quanto siano effettivamente buoni i sistemi di intelligenza artificiale. Quest'ultima versione include due nuovi strumenti:
- Cybersoc Eval: Costruito con l'aiuto degli esperti di cybersecurity Crowdstrike, questo framework misura specificamente il modo in cui l'IA si comporta in un ambiente di operazione di sicurezza (SOC) reale. È progettato per dare un quadro più chiaro dell'efficacia dell'IA nel rilevamento e nella risposta delle minacce. Il benchmark stesso arriverà presto.
- Autopatchbench: Questo punto di riferimento verifica come sono buoni lama e altri AIS nel trovare e fissare automaticamente i buchi di sicurezza nel codice prima che i cattivi possano sfruttarli.
Per aiutare a mettere questo tipo di strumenti nelle mani di coloro che ne hanno bisogno, Meta sta dando il via al programma di difensori del lama. Questo sembra riguardare le aziende partner e gli sviluppatori un accesso speciale a un mix di soluzioni di intelligenza artificiale-alcune open-source, alcuni ad accesso precoce, alcuni forse proprietari-tutti orientati verso Diverse sfide di sicurezza.
Come parte di questo, Meta sta condividendo uno strumento di sicurezza AI che utilizzano internamente: lo strumento di classificazione DOC sensibile automatizzato. Scatta automaticamente le etichette di sicurezza sui documenti all'interno di un'organizzazione. Perché? Per impedire alle informazioni sensibili di uscire dalla porta o per impedire che vengano accidentalmente alimentati in un sistema di intelligenza artificiale (come nelle configurazioni di stracci) in cui potrebbe essere trapelato.
Stanno anche affrontando il problema del falso audio generato dall'IA, che è sempre più usato nelle truffe. Il rivelatore audio generato da Llama e il rivelatore di filigrane audio Llama sono in fase di condivisione con i partner per aiutarli a individuare voci generate dall'IA in potenziali chiamate di phishing o tentativi di frode. Aziende come Zendesk, Bell Canada e AT&T sono già in fila per integrarle.
Infine, Meta ha dato un'occhiata a qualcosa di potenzialmente enorme per la privacy degli utenti: elaborazione privata. Questa è una nuova tecnologia su cui stanno lavorando per WhatsApp. L'idea è di lasciare che AI faccia cose utili come riassumere i tuoi messaggi non letto o aiutarti a redigere le risposte, ma senza Meta o Whatsapp in grado di leggere il contenuto di tali messaggi.
Meta è abbastanza aperto sul lato della sicurezza, persino pubblicando il loro modello di minaccia e invitando i ricercatori della sicurezza a colpire i buchi nell'architettura prima che vada in diretta. È un segno che sanno che devono ottenere l'aspetto della privacy giusto.
Nel complesso, è una vasta serie di annunci di sicurezza AI da Meta. Stanno chiaramente cercando di mettere seriamente muscoli dietro l'assicenza dell'IA che costruiscono, dando anche alla comunità tecnologica più ampia strumenti migliori per costruire in modo sicuro e difendere in modo efficace.

Vuoi saperne di più sull'intelligenza artificiale e sui big da parte dei leader del settore? Guardare AI e Big Data Expo si svolge ad Amsterdam, in California e a Londra. L'evento completo è co-localizzato con altri eventi principali tra cui Conferenza di automazione intelligente, Blockx, Settimana di trasformazione digitaleE Cyber Security & Cloud Expo.
Esplora altri prossimi eventi tecnologici aziendali e webinar alimentati da TechForge Qui.
Fonte: www.artificialintelligence-news.com