Salvaguardare le pipeline RAG: una guida passo passo per implementare Llama Guard con LlamaIndex |  di Wenqi Glantz |  Dicembre 2023

 | Intelligenza-Artificiale

Come aggiungere Llama Guard alle pipeline RAG per moderare input e output LLM e combattere l’iniezione tempestiva

Immagine generata da DALL-E 3 dall’autore

La sicurezza LLM è un’area che sappiamo tutti merita ampia attenzione. Le organizzazioni desiderose di adottare l’intelligenza artificiale generativa, dalle grandi alle piccole, devono affrontare un’enorme sfida nel proteggere le proprie app LLM. Come combattere l’iniezione tempestiva, gestire output non sicuri e prevenire la divulgazione di informazioni sensibili sono tutte domande urgenti a cui ogni architetto e ingegnere di intelligenza artificiale deve rispondere. Le app LLM di livello aziendale non possono sopravvivere in natura senza soluzioni solide per affrontare la sicurezza LLM.

Llama Guard, reso open source da Meta il 7 dicembre 2023, offre una soluzione praticabile per affrontare le vulnerabilità input-output LLM e combattere la pronta iniezione. Llama Guard rientra nel progetto ombrello Lama viola“dotato di strumenti e valutazioni di fiducia e sicurezza aperti intesi a garantire condizioni di parità affinché gli sviluppatori possano implementare modelli di intelligenza artificiale generativa in modo responsabile.”(1)

Abbiamo esplorato la top 10 OWASP per le applicazioni LLM un mese fa. Con Llama Guard, ora disponiamo di una soluzione abbastanza ragionevole per iniziare ad affrontare alcune di queste 10 principali vulnerabilità, vale a dire:

  • LLM01: Iniezione rapida
  • LLM02: gestione dell’output non sicura
  • LLM06: Divulgazione di informazioni sensibili

In questo articolo esploreremo come aggiungere Llama Guard a una pipeline RAG per:

  • Moderare gli input degli utenti
  • Moderare i risultati del LLM
  • Sperimenta la personalizzazione delle categorie non sicure predefinite per adattarle al tuo caso d’uso
  • Combattere i tentativi di iniezione tempestiva

Llama Guard “è un parametro 7B Lama 2modello di salvaguardia input-output basato. Può essere utilizzato per classificare il contenuto sia negli input LLM (classificazione dei prompt) che nelle risposte LLM (classificazione delle risposte). Funziona come un LLM: genera testo nel suo output che indica se un determinato prompt o risposta è sicuro/non sicuro e, se non sicuro in base a una policy, elenca anche le sottocategorie che violano.”(2)

Fonte: towardsdatascience.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *