Framework in 6 fasi per gestire i rischi etici e reputazionali dell’intelligenza artificiale generativa nel tuo prodotto |  di Sarthak Handa |  Febbraio 2024

 | Intelligenza-Artificiale

La gestione dei rischi legati all’intelligenza artificiale richiede un approccio ponderato durante l’intero ciclo di vita del prodotto. Di seguito è riportato un quadro in sei fasi, organizzato in diverse fasi dello sviluppo dell’IA, che le organizzazioni possono adottare per garantire l’uso responsabile della tecnologia AI nei loro prodotti.

Fonte: Autore

1. Pre-sviluppo: basi etiche e principi di progettazione

Prima che venga scritta una singola riga di codice, i team di prodotto dovrebbero gettare le basi. Dare priorità al coinvolgimento precoce di un’ampia gamma di stakeholder, inclusi utenti, esperti tecnici, esperti di etica, professionisti legali e membri delle comunità che potrebbero essere influenzati dall’applicazione AI. L’obiettivo è identificare i rischi evidenti e quelli subdoli associati al caso d’uso del prodotto. Utilizzare queste informazioni per definire l’insieme di linee guida etiche e funzionalità del prodotto che devono essere integrate nel prodotto prima del suo lancio per affrontare preventivamente i rischi identificati.

2. Sviluppo: consenso dei dati, integrità, diversità

I dati sono il fondamento dell’intelligenza artificiale e anche la fonte più significativa dei rischi legati all’intelligenza artificiale. È fondamentale garantire che tutti i dati acquisiti per l’addestramento del modello provengano da fonti etiche e siano forniti con il consenso per l’uso previsto. Per esempio, Adobe ha addestrato il suo modello di generazione di immagini (Lucciola) con dati proprietari che gli consentono di fornire protezione legale agli utenti contro le azioni legali sul copyright.

Inoltre, le informazioni di identificazione personale (PII) dovrebbero essere rimosse dai set di dati sensibili utilizzati per l’addestramento dei modelli per prevenire potenziali danni. L’accesso a tali set di dati dovrebbe essere adeguatamente controllato e monitorato per proteggere la privacy. È altrettanto importante garantire che i set di dati rappresentino la diversità della base di utenti e l’ampiezza degli scenari di utilizzo per mitigare i rischi di parzialità e di equità. Alle aziende piace Pista di decollo hanno addestrato i loro modelli testo-immagine con set di dati sintetici contenenti immagini generate dall’intelligenza artificiale di persone di diverse etnie, generi, professioni ed età per garantire che i loro modelli di intelligenza artificiale mostrino diversità nei contenuti che creano.

3. Sviluppo: test di robustezza e implementazione di guardrail

La fase di test è fondamentale per determinare la preparazione dell’IA per un rilascio pubblico. Ciò comporta il confronto dei risultati dell’intelligenza artificiale con l’insieme selezionato di risultati verificati. Un test efficace utilizza:

  • Metriche delle prestazioni in linea con gli obiettivi degli utenti e i valori aziendali,
  • Dati di valutazione che rappresentano utenti provenienti da diversi dati demografici e coprono una gamma di scenari di utilizzo, compresi i casi limite

Oltre ai test delle prestazioni, è anche fondamentale implementare guardrail che impediscano all’intelligenza artificiale di produrre risultati dannosi. Ad esempio, ImageFX, GoogleIl servizio di generazione di immagini di blocca in modo proattivo gli utenti dalla generazione di contenuti che potrebbero essere ritenuti inappropriati o utilizzati per diffondere disinformazione. Allo stesso modo, Antropico ha stabilito in modo proattivo misure e misure per evitare l’uso improprio dei suoi servizi di intelligenza artificiale nelle elezioni del 2024.

4. Sviluppo: spiegabilità e responsabilizzazione

Nei casi d’uso critici del settore in cui costruire la fiducia è fondamentale, è importante che l’intelligenza artificiale consenta agli esseri umani di svolgere un ruolo di assistenza. Ciò può essere ottenuto:

  • Fornire citazioni per le fonti degli approfondimenti dell’IA.
  • Evidenziando l’incertezza o il livello di confidenza della previsione dell’IA.
  • Offrendo agli utenti la possibilità di rinunciare all’utilizzo dell’intelligenza artificiale.
  • Creazione di flussi di lavoro applicativi che garantiscano la supervisione umana e impediscano che alcune attività siano completamente automatizzate.

5. Implementazione: implementazione progressiva e trasparenza

Durante la transizione dei sistemi di intelligenza artificiale dallo sviluppo all’implementazione nel mondo reale, l’adozione di una strategia di implementazione graduale è fondamentale per valutare i rischi e raccogliere feedback in un ambiente controllato. È anche importante comunicare chiaramente il caso d’uso previsto, le capacità e le limitazioni dell’IA agli utenti e alle parti interessate. La trasparenza in questa fase aiuta a gestire le aspettative e mitiga i rischi reputazionali associati a guasti imprevisti del sistema di intelligenza artificiale.

OpenAIad esempio, ha dimostrato questo approccio con Sorail suo ultimo servizio di testo in video, rendendolo inizialmente disponibile solo a un gruppo selezionato di red teamer e professionisti creativi. È stato sincero riguardo alle capacità di Sora e ai suoi limiti attuali, come le sfide nella generazione di video che coinvolgono interazioni fisiche complesse. Questo livello di divulgazione garantisce che gli utenti comprendano dove la tecnologia eccelle e dove potrebbe fallire, gestendo così le aspettative, guadagnando la fiducia degli utenti e facilitando l’adozione responsabile della tecnologia AI.

6. Implementazione: monitoraggio, feedback e adattamento

Dopo che un sistema di intelligenza artificiale è entrato in funzione, il lavoro non è finito. Ora arriva il compito di tenere d’occhio il comportamento dell’intelligenza artificiale in natura e di regolarlo in base a ciò che trovi. Creare un meccanismo continuo per tenere traccia delle derive delle prestazioni e testare e addestrare continuamente il modello su dati nuovi per evitare il degrado delle prestazioni dell’IA. Consenti agli utenti di segnalare facilmente i problemi e utilizzare queste informazioni per adattare l’intelligenza artificiale e aggiornare costantemente i guardrail per soddisfare elevati standard etici. Ciò garantirà che i sistemi di intelligenza artificiale rimangano affidabili, affidabili e al passo con il mondo dinamico in cui operano.

Fonte: towardsdatascience.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *