SHAP vs. ALE per le interazioni tra funzionalità: comprendere i risultati contrastanti |  di Valerie Carey |  Ottobre 2023

 | Intelligenza-Artificiale

Gli esplicatori del modello richiedono un’interpretazione ponderata

fotografato da Diogo Nunes SU Unsplash

In questo articolo confronto le tecniche di spiegabilità dei modelli per le interazioni delle funzionalità. In modo sorprendente, due strumenti comunemente utilizzati, SHAP e ALE, producono risultati opposti.

Probabilmente non avrei dovuto sorprendermi. Dopotutto, gli strumenti di spiegabilità misurano le risposte specifiche in modi distinti. L’interpretazione richiede la comprensione delle metodologie di test, delle caratteristiche dei dati e del contesto del problema. Solo perché qualcosa si chiama an spiegatore non significa che generi un spiegazione, se definisci una spiegazione come la comprensione umana di come funziona un modello.

Questo post si concentra sulle tecniche di spiegabilità per le interazioni delle funzionalità. Utilizzo un set di dati di progetto comune derivato da prestiti reali (1) e un tipo di modalità tipica (un modello ad albero potenziato). Anche in questa situazione quotidiana, le spiegazioni richiedono un’interpretazione ponderata.

Se i dettagli della metodologia vengono trascurati, gli strumenti di spiegabilità possono impedire la comprensione o addirittura compromettere gli sforzi volti a garantire l’equità del modello.

Di seguito, mostro diverse curve SHAP e ALE e dimostro che il disaccordo tra le tecniche deriva dalle differenze nelle risposte misurate e dalle perturbazioni delle caratteristiche eseguite dai test. Ma prima introdurrò alcuni concetti.

Le interazioni tra caratteristiche si verificano quando due variabili agiscono di concerto, producendo un effetto diverso dalla somma dei loro contributi individuali. Ad esempio, l’impatto di una cattiva notte di sonno sul punteggio di un test sarebbe maggiore il giorno successivo che una settimana dopo. In questo caso, una caratteristica che rappresenta il tempo interagirebbe con, o modificherebbe, una caratteristica della qualità del sonno.

In un modello lineare, un’interazione è espressa come il prodotto di due caratteristiche. I modelli di machine learning non lineari contengono in genere numerose interazioni. Infatti, le interazioni sono fondamentali per la logica dei modelli avanzati di machine learning, tuttavia molte tecniche comuni di spiegabilità si concentrano sui contributi di caratteristiche isolate. I metodi per esaminare le interazioni includono grafici ALE a 2 vie, H di Friedman, grafici di dipendenza parziale e valori di interazione SHAP (2). Questo blog esplora…

Fonte: towardsdatascience.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *