CatBoost: potenziamento dell’albero dei gradienti per sistemi di raccomandazione, classificazione e regressione |  di Rafael Guedes |  Febbraio 2024

 | Intelligenza-Artificiale

Costruisci il tuo consigliere di libri con CatBoost Ranker

Nel mondo digitale di oggi, dove il sovraccarico di informazioni e l’ampia offerta di prodotti sono la norma, essere in grado di aiutare i clienti a trovare ciò di cui hanno bisogno e ciò che piace può essere un fattore importante per far risaltare la nostra azienda e superare la concorrenza.

I sistemi di raccomandazione possono migliorare le esperienze digitali facilitando la ricerca di informazioni o prodotti pertinenti. Fondamentalmente, questi sistemi sfruttano algoritmi basati sui dati per analizzare le preferenze, i comportamenti e le interazioni degli utenti, trasformando i dati grezzi in raccomandazioni significative adattate ai gusti e alle preferenze individuali.

In questo articolo, fornisco una spiegazione dettagliata di come funziona il Gradient Tree Boosting per i sistemi di classificazione, regressione e raccomandazione. Presento anche CatBoost, una libreria all’avanguardia per il potenziamento dell’albero dei gradienti e il modo in cui gestisce le funzionalità categoriche. Infine, spiego come funziona YetiRank (una funzione di perdita di ranking) e come implementarlo utilizzando CatBoost Ranker in un set di dati di raccomandazione di libri.

Figura 1: Consigli di libri con Gradient Tree Boosting (immagine generata dall’autore con DALL-E)

Come sempre, il codice è disponibile su Github.

L’idea di potenziamento si basa sull’ipotesi che una combinazione sequenziale di studenti deboli possa essere altrettanto buona o addirittura migliore di uno studente forte (1). Uno studente debole è un algoritmo la cui prestazione è almeno leggermente migliore di una scelta casuale e, nel caso del Gradient Tree Boosting, lo studente debole è un albero decisionale. Questi studenti deboli in una configurazione di potenziamento sono addestrati a gestire osservazioni più complesse che il precedente non era in grado di risolvere. In questo modo, i nuovi studenti deboli possono concentrarsi sullo sviluppo di se stessi su modelli più complessi.

AdaBoost

Il primo algoritmo di potenziamento con grande successo per la classificazione binaria è stato AdaBoost (2). Lo studente debole in AdaBoost è un albero decisionale con un’unica suddivisione e funziona dando più peso alle osservazioni che sono più complesse da classificare. Il nuovo studente debole viene aggiunto in sequenza per focalizzare la sua formazione su modelli più complessi. Il pronostico finale viene fatto a maggioranza…

Fonte: towardsdatascience.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *