Spiegare come le reti neurali “addestrano” e “imparano” i modelli nei dati manualmente e nel codice utilizzando PyTorch

Immagine di juice_fish da Flaticon. L’autore ha la licenza di Flaticon per utilizzare l’immagine.

Nei miei ultimi due articoli, abbiamo approfondito le origini della rete neurale da un singolo percettrone ad un grande interconnesso (percettrone multistrato (MLP)) motore di ottimizzazione non lineare. Ti consiglio vivamente di controllare i miei post precedenti se non hai familiarità con il percettrone, l’MLP e le funzioni di attivazione poiché ne discuteremo un po’ in questo articolo:

Ora è il momento di capire come queste reti neurali vengono “addestrate” e “imparano” i modelli nei dati che vi vengono trasmessi. Ci sono due componenti chiave: passaggio in avanti E propagazione all’indietro. Entriamo nel vivo!

Ricapitoliamo velocemente la struttura generale di una rete neurale:

Un perceptron multistrato di base a due nascosti. Diagramma per autore.

Dove ogni neurone nascosto sta eseguendo il seguente processo:

Il processo avviene all’interno di ciascun neurone. Diagramma per autore.
  • Ingressi: Queste sono le caratteristiche dei nostri dati.
  • Pesi: Alcuni coefficienti per i quali moltiplichiamo gli input. L’obiettivo dell’algoritmo è trovare i pesi ottimali.
  • Somma ponderata lineare: Sommare i prodotti degli input e dei pesi e aggiungere un termine di bias/compensazione, B.
  • Livello nascosto: Qui è dove vengono archiviati più neuroni per apprendere i modelli nei dati. L’apice si riferisce

Fonte: towardsdatascience.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *