
Recentemente ho scritto una serie di articoli che spiegano i concetti chiave alla base delle reti neurali moderne:

Reti neurali
Uno dei motivi per cui le reti neurali sono così potenti e popolari è che presentano l’ teorema di approssimazione universale. Ciò significa che una rete neurale può “apprendere” qualsiasi funzione, non importa quanto sia complessa.
Una funzione, f(x)richiede qualche input, Xe fornisce un output sì:
Questa funzione definisce la relazione tra input e output. Nella maggior parte dei casi, abbiamo gli input e gli output corrispondenti con l’obiettivo della rete neurale di apprendere, o approssimare, la funzione che mappa tra loro.
Le reti neurali furono inventate intorno agli anni ’50 e ’60. Eppure, a quel tempo esistevano altri approssimatori universali conosciuti. Allora, perché abbiamo anche le reti neurali…
IL Serie Taylor rappresenta una funzione come somma infinita di termini calcolata dai valori delle sue derivate in un singolo punto. In altre parole, è una somma di infiniti polinomi per approssimare una funzione.
L’espressione sopra rappresenta una funzione F(X) come una somma infinita, dove f^n è il n-esimo derivato o ordine di F al punto UNE N! denota il fattoriale di N.
Vedere Qui se sei interessato a scoprire perché utilizziamo la serie Taylor. Per farla breve, vengono utilizzati per rendere piacevoli le funzioni brutte con cui lavorare!
Esiste una semplificazione della serie di Taylor chiamata Serie Maclaurin Dove un = 0.
Dove in questo caso a_0, a_1etc sono i coefficienti dei polinomi corrispondenti. L’obiettivo del…
Fonte: towardsdatascience.com