
I miei articoli recenti sono stati una serie sulle reti neurali in cui andiamo dal semplice percettrone ad architetture complicate e come affrontarle problemi comuni nel deep learning. Se sei interessato, non esitare a controllare la serie qui:

Reti neurali
Un’area interessante in cui le reti neurali hanno fatto passi da gigante è quella visione computerizzata. Pensa all’intelligenza artificiale per le auto a guida autonoma e il riconoscimento facciale!
Tuttavia, la normale rete neurale completamente connessa che la maggior parte delle persone conosce non è adatta per molte attività di riconoscimento delle immagini nella vita reale. Funziona sul famoso MNIST set di dati, ma contiene piccole immagini di 28×28 pixel.
Le immagini ad alta definizione (HD) hanno 1280×720 pixel. Questo è approssimativamente 1.000.000 pixel, il che significherebbe 1.000.000 di neuroni nello strato di input. Per non parlare dei milioni di pesi richiesti per gli strati nascosti, che rendono le reti neurali regolari inadatte a causa della complessità dimensionale.
Quindi cosa facciamo?
Reti neurali convoluzionali!
Reti neurali convoluzionali (CNN) rappresentano oggi il gold standard per la maggior parte delle attività di visione artificiale. Invece di livelli completamente connessi, hanno parzialmente strati collegati e condividono i loro pesi, riducendo la complessità del modello.
Ad esempio, per ciascun neurone in uno strato di rete neurale completamente connesso, avremmo bisogno di 10.000 peso di un’immagine di 100×100 pixel. Tuttavia, una CNN può avere solo 25 neuroni per elaborare la stessa immagine.
In questo articolo, approfondiremo gli elementi fondamentali alla base delle CNN, convoluzione.
Come molte cose nel machine learning, le CNN sono ispirate dalla natura. Gli informatici hanno esaminato come corteccia visiva In il cervello funziona e ha applicato un concetto simile alle reti neurali.
Fonte: towardsdatascience.com