Abbiamo avvertito una bella scossa di energia nell’ultimo mese, poiché molti dei nostri autori hanno cambiato marcia dalla modalità estiva all’autunno, con una rinnovata attenzione all’apprendimento, alla sperimentazione e al lancio di nuovi progetti.

A settembre abbiamo pubblicato post molto più eccellenti di quanti potremmo mai evidenziare qui, ma volevamo comunque assicurarci che non perdessi alcuni dei nostri recenti successi. Di seguito sono riportati dieci articoli che hanno avuto una forte risonanza con la nostra community, sia per l’enorme numero di lettori che hanno attirato, per le vivaci conversazioni che hanno ispirato o per gli argomenti all’avanguardia trattati. Siamo sicuri che ti divertirai ad esplorarli.

fotografato da Daria Volkova SU Unsplash
  • Come progettare una roadmap per un progetto di machine learning
    Per quelli di voi che sono già a buon punto nel loro viaggio nel ML, Heather CoutureIl nuovo articolo di offre un quadro utile per semplificare la progettazione del tuo prossimo progetto. Da un’approfondita revisione della letteratura alla manutenzione post-distribuzione, copre tutte le basi per un flusso di lavoro iterativo e di successo.
  • Il problema della percezione pubblica del machine learning
    In una riflessione stimolante, Stephanie Kirmer affronta una tensione fondamentale negli attuali dibattiti sull’intelligenza artificiale: “tutto il nostro lavoro al servizio della costruzione di un apprendimento automatico sempre più avanzato è limitato nelle sue possibilità non dal numero di GPU su cui possiamo mettere le mani ma dalla nostra capacità di spiegare cosa costruiamo ed educhiamo il pubblico su cosa significa e come usarlo”.
  • Come costruire un LLM da zero
    Prendendo spunto dal processo di sviluppo di modelli come GPT-3 e Falcon, Richiesta Shawhin esamina gli aspetti chiave della creazione di una fondazione LLM. Anche se non hai intenzione di addestrare il prossimo lama in tempi brevi, è utile comprendere le considerazioni pratiche che implicano un’impresa così imponente.
  • La tua chat personaleGPT
    Se tu Sono in vena di costruire e armeggiare con modelli linguistici, tuttavia, è un ottimo punto di partenza Robert A. Gonsalvesdi ciò che serve per mettere a punto il modello GPT-3.5 Turbo di OpenAI per eseguire nuove attività utilizzando i tuoi dati personalizzati.
  • Come costruire un sistema multi-GPU per il deep learning nel 2023
    Non rimboccarti ancora le maniche: uno dei nostri tutorial più letti di settembre, di Antonis Makropoulossi concentra sull’hardware e sull’infrastruttura di deep learning e ci guida attraverso i dettagli fondamentali della scelta dei componenti giusti per le esigenze del tuo progetto.
  • Spiegazione della meta-euristica: ottimizzazione delle colonie di formiche
    Per un argomento più teorico, ma non per questo meno affascinante, Hennie de HarderL’introduzione di all’ottimizzazione delle colonie di formiche attira la nostra attenzione su un “gioiello meno conosciuto” di un algoritmo, esplora come ha preso ispirazione dagli ingegnosi comportamenti di foraggiamento delle formiche e ne svela il funzionamento interno. (In un post successivoHennie dimostra anche come può risolvere i problemi del mondo reale.)
  • Falcon 180B: può funzionare sul tuo computer?
    Concludendo con una nota ambiziosa, Beniamino Maria si propone di scoprire se è possibile eseguire il modello (molto, molto grande) Falcon 180B su hardware di livello consumer. (Avviso spoiler: sì, con un paio di avvertenze.) È una risorsa preziosa per chiunque stia valutando i pro e i contro del lavorare su un computer locale rispetto all’utilizzo dei servizi cloud, soprattutto ora che sempre più LLM open source stanno arrivando su la scena.

La nostra ultima coorte di nuovi autori

Ogni mese siamo entusiasti di vedere un nuovo gruppo di autori unirsi a TDS, ognuno dei quali condivide la propria voce, conoscenza ed esperienza uniche con la nostra comunità. Se stai cercando nuovi scrittori da esplorare e seguire, sfoglia il lavoro delle nostre ultime aggiunte, incluso Rahul Nayak, Cristiano Burke, Aicha Bokbot, Jason Vega, Giuseppe Scalamogna, Masatake Hirono, Shachaf Poran, Aris Tsakpinis, Niccolò Granieri, Culla di Lazare, Nasi a Soho, Mina Ghashami, Carlo Bettosi, Dominika Woszczyk, James Koh, Ph.D, Tom Corbin, Antonio Jiménez Caballero, Gijs van den Dool, Ramkumar K, Milano Janosov, Luca Zaruba, Sohrab Sani, James Hamilton, Ilija Lazarevic, Josh Poduska, Antonis Makropoulos, Yuichi Inoue, Giorgio Stavrakis, Yunzhe Wang, Anjan Biswas, Jared M. Maruskin, Ph.D, Michael Roizner, Alana Rister, Ph.D., Damiano Gil, Shafquat Arefeen, Dmitry Kazhdan, Ryan PegoudE Robert Martin-Short.

Grazie per sostenere il lavoro dei nostri autori! Se ti piacciono gli articoli che leggi su TDS, considerali diventare un membro Medium – sblocca il nostro intero archivio (e anche ogni altro post su Medium).

Fino alla prossima variabile,

Redattori di TDS


Suggerimenti rapidi per la progettazione, istruzioni per l’uso sulla rete neurale e altre letture recenti da leggere è stato originariamente pubblicato in Verso la scienza dei datisu Medium, dove le persone continuano la conversazione evidenziando e rispondendo a questa storia.

Fonte: towardsdatascience.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *