Lavorare verso una maggiore generalizzabilità nell’intelligenza artificiale

Oggi inizia la stagione delle conferenze con la decima conferenza internazionale sulle rappresentazioni dell’apprendimento (ICLR 2022), che si svolgerà virtualmente dal 25 al 29 aprile 2022. Partecipanti da tutto il mondo si riuniranno per condividere il loro lavoro all’avanguardia nell’apprendimento rappresentazionale, dal progresso dello stato dell’arte nell’intelligenza artificiale alla scienza dei dati, alla visione artificiale, alla robotica e alla Di più.

Il primo giorno della conferenza, Pushmeet Kohli, il nostro capo dei team AI for Science e Robust and Verified AI, terrà un discorso su come l’intelligenza artificiale può migliorare notevolmente le soluzioni a un’ampia gamma di problemi scientifici, dalla genomica e biologia strutturale alla biologia quantistica. chimica e perfino matematica pura.

Oltre a supportare l’evento come sponsor e organizzatori regolari di workshop, i nostri team di ricerca presenteranno quest’anno 29 articoli, comprese 10 collaborazioni. Ecco un breve sguardo alle nostre prossime presentazioni orali, riflettori e poster:

Ottimizzazione dell’apprendimento

Numerosi documenti chiave si concentrano sui modi fondamentali con cui stiamo rendendo più efficiente il processo di apprendimento dei nostri sistemi di intelligenza artificiale. Ciò spazia dall’aumento delle prestazioni, al miglioramento dell’apprendimento di poche riprese e alla creazione di sistemi efficienti in termini di dati che riducono i costi computazionali.

In “Meta-apprendimento bootstrap”UN Premio per l’eccezionale documento ICLR 2022 vincitore, proponiamo un algoritmo che consente a un agente di imparare ad apprendere insegnando da solo. Presentiamo anche a algoritmo di miglioramento delle politiche che ridisegna AlphaZero – il nostro sistema che ha imparato da zero a padroneggiare gli scacchi, lo shogi e il Go – per continuare a migliorare anche quando ci si allena con un numero limitato di simulazioni; UN regolarizzatore che mitiga il rischio di perdita di capacità in un’ampia gamma di agenti e ambienti RL; e un miglioramento architettura per addestrare in modo efficiente modelli attenzionali.

Esplorazione

La curiosità è una parte fondamentale dell’apprendimento umano, poiché aiuta a far progredire la conoscenza e l’abilità. Allo stesso modo, i meccanismi di esplorazione consentono agli agenti di intelligenza artificiale di andare oltre la conoscenza preesistente e scoprire l’ignoto o provare qualcosa di nuovo.

Avanzando la questione”Quando dovrebbero esplorare gli agenti?“, indaghiamo quando gli agenti dovrebbero passare alla modalità di esplorazione, in quali tempistiche ha senso cambiare e quali segnali determinano meglio quanto dovrebbero essere lunghi e frequenti i periodi di esplorazione. In un altro articolo, introduciamo un “bonus di esplorazione per ottenere informazioni” che consente agli agenti di superare i limiti delle ricompense intrinseche in RL per poter apprendere più competenze.

IA robusta

Per distribuire i modelli ML nel mondo reale, devono essere efficaci nel passaggio tra formazione, test e nuovi set di dati. Comprendere i meccanismi causali è essenziale, poiché consente ad alcuni sistemi di adattarsi, mentre altri faticano ad affrontare nuove sfide.

Ampliando la ricerca su questi meccanismi, presentiamo un quadro sperimentale che consente un’analisi a grana fine analisi della robustezza ai cambiamenti distributivi. La robustezza aiuta anche a proteggere dai danni avversari, sia involontari che mirati. Nel caso di corruzioni dell’immagine, proponiamo una tecnica che teoricamente ottimizza i parametri dei modelli da immagine a immagine per ridurre gli effetti di sfocatura, nebbia e altri problemi comuni.

Comunicazione emergente

Oltre ad aiutare i ricercatori di machine learning a comprendere come gli agenti evolvono la propria comunicazione per completare i compiti, gli agenti di intelligenza artificiale hanno il potenziale per rivelare approfondimenti sui comportamenti linguistici all’interno delle popolazioni, il che potrebbe portare a un’intelligenza artificiale più interattiva e utile.

Lavorando con i ricercatori di Inria, Google Research e Meta AI, colleghiamo il ruolo della diversità all’interno delle popolazioni umane nel modellare il linguaggio risolvere parzialmente un’apparente contraddizione nelle simulazioni al computer con agenti neurali. Quindi, poiché costruire rappresentazioni migliori del linguaggio nell’intelligenza artificiale è così vitale per comprendere la comunicazione emergente, indagheremo anche la importanza di ingrandirsi il set di dati, la complessità del compito e la dimensione della popolazione come aspetti indipendenti. Inoltre, abbiamo anche studiato il compromessi tra espressività, complessità e imprevedibilità nei giochi in cui più agenti comunicano per raggiungere un unico obiettivo.

Scopri la gamma completa del nostro lavoro all’ICLR 2022 Qui.

Fonte: deepmind.google

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *