In che modo MuZero, AlphaZero e AlphaDev contribuiscono a ottimizzare l’intero ecosistema informatico che alimenta il nostro mondo di dispositivi

Gli algoritmi di intelligenza artificiale (AI) diventano ogni giorno sempre più sofisticati, ciascuno progettato per risolvere un problema nel migliore dei modi. Nell’ambito dei nostri sforzi per costruire sistemi di intelligenza artificiale sempre più capaci e generali, stiamo lavorando per creare strumenti di intelligenza artificiale con un’ampia comprensione del mondo, in modo che la conoscenza utile possa essere trasferita tra molti tipi diversi di attività.

Basati sull’apprendimento per rinforzo, i nostri modelli di intelligenza artificiale AlphaZero e MuZero hanno raggiunto giochi vincenti con prestazioni sovrumane. Ora stanno espandendo le loro capacità per contribuire a progettare chip per computer migliori, ottimizzare i data center e la compressione video e, più recentemente, la nostra versione specializzata di AlphaZero, chiamata AlphaDev, ha scoperto nuovi algoritmi che stanno già accelerando il software alla base del nostro digitale società.

Sebbene questi strumenti stiano facendo passi da gigante in termini di efficienza in tutto l’ecosistema informatico, i primi risultati mostrano il potenziale di trasformazione di strumenti di intelligenza artificiale più generici. Qui spieghiamo come questi progressi stanno plasmando il futuro dell’informatica e stanno già aiutando miliardi di persone e il pianeta.

Progettare chip per computer migliori

L’hardware specializzato è essenziale per garantire che i sistemi di intelligenza artificiale di oggi siano efficienti in termini di risorse per gli utenti su larga scala, e la progettazione e la produzione di nuovi chip per computer può richiedere anni di lavoro. Ma ora i nostri ricercatori hanno sviluppato un approccio basato sull’intelligenza artificiale per progettare circuiti più potenti ed efficienti trattando un circuito come una rete neurale, accelerando la progettazione dei chip e portando le prestazioni a nuovi livelli.

Le reti neurali sono spesso progettate per ricevere input dall’utente e generare output, come immagini, testo o video. All’interno della rete neurale, i bordi si collegano ai nodi in una struttura simile a un grafico. Per creare un progetto di circuito, il nostro team ha proposto le “reti neurali a circuito”, un nuovo tipo di rete neurale che trasforma i bordi in fili e i nodi in porte logiche e impara a collegarli insieme.

Illustrazione della rete neurale del circuito che apprende la progettazione di un circuito. Determina i bordi (fili) da collegare ai nodi (porte logiche) per produrre un nuovo progetto di circuito.

Quindi abbiamo ottimizzato il circuito appreso per velocità di calcolo, efficienza energetica e dimensioni, pur mantenendone la funzionalità. Abbiamo utilizzato la “ricottura simulata”, una tecnica di ricerca classica che guarda un passo avanti nel futuro, testando diverse configurazioni alla ricerca di quella più ottimale. Utilizzando questa tecnica, abbiamo preso parte al Concorso di programmazione IWLS 2023 – e ha vinto – ottenendo la soluzione migliore sull’82% dei problemi di progettazione dei circuiti nella competizione.

Il nostro team ha anche iniziato ad applicare AlphaZero, che può guardare a molti passi avanti nel futuro, migliorando la progettazione del circuito trattando la sfida di ottimizzazione come un gioco da risolvere. E finora, la nostra ricerca che combina le reti neurali a circuito con la funzione di ricompensa dell’apprendimento per rinforzo sta mostrando risultati molto promettenti per costruire un futuro di chip per computer ancora più avanzati.

Ottimizzazione delle risorse del data center

I data center gestiscono tutto, dalla fornitura dei risultati di ricerca all’elaborazione dei set di dati. Borg gestisce miliardi di attività su Googleassegnare questi carichi di lavoro è come un gioco di Tetris multidimensionale. Questo sistema aiuta a ottimizzare le attività per i servizi dell’infrastruttura interna, i prodotti rivolti agli utenti come Google Workspace e Ricerca e gestisce anche l’elaborazione batch.

Borg utilizza regole codificate manualmente per la pianificazione delle attività per gestire questo carico di lavoro. Su scala di Google, queste regole codificate manualmente non possono tenere conto della varietà di distribuzioni del carico di lavoro in continua evoluzione e quindi sono progettate come “one-size” al meglio va bene per tutti”. È qui che le tecnologie di machine learning come AlphaZero sono particolarmente utili: questi algoritmi sono in grado di creare automaticamente regole individuali su misura e più efficienti per le diverse distribuzioni del carico di lavoro.

Durante la formazione, AlphaZero ha imparato a riconoscere i modelli nelle attività in arrivo nei data center e ha anche imparato a prevedere i modi migliori per gestire la capacità e prendere decisioni con i migliori risultati a lungo termine.

Quando abbiamo applicato AlphaZero a Borg, prove sperimentali in produzione hanno dimostrato che questo approccio potrebbe ridurre la quantità di hardware sottoutilizzato fino al 19%, ottimizzando l’utilizzo delle risorse dei data center di Google.

Passaggi successivi per la compressione video

Lo streaming video costituisce la maggior parte del traffico Internet e consuma grandi quantità di dati. Trovare l’efficienza in questo processo, grande o piccolo che sia, avrà quindi un enorme impatto sui milioni di persone che guardano video ogni giorno.

L’anno scorso abbiamo collaborato con YouTube per applicare le capacità di risoluzione dei problemi di MuZero per aiutare a comprimere e trasmettere video. Di riducendo il bitrate del 4%senza compromettere la qualità visiva, MuZero ha migliorato l’esperienza complessiva di YouTube.

Inizialmente abbiamo applicato MuZero per ottimizzare la compressione di ogni singolo fotogramma all’interno di un video. Ora abbiamo ampliato questo lavoro per prendere decisioni su come i frame vengono raggruppati e referenziati durante la codifica, portando a un maggiore risparmio di bitrate.

I primi risultati di questi primi due passaggi mostrano la grande promessa del potenziale di MuZero di diventare uno strumento più generalizzato, aiutando a trovare soluzioni ottimali nell’intero processo di compressione video.

Alla scoperta di algoritmi più veloci

Più recentemente, AlphaDevuna versione di AlphaZero, ha fatto un nuovo passo avanti nell’informatica, scoprendo algoritmi di ordinamento e hashing più veloci: due processi fondamentali utilizzati trilioni di volte al giorno per ordinare, archiviare e recuperare i dati.

Gli algoritmi di ordinamento influiscono sul modo in cui tutti i dispositivi digitali elaborano e visualizzano le informazioni, dal posizionamento dei risultati di ricerca online e dei post sui social ai consigli degli utenti. AlphaDev ha scoperto un algoritmo che aumenta l’efficienza nell’ordinamento di brevi sequenze di elementi del 70% e di circa l’1,7% per sequenze di oltre 250.000 elementi, rispetto agli algoritmi della libreria C++. Pertanto, quando un utente invia una query di ricerca, l’algoritmo di AlphaDev può aiutare a ordinare i risultati più velocemente. Se utilizzato su larga scala, consente di risparmiare enormi quantità di tempo ed energia.

AlphaDev ha anche scoperto un algoritmo più veloce per l’hashing delle informazioni, che viene spesso utilizzato per l’archiviazione e il recupero dei dati, come in un database di clienti. Gli algoritmi di hashing in genere utilizzano una chiave (ad esempio il nome utente “Jane Doe”) per generare un hash univoco, che corrisponde ai valori dei dati che devono essere recuperati (ad esempio “numero ordine 164335-87”).

Come un bibliotecario che utilizza un sistema di classificazione per trovare velocemente un determinato libro, con un sistema di hashing il computer sa già cosa sta cercando e dove trovarlo. Quando applicato all’intervallo 9-16 byte delle funzioni di hashing nei data center, l’algoritmo di AlphaDev ha migliorato l’efficienza del 30%.

Dal rilascio degli algoritmi di ordinamento nel file Libreria C++ standard LLVM – sostituzione delle subroutine utilizzate per oltre un decennio con quelle generate da RL – e gli algoritmi di hashing nel biblioteca di discesa in corda doppiamilioni di sviluppatori e aziende utilizzano ora questi algoritmi in tutti i settori, come il cloud computing, lo shopping online e la gestione della catena di fornitura.

Strumenti generici per alimentare il nostro futuro digitale

Dal gioco alla risoluzione di complessi problemi tecnici alla base di ogni dispositivo, i nostri strumenti di intelligenza artificiale fanno risparmiare tempo ed energia a miliardi di persone. E questo è solo l’inizio.

Immaginiamo un futuro in cui strumenti di intelligenza artificiale più generici possano aiutare a ottimizzare l’intero ecosistema informatico che alimenta il nostro mondo digitale. Ma per supportare questi strumenti, avremo bisogno di un’infrastruttura digitale più veloce, più efficiente e più sostenibile.

Sono necessarie molte altre scoperte teoriche e tecnologiche per ottenere strumenti di intelligenza artificiale completamente generalizzati. Il potenziale di trasformazione degli strumenti di intelligenza artificiale generici e il modo in cui possono essere applicati a diverse sfide nel campo della tecnologia, della scienza e della medicina. Siamo entusiasti di ciò che c’è all’orizzonte.

Ulteriori informazioni sugli algoritmi di ordinamento:

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *