Il supercomputer AI di Google stabilisce un nuovo standard in termini di velocità e prestazioni

Il supercomputer AI di Google stabilisce un nuovo standard in termini di velocità e prestazioni

Secondo Google, il suo supercomputer TPU (Tensor Processing Unit) con intelligenza artificiale supera il chip A100 di NVIDIA sia in termini di velocità che di rispetto dell'ambiente.

Google ha recentemente condiviso dettagli sulla sua intelligenza artificiale supercomputer per l'addestramento di modelli, sostenendo che i loro sistemi sono più veloci ed efficienti dal punto di vista energetico rispetto a quelli comparabili offerti da NVIDIA. Per oltre il 90% delle sue operazioni di formazione sull’intelligenza artificiale, Google ha creato un chip specializzato chiamato Tensor Processing Unit (TPU). Il processo di addestramento dell'intelligenza artificiale prevede l'immissione di dati attraverso modelli per migliorare le loro prestazioni in compiti come generare immagini o rispondere a domande utilizzando il linguaggio naturale.

Google ha recentemente pubblicato un documento di ricerca che descrive in dettaglio la quarta generazione del suo Tensor Processing Chip di unità (TPU). Google ha anche descritto come ha collegato più di quattromila chip interni in un supercomputer utilizzando i suoi interruttori ottici interni per creare collegamenti tra vari dispositivi.

La concorrenza per migliorare le connessioni tra le macchine è diventata fondamentale per le aziende che producono supercomputer IA. Questo perché i modelli linguistici di grandi dimensioni, la spina dorsale di tecnologie come Bard di Google o ChatGPT di OpenAI, sono cresciuti notevolmente, rendendoli troppo grandi per stare in un singolo chip.

Secondo Google, i suoi supercomputer sono progettati per consentire facile riconfigurazione delle connessioni tra i chip in tempo reale. Questa funzionalità aiuta a evitare potenziali problemi e consente di apportare miglioramenti alle prestazioni in modo rapido ed efficiente.

Scopri tu stesso come i nuovi chip TPU v4 di Google si confrontano con i chip A100 di NVIDIA

Nell'immagine: i risultati del benchmark MLPerf Training v1.0 mostrano che il TPU v4 di Google supera tutti i prodotti non Google in termini di velocità, compresi quelli di NVIDIA, indipendentemente dalle dimensioni del sistema. Il confronto è normalizzato in base al tempo di allenamento complessivo e i risultati indicano che le barre più alte rappresentano prestazioni migliori.

"Nonostante abbia rilasciato informazioni sul suo supercomputer solo di recente, Google ha reso il sistema attivo e funzionante entro l'organizzazione dal 2020. Il confronto sopra riportato ne è la prova perché è stato effettuato nel luglio '21."

Leggi anche: Google Quantum Supremacy: spiegazione

Cosa Cosa dice Google

Google ha riferito che, per sistemi di dimensioni comparabili, è uscito il suo supercomputer esegue un sistema basato sul chip A100 di NVIDIA disponibile nello stesso periodo del TPU di quarta generazione. Secondo Google, il suo supercomputer è 1,9 volte più efficiente dal punto di vista energetico e fino a 1,7 volte più veloce del sistema NVIDIA realizzato utilizzando i chip A100 di NVIDIA.

L'azienda ha inoltre affermato di non aver confrontato direttamente i suoi supercomputer di quarta generazione Tensor Processing Unit (TPU) con l'ultimo chip H100 di punta di NVIDIA. Ciò è dovuto all'utilizzo da parte dell'H100 di una tecnologia aggiornata e alla sua introduzione dopo il TPU di Google.

Per ulteriori informazioni sulle ultime novità tecnologiche, elenchi, guide alla risoluzione dei problemi e suggerimenti e trucchi relativi a Windows, Android, iOS e macOS, seguici su e Pinterest.

leggi: 2

yodax