Google stattet seine Cloud
mit einigen neuen Rechenzentren aus. Das Unternehmen spricht von
bis zu 26 Exaflops KI-Performance pro neuem System, was 26 Trillionen
Operationen pro Sekunde entspricht. Über kommende A3-Instanzen
können Kunden die Rechenleistung mieten, um beispielsweise
Large Language Models zu trainieren.
Google spricht im Blog-Beitrag
von A3-GPU-Supercomputern, die das Unternehmen über die Erde
verteilt aufbaut. Dabei nutzt jedes System die gleichen Hardware-Komponenten,
die in unterschiedlichen Stückzahlen skaliert werden. Intels
Xeon-Scalable-Prozessoren der vierten Generation (Sapphire Rapids)
und Nvidias H100-GPUs kommen zum Einsatz.
Gegenüber
HPC Wire hatte eine Google-Sprecherin bestätigt, dass in
den größten A3-Rechenzentren Dutzende Tausend H100-GPUs
eingesetzt werden sollen: "Für unsere größten
Kunden können wir A3-Supercomputer mit bis zu 26.000 GPUs in
einem einzigen Cluster bauen und arbeiten daran, mehrere Cluster
in unseren größten Regionen zu bauen." Mit sovielen
GPUs wird allerdings nicht jedes System ausgestattet.
Google nimmt es in dieser Größenordnung mit den derzeit
weltweit schnellsten Supercomputern auf.
(ts, hannover)
(siehe auch: Heise-News-Ticker)
Hannover
· EDV-Beratung · Linux · Novell · Microsoft ·
Seminar · IT-Consult · Netzwerk · LPIC · CLE
|