Laut eigenen Angaben hat der Halbleiterhersteller Shanghai Tianshu
Zhixin Semiconductor einen GPU-Beschleuniger entworfen, welcher
in Form erster Testchips schon in den Laboren läuft. Ähnlich
wie Nvidias
Ampere-GPU A100 ist er für Rechenzentren mit Fokus auf Machine
Learning gedacht - zum Training von KI-Algorithmen.
Der GPU-Beschleuniger gehört zur Familie "Big Island":
Er umfasst 24 Milliarden Transistoren, gepaart mit vier Speicherstapeln
High-Bandwidth Memory (HBM,
vermutlich HBM2 oder HBM2e). Desweiteren wird auf einen Fertigungsprozess
mit Strukturbreiten von 7 Nanometern gesetzt. Das dabei eingesetzte
Packaging-Verfahren "2,5D-CoWoS" lässt auf Auftragsarbeit
von TSMC schließen.
Der vorgestellte GPU-Beschleuniger verfügt über 147 FP16-TeraFlops
- im Vergleich dazu schafft Nvidias A100-Karte 78 FP16-TFlops über
Shader-Kerne und 312 FP16-TFlops mithilfe integrierter Tensor-Cores.
Der Instinct MI100 von AMD erreicht etwa 185 FP16-TFlops. "Big
Island" unterstützt zudem die Integer-Formate INT8, INT16
und INT32 sowie Bfloat16 und FP32.
Mit
dem Ascend 910 hat auch Huawei bereits einen eigenen KI-Beschleuniger
vorgestellt, wobei es sich zugunsten eines geringeren Entwicklungsaufwands
um einen Prozessor ohne Grafikeinheit handelt.
(jb, hannover)
(siehe auch: Heise-News-Ticker)
Hannover · EDV-Beratung ·
Linux · Novell · Microsoft · Seminar ·
IT-Consult · Netzwerk · LPIC · CLE
|