|
IBM hat für einen bisher unbekannten Kunden einen Storage-Cluster
entwickelt, der 120 Petabyte Daten fassen kann und einem neuen Supercomputer
für Simulationen zur Verfügung stehen soll. Das System
fasst 200.000 Festplatten zusammen. Die Entwickler von IBM
Research in Almaden haben zu hohen Racks in Überbreite
und mit horizontalen Einschüben gegriffen, um sie alle unterzubringen.
Die Platten werden mit Wasser statt mit Lüftern gekühlt.
Auch eine neue Strategie zur Ausfallsicherheit musste her, da
bei einer solchen Anhäufung von Festplatten regelmäßige
Ausfälle einzelner Laufwerke unausweichlich sind: Das System
arbeitet mit verteilten Kopien der Daten, auf die der Supercomputer
ohne Performance-Verlust zugreifen kann, statt mit berechneten Paritäten.
Derweil werden die defekten Kopien auf den ausgetauschten Platten
im Hintergrund mit geringer Priorität wiederhergestellt. Wenn
mehr Platten als im Durchschnitt üblich ausfallen sollte, erhöht
das System die Geschwindigkeit der Wiederherstellung.
Jedoch ist bei solch großen Systemen die Zugriffsgeschwindigkeit
auf Daten und Dateisystem entscheidend, da die Steigerung der Festplatten-Performance
schon längst nicht mehr mit der von Prozessoren und Supercomputern
mithält. IBM benutzt deshalb bei allen Platten des Clusters
das hauseigene GPFS (General Parallel File System). Es verteilt
zur Beschleunigung des Zugriffs einzelne Dateien auf mehrere Laufwerke.
Das mühsame Scannen der Volumes auf der Suche nach einzelnen
Dateien ersparen zusätzliche Dateisystemindexe. Das GPFS benötigt
dafür auf dem neuen System allein 2 PByte für die Dateiverwaltung.
(ez, hannover)
(siehe auch Heise
News-Ticker :)
Hannover · EDV-Beratung ·
Linux · Novell · Microsoft · Seminar ·
IT-Consult · Netzwerk · LPIC · CLE
|