|
Mit dem jetzt in einer Beta-Version vorgestellten Cloud Bigtable
bietet Google die Infrastruktur an Hard- und Software für die
Verarbeitung großer Datenmengen. Das Angebot richtet sich
an Organisationen und Unternehmen, die mit großen Datenmengen
arbeiten und basiert auf Googles NoSQL-Datenbanksystem Bigtable.
Dieses versorgt auch die internen Dienste wie die Suche und Gmail
mit Daten. Die HBase-API
von Apache ermöglicht den Import und Export von Daten.
Die Latenzzeiten von Cloud
Bigtable liegen laut
Google im einstelligen Millisekundenbereich. Außerdem
seien sämtliche Daten sowohl bei der Lagerung als auch während
der Übertragung verschlüsselt. 65 US-Cent pro Stunde kostet
ein Bigtable-Knoten bei einem Minimum von drei Knoten pro Cluster.
Dabei verarbeitet ein Node bis zu 10 Anfragen pro Sekunde beziehungsweise
10 MByte an Daten. Die Kosten für die Speicherung auf SSD betragen
17 US-Cent pro GByte und Monat. In Zukunft soll auch die Speicherung
auf eine Harddisk möglich sein und 2,6 US-Cent pro GByte im
Monat kosten. Google bietet den Dienst momentan in Europa, den USA,
Asien und dem pazifischen Raum an.
(kt, hannover)
(siehe auch heise-News-Ticker:)
Hannover · EDV-Beratung ·
Linux · Novell · Microsoft · Seminar ·
IT-Consult · Netzwerk · LPIC · CLE
|