Ein strategischer Umbau des Streaming-Plattform-Anbieter
Confluent soll seinen Cloud-Dienst für das Event-Streaming
einfacher, effizienter und kostengünstiger gestalten. Das Unternehmen
kündigte im Rahmen des Projekts Metamorphosis eine auf Apache
Kafka basierende unbegrenzte, automatisch verwaltete Speicherung
für Confluent Cloud an.
Confluent will durch Entfernen der Speicherlimitierungen den Konflikt
zwischen Betreibern auflösen, welche stets um eine Balance
zwischen benötigter Aufbewahrungsdauer und Kosten bemüht
waren. Das von den ehemaligen Kafka-Entwicklern gegründete
Unternehmen vertritt die Ansicht, dass bisher übliche Speicherintervalle
aufgrund der wachsenden Zahl von Anwendungen und Diensten nicht
mehr ausreichend sei - so
auch Mitgründer Jun Rao in seinem Blogbeitrag.
Standard und Dedicated Cluster sollen in Zukunft unbegrenzten Speicher
zur Verfügung gestellt bekommen - die Event-Streaming Plattform
wird damit entsprechend zahlreicher Wünsche als primäres
Speichersystem zur Datenbank ausgebaut. Durch Vereinfachung des
Systemaufbaus soll, neben der Genauigkeit der Erkenntnisse aus Daten,
auch die Qualität von Applikationen und Diensten gesteigert
werden. Historische Daten wurden aus Kostengründen bisher meist
auf andere Datenspeicher ausgelagert.
Zahlreiche Anwendungsszenarien sollen von der in Confluent Cloud
als Tiered Storage umgesetzten unbegrenzten Datenhaltung profitieren.
Beispielsweise sollen Banken ihren gesetzlich auferlegten Speicherfristen
leichter nach kommen können. Zudem haben Kunden einfacheren
Zugang zu historischen Daten.
Zunächst soll die neue Funktion für AWS bereit stehen.
Später sollen andere Cloud-Provider-Plattformen folgen. Nähere
Informationen zur unbegrenzten Speicherung mit Apache Kafka sind
im
Confluent-Blog und in der Dokumentation
des Projekts Metamorphosis nachzulesen.
(jb, hannover)
(siehe auch: Heise-News-Ticker)
Hannover · EDV-Beratung ·
Linux · Novell · Microsoft · Seminar ·
IT-Consult · Netzwerk · LPIC · CLE
|