Backup, aber wie?

Backup, aber wie?

1. Dezember 2018 - Von Thomas Benz und Andreas Bechter

Big Data ist noch Neuland für die meisten KMU. Wer alle Ideen und Optionen flexibel und risikofrei durchprobieren will, braucht Backups seiner Daten. An diese Backups zu kommen, ist aber alles andere als trivial.
Artikel erschienen in IT Magazine 2018/12
Wer die wilden Datenströme heute und auf lange Sicht zähmen will, sollte Hersteller auswählen, die zuerst einmal in der Lage sind, die vielen Workloads überhaupt zu sichern. Dies lässt sich anhand einfacher Checks schnell prüfen. Werden neben den klassischen Legacy-Plattformen und den virtuellen Stacks bereits moderne Workloads wie Mongo DB, HBASE, SAP Hana oder Hadoop abgedeckt? Ist der Backup-Hersteller bereits von den Herstellern der Big-Data-Plattformen zertifiziert? Wie schnell ist der Backup-Hersteller darin, neue Workloads zu unterstützen? Arbeitet der Anbieter mit den wichtigen Cloud-Providern zusammen und liefert zertifizierte Module, um mit ihnen und deren Cloud-Snapshots und Data Movern zu interagieren? Welche Historie hat er auf diesem Gebiet? Welche Strategie verfolgt er?

Das Backup-Konzept eines Herstellers muss für Big Data zudem skalieren, und zwar horizontal wie vertikal. Die Datenmengen werden weiter massiv wachsen und sich geographisch noch stärker auf verschiedenste Infrastrukturen verteilen. Der Hersteller muss in der Lage sein, an Orten, an denen sich grosse Datenmengen konzentrieren, leicht skalierbare und hochperformante Backup-Systeme zu liefern, die diese Mengen in den knappen Zeitfenstern wegschreiben können. Und sie müssen leicht in die Fläche skalieren, um den verteilten mehrstufigen Applikationen und ihren Daten folgen zu können und die Daten dem Charakter der Big-Data-­Plattform entsprechend sichern. Denn schliesslich haben Entfernung und Datenmenge massive Auswirkungen auf die Backup-Leistung.

Verantwortung verteilen

Das Backup-Konzept sollte in der Lage sein, die Verantwortung für die Big-Data-­Daten und -Workloads und ihre Wiederherstellung auf mehrere Schultern zu verteilen. Mitglieder der Data-Scientist-­Teams wollen ihre eigenen virtuellen Ressourcen kontrollieren und auf frühere Versionen zurückschalten, ohne auf die Backup-Teams angewiesen zu sein. Der Prozess sollte für die Teams in wenigen Klicks und ohne Backup-Schulung abzuwickeln sein. Sie sollen sich ja auf ihre Kernaufgabe konzentrieren und keine Zeit mit Nebenaufgaben vergeuden.

Beherrscht der Backup-Anbieter alle neuen und alten Plattformen, Workloads und die verschiedenen Big-Data-Architekturen, kann der Kunde alle Backup-­Anforderungen mit einer Software zentral abdecken und steuern. Dies wird sich massiv in den Betriebskosten des Back­ups widerspiegeln. Unter dem Strich sind all diese Eigenschaften essenziell, um heutige Big-Data-Umgebungen souverän abzudecken und zugleich dem Kunden zu garantieren, dass das Backup-­Konzept zukunftssicher ist.
Seite 4 von 4
 

Neuen Kommentar erfassen

Anti-Spam-Frage Wieviele Fliegen erledigte das tapfere Schneiderlein auf einen Streich?
Antwort
Name
E-Mail
SPONSOREN & PARTNER