Backup, aber wie?

Backup, aber wie?

Artikel erschienen in IT Magazine 2018/12
Seite 1
1. Dezember 2018 -  Von Thomas Benz und Andreas Bechter

Big Data ist noch Neuland für die meisten KMU. Wer alle Ideen und Optionen flexibel und risikofrei durchprobieren will, braucht Backups seiner Daten. An diese Backups zu kommen, ist aber alles andere als trivial.
Backup, aber wie?
Thomas Benz (links) ist Country Manager Schweiz und Österreich bei Veritas Technologies und ist für die Kundengewinnung und das Wachstum in der Region sowie die Geschäftsentwicklung zuständig. Andreas Bechter ist Global Technical Alliance Manager bei Veritas Technologies und verfügt über 20 Jahre an Erfahrung im Bereich Backup und Recovery Market. (Quelle: Veritas)
Big Data verspricht auch KMU neue Erkenntnisse, mit denen sie der Konkurrenz den entscheidenden Schritt voraus sein können. Gerade kleine und mittelgrosse Firmen werden dabei Neuland betreten und merken, dass sich in der Industrie erst langsam Best Practices und klar strukturierte, bewährte Ansätze zeigen. Auf Neuland zu navigieren heisst, wie ein Pionier unterschiedliche Ansätze auszuprobieren, Fehltritte einzukalkulieren und aus den Fehlern zu lernen.


Wichtig ist: Wenn Fehler die Daten korrumpieren, müssen Firmen schnell auf einen Bestand zurücksetzen können, um ihre Big-Data-Analysen weiterzuführen. Dies sollte unabhängig von der darunter liegenden Infrastruktur gelten. Ob ein Unternehmen für Big-Data-Analysen ausschliesslich auf die Dienste eines der grossen Cloud-Provider setzt, Mischszenarien fährt, in denen es eigene Hard- und Software an Cloud-Dienste koppelt oder die wichtigsten Elemente in Eigenregie auf eigener Infrastruktur betreibt – in ­allen Szenarien sind die Risiken ähnlich.

Die Risiken

Die grösste Gefahr geht keineswegs von den Plattformen, Diensten oder der Infrastruktur aus. Hier haben die Hersteller der Applikationen und Datenbanken sowie die Cloud-Dienstleister über die Jahre ausgezeichnete Ausfallkonzepte implementiert, dank derer sie einen hochverfügbaren Betrieb ihrer Big-Data-Module garantieren können. Den grössten Einfluss hat der Faktor Mensch. Kroll Ontrack, ein Datenrettungsunternehmen, hat in einer Studie menschliche Fehler mit 84 Prozent als die wichtigste Ursache für Datenverluste benannt. Ein unbedachter Mausklick oder das System falsch konfiguriert – und schon sind wichtige Unternehmensdaten weg. Bei Big-Data-Analysen können sich Fehler schnell auf grosse Datensets auswirken.

Die Data Scientists wollen aus den Daten im Idealfall neue Erkenntnisse gewinnen. Bei all den dafür notwendigen Schritten können kleine und grosse Fehler entstehen, die Daten verfälschen, die Datenbank überlasten oder schlicht sinnlose Ergebnisse produzieren. Den Data Scientists sollte man diese Fehler zugestehen, denn schliesslich müssen sie mangels Best Practices Neues und Unerprobtes wagen – beides könnte es notwendig machen, die Big-Data-Plattform und ihre Daten in einen früheren Zustand bringen zu müssen.
 
Seite 1 von 4
Nächste Seite

Neuen Kommentar erfassen

Kommentare werden vor der Freischaltung durch die Redaktion geprüft.
Anti-Spam-Frage Aus welcher Stadt stammten die Bremer Stadtmusikanten?
Antwort
Name
E-Mail
NEWSLETTER ABONNIEREN
Abonnieren Sie unseren täglichen Newsletter mit den wichtigsten ICT-Meldungen
SWISS IT MAGAZINE - AUSGABE 2018/12
Schwerpunkt: Big Data im KMU
• Big Data: Ein etabliertes Modell mit hoher Dynamik
• Backup, aber wie?
• Datenmanagement gestern und heute
• Marktübersicht: Data-Analytics-Dienstleister
• Interview: "Daten sind der Lebenssaft"
Zum Inhaltsverzeichnis
SPONSOREN & PARTNER