Dedupe gegen Storage-Hunger

Dedupe gegen Storage-Hunger

Artikel erschienen in IT Magazine 2010/01

Mehr Wirkung durch Segmentierung

Der Effekt dieses Grundprinzips schwächt sich allerdings ab, je grösser und dynamischer die Dateien werden. Insbesondere E-Mail-Archive zeigen diese Charakteristika. Bereits eine einzige neue Mail verändert die grosse .pst-Datei so sehr, dass ein frischer Fingerabdruck berechnet wird. Zwei Dokumente würden abgelegt, obwohl sie sich untereinander nur durch eine Nachricht unterscheiden. Aus diesem Grund wurde die Deduplizierung weiterentwickelt. Inzwischen ist es möglich, grosse Dateien in mehrere kleinere, in ihrer Grösse frei zu konfigurierende Segmente aufzuteilen. So werden nur die jeweiligen Dateisegmente abgespeichert, die sich von der Vorgängerversion unterscheiden. Da der Grossteil der Segmente, in die eine voluminöse Datei aufgeteilt wurde, unverändert bleibt, müssen diese nicht noch einmal archiviert werden.


Skalieren in grossen Netzen

Zu archivierende und zu sichernde Daten sind in jedem Unternehmen auf das gesamte Netzwerk verstreut. Um alle zu erfassen, müsste der Administrator sie theoretisch alle an einer Stelle zusammenführen und dann per Deduplizierung bearbeiten. Das ist weder praktikabel noch umsetzbar. Symantec hat die Deduplizierung daher auf verschiedene Standorte, Aussenstellen und Systeme ausgedehnt. Zu diesem Zweck wurde die Datei-Charakteristika von den eigentlichen Inhalten getrennt und auf die sogenannte Metabase und den Content Router aufgeteilt. Die Metabase ist eine skalierbare Datenbank, in der die Metadaten eines Dokuments abgelegt sind. Darunter fallen sein Name, der Speicherpfad, die Sicherheitseinstellungen und natürlich der Fingerabdruck. Die Metabase lässt sich an mehreren Stellen im Netzwerk aufsetzen und fungiert prinzipiell als Ortungssys-tem. Sie weiss, wo das Dokument in welcher Version physisch abgelegt ist.


Das jeweilige Original oder seine Segmente sind in einem beziehungsweise mehreren geographisch verteilten Content-Routern abgelegt. Das erste Zeichen im Fingerabdruck eines Dokuments oder eines Dateisegments weist darauf hin, wo in den Content-Routern das entsprechende File zu finden ist. Die Inhalts-Router selbst sind direkt an ein physisches Speichersystem angekoppelt, sei es ein Direct-Attached-Storage-System (DAS), Network-Attached-Storage-System (NAS) oder ein ganzes Storage-Area-Network (SAN). Dort liegen die einzigartigen Dokumente, auf die die Metabase schliesslich verweist. Um an die jeweiligen Dateien zu gelangen, werden auf den entsprechenden Servern Agenten installiert. Sie berechnen den Fingerabdruck für das Dokument und gleichen ihn mit den Pendants in der Metabase ab. Symantec hat, wie einige andere Anbieter auch, die Deduplizierung standardmässig in seine Backup- und Disaster-Recovery-Lösungen eingebunden. Dadurch ist gewährleistet, dass die Deduplizierung bereits an der Quelle der Daten eingreifen, ihren vollen Effekt erzielen und den Speicherbedarf so wichtiger Prozesse wie der Archivierung und dem Backup erheblich senken kann. So sind IT-Verantwortliche in der Lage, den ungenutzten Speicher im Unternehmen zu entdecken und zu analysieren, wie und wo der freie Platz an anderer Stelle verwendet werden kann. Dabei gilt grundsätzlich: Deduplizierung beschränkt sich nicht auf einzelne Lösungen, IT-Segmente oder Niederlassungen, sondern umfasst idealerweise sämtliche Daten, die in allen Systemen und in jeder Niederlassung des Unternehmens existieren. Am elegantesten und effektivsten lässt sich eine entsprechende Strategie deshalb implementieren, indem Daten bereits nach der Erstellung durch den Anwender dedupliziert werden. Hinzu kommt, dass Backup- und Archivierungslösungen über Schnittstellen an das Storage-Management angebunden sein müssen.


Neuen Kommentar erfassen

Anti-Spam-Frage Wie hiess im Märchen die Schwester von Hänsel?
Antwort
Name
E-Mail
GOLD SPONSOREN
SPONSOREN & PARTNER