Schlank speichern, Geld sparen
Quelle: Vogel.de

Schlank speichern, Geld sparen

Auf der einen Seite Speichernot, auf der anderen enorme Festplattenkapazitäten, die niemand nutzt – dies ist das gängige Paradox in heutigen Rechenzentren.

Artikel erschienen in Swiss IT Magazine 2010/11

     

Auf Nummer sicher gehen, das liegt in der Natur von Storage. Anwendungen generieren schliesslich geschäftskritische Daten, die Storage-Systeme sicher aufbewahren sollen. Doch dieses «auf Nummer sicher gehen» hat das Phänomen des Overprovisionings begünstigt. Dabei wird einer Anwendung viel mehr Speicherplatz zugewiesen, als sie bräuchte. Wertvolle Ressourcen liegen brach, was beim geschätzten Datenwachstum von jährlich durchschnittlich 40 Prozent pro Unternehmen leichtfertig ist.



Die Entstehung von Overprovisioning

Folgendes Beispiel soll zeigen, wie es zu Overprovisioning kommt: Die IT-Abteilung will eine neue Datenbank installieren. Der Verantwortliche oder «Application Owner» schätzt seinen Speicherbedarf auf 300 Gigabyte. Der Datenbankadministrator (DBA) möchte sicherstellen, dass der Anwendung immer genug Speicher zur Verfügung steht und entscheidet, dass er 325 GB benötigt. Der Storage Administrator hat ähnliche Bedenken wie der DBA und stellt der neuen Datenbank entsprechend 400 GB zur Verfügung. Dieser Speicher ist für diese Applikation reserviert und darf von keiner anderen Applikation genutzt werden. Nach rund einem Jahr stellen die Beteiligten fest, dass die Datenbank tatsächlich nur 100 GB belegt hat. Der Speicher ist für zwölf Monate nur zu 25 Prozent genutzt worden, und die unbenutzten Ressourcen belasten als totes Kapital das IT-Budget. Dies ist kein Einzelfall. Industrieanalysten gehen davon aus, dass durchschnittlich nur 30 bis 35 Prozent des verfügbaren Speichers in Unternehmen genutzt werden.


Dynamische Versprechen

Die Technik des Thin Provisioning löst das Problem. Sie gaukelt Applikationen vor, dass ihnen 400 Gigabyte zur Verfügung stehen. Tatsächlich wird aber kein einziges Byte an Speicher blockiert. Erst wenn die Datenbank beginnt, erste Informationen speichern zu wollen, wird ihr dynamisch weiterer Speicher zugewiesen. Ist der erste Datensatz in der Datenbank beispielsweise 5 MB gross, so werden tatsächlich 5 MB belegt. Wird ein weiterer Datensatz abgelegt, ebenfalls 5 MB gross, stehen der Applikation 10 MB zu. So basiert die Speicherbelegung auf dem tatsächlichen Bedarf statt auf Mutmassungen.


Die dabei verwendete Technologie ist relativ jung, aber ausgereift. Der physikalische Speicher wird in einem Speicher-Pool zusammengefasst und nur dann konsumiert, wenn eine Applikation tatsächlich Daten auf das logische Volumen schreibt. Dem Dateisystem fällt dabei eine Schlüsselrolle zu. Nur es besitzt die Übersicht und das Wissen darüber, ob bereits Daten auf dem Speicher liegen. Das Datensystem legt fest, dass der Anwendung gezielt Ressourcen aus dem Speicherpool zugewiesen werden können und transferiert die ungenutzten Ressourcen auch wieder in den Pool zurück.



Der schnelle Weg zur Schlankheit

Um IT-Verantwortlichen die Migration von existierenden Systemen auf eine Thin-Umgebung zu erleichtern, gibt es Technologien, welche die dafür nötigen Schritte selbst abarbeiten. Eine solche Lösung unterscheidet zwischen Speicherbereichen, die Daten enthalten und solchen, wo diese gelöscht wurden. Die Technik migriert nur die vorhandene Nettolast in die Thin-Installation.


Doch nicht nur der Weg in diese Umgebung ist dank der Technik relativ einfach. Auch das «Schlank bleiben» lässt sich mit einer Integration zwischen Dateisystem und Storage-Array in den Griff kriegen. Es ist nämlich wichtig, dass die Thin-Umgebung nicht nur mit dem Datenwachstum zunimmt, sondern auch bei fallenden Anforderungen schrumpft. Dies ist im Prinzip recht einfach. Die Informationen, die dafür benötigt werden, ein Speichersystem «thin» zu halten, stecken schliesslich im File-System des Hosts. Nur dieses Computersystem weiss, welche einzelnen Blöcke genutzt werden und welche frei sind. Um Blöcke nach Gebrauch wieder nutzen zu können, muss es eine Integration zwischen dem Host und der Speicher-Hardware geben – eine Software-Schnittstelle. Während einer Operation über diese Software-Schnittstelle spricht das File-System mit dem Array und signalisiert, welche Blocks gelöscht wurden und für eine Wiederverwendung frei sind. Der entsprechende Speicher erscheint dann wieder im Pool und steht für neue Operationen bereit.


Weniger wichtige Daten auf billige Speicher

Die Kunst des Thin Provisionings kann im Zusammenspiel mit einem anderen Konzept, dem so genannten Dynamic Storage Tiering, weitere wirtschaftliche Vorteile bringen. Dynamic Storage Tiering sorgt dafür, dass Daten abhängig von ihrer Wichtigkeit und Zugriffshäufigkeit auf unterschiedlich teuren Storage-Typen abgelegt werden. Diese Typen werden in so genannten Tiers gruppiert, wobei Tier 0 oder 1 die wichtigste und damit teuerste Ebene ist. Der Preisunterschied zwischen den einzelnen Tiers beträgt rund 30 Prozent.


SSD-Laufwerke beispielsweise können für Dateien verwendet werden, die häufig und sehr schnell bereitgestellt werden müssen, wie beispielsweise Datenbank-Recovery-Files. Diese bekommen den Tier 0 oder 1 zugewiesen. Daten, deren Zugriffszeiten und Speicherzeiten nicht zeitkritisch sind oder sich über den Lifecycle ändern, landen dagegen langfristig auf Tier 2 und schliesslich auf kostengünstigeren Tier-3-Medien.

Ein Anwendungsfall aus der Praxis sind die Rechnungen eines Telekommunikationsunternehmens, welche am ersten Tag des Monats verschickt werden. Gibt es im Call Center Anfragen, muss die Abrechnung möglichst schnell auf dem Bildschirm erscheinen. Hier ist ein Tier 1- oder sogar Tier-0-Speicher sinnvoll. Monate später hingegen müssen die alten Vorgänge nur noch aus Compliance-Gründen archiviert werden. Hier ist ein langsames, aber preiswertes Festplattensystem die beste Lösung. Welche Daten wann zu welchem Speichersystem wandern, kann auf unterschiedlichste Arten festgelegt werden. Abgesehen von manuellen Vorgängen bieten hier Speichermanagement-Systeme denkbar vielfältige Regeln an. So ist neben einem automatischen Verschieben ein auf Regeln basiertes Verschieben möglich – vom teuren Speicher zum billigen und zurück. Es ist auch eine Einteilung nach Datenklassen oder Applikationen denkbar. SAP-Informationen werden dann automatisch auf hochwertigen Speicher verschoben, während die E-Mail-Archivierung auf preiswerten Systemen erfolgt.


Durch eine effiziente Nutzung von Thin Provisioning und Dynamic Storage Tiering können Unternehmen durchaus beträchtliche Kostenvorteile erzielen. Ein solcher Effekt tritt jedoch nur dann ein, wenn eine Speicherverwaltungslösung schnell auf sich ändernde Unternehmensanforderungen reagieren kann.


Inseln abschaffen

Viele Hardware-Anbieter haben eigene Storage-Management-Systeme, die jedoch vorrangig auf die eigenen Lösungen ausgerichtet sind. Sie lassen sich nur suboptimal in heterogenen Umgebungen einsetzen. Unternehmen, die eng an einen Hersteller und seine Geräte gebunden sind, lassen sich im Ernstfall leichter Preise diktieren. Verwendet ein Unternehmen aber Hardware von verschiedenen Herstellern, ist es in einer besseren Verhandlungsposition und kann somit bessere Preise erzielen. Eine Hardware-unabhängige Lösung ermöglicht es einem Unternehmen, in diese Verhandlungsposition zu kommen. Und sie bietet zudem den Vorteil, jederzeit den Anbieter wechseln und somit Migrationskosten senken zu können.


Verschiedene Dritthersteller bieten Lösungen, um diese Mischlandschaften von zentraler Stelle aus zu verwalten und damit die operativen Kosten zu reduzieren. Diese Storage-Management-Systeme dienen dann in einer heterogenen Umgebung aus Speicher, Server und Anwendungen als gemeinsame zentrale Plattform und helfen, Architekturänderungen oder Hardware-Wechsel problemlos zu verkraften.




Artikel kommentieren
Kommentare werden vor der Freischaltung durch die Redaktion geprüft.

Anti-Spam-Frage: Welche Farbe hatte Rotkäppchens Kappe?
GOLD SPONSOREN
SPONSOREN & PARTNER