Auf verschiedenen Wegen zur Virtualisierung

Die Versprechen klingen paradiesisch, die Realität ist noch nicht perfekt: Umfassende Storage-Virtualisierung hat ihre grosse Zeit noch vor sich.

Artikel erschienen in Swiss IT Magazine 2003/18

     

Mit einem SAN allein ist es nicht getan. Auch wenn im idealen heterogenen Speichernetzwerk jeder Server auf jede Storage-Einheit zugreifen kann, sind die Hauptprobleme damit nicht gelöst: Der Datenpfad zwischen dem Speicherbedürfnis auf Serverseite und dem physikalischen Speicherort bleibt fix und muss für jede Anwendung individuell festgelegt werden. Sobald mehr als ein paar Server und Storage-Geräte im Spiel sind, wird die SAN-Verwaltung zum Management-Albtraum.




Ausserdem werden die Speichermedien nur unzureichend genutzt. Studien zeigen, dass in vielen Rechenzentren weniger als die Hälfte der eigentlich vorhandenen Speicherkapazität wirklich belegt ist. Der Rest wird bewusst freigehalten, um im Notfall rasch zusätzlichen Platz bereitzuhalten - oder aber es weiss im Unternehmen schlicht niemand, wieviel Platz auf welchen Medien überhaupt zur Verfügung steht.


Schlagwort Virtualisierung

Neben SAN ist Virtualisierung das derzeit wohl meistgehörte Schlagwort der Storage-Szene. Die Idee ist alt - bereits seit 1994 bietet die Firma Storagetek, die sich als Pionier und Meister des virtuellen Speichers bezeichnet, Disk-Arrays mit eingebautem Virtualisierungsmechanismus an. Volume-Manager-Software, erhältlich zum Beispiel von Veritas, sorgt für die flexiblere Zuteilung von Speicher-Ressourcen. Und in letzter Zeit ist Virtualisierungssoftware auf den Markt gekommen, die - weil geräte- und serverunabhängig - das Versprechen eines allumfassenden Speicherparadieses einlösen will.
Die gemeinsame Grundidee: Storage-Virtualisierung schafft eine Abstraktionsschicht zwischen den verschiedenen Speichermedien und den Konsumenten der Speicherkapazität. Im Normalfall sind dies die Anwendungen, die auf den Servern laufen: Vom Standpunkt des Servers aus präsentieren sich die virtualisierten Speicher-Ressourcen als zusammengefasster Pool mit einheitlichem Zugriff.



Die Anwendung "sieht" nur, wieviel Speicher im Gesamten zur Verfügung steht, und überlässt die Details dem Virtualisierungsmechanismus. Dieser entscheidet, auf welchem physikalischen Medium die Daten gespeichert und mit welchen Massnahmen - Spiegelung, Replikation, hierarchische Migration auf Tape oder andere Medien - für Konsistenz und Sicherheit zu sorgen ist.





Drei Arten und zwei Methoden

In einem Speichernetzwerk lässt sich Virtualisierung auf drei Ebenen implementieren: in den Anwendungsservern, in den Speichergeräten und im Netzwerk selbst in Form von dedizierten Virtualisierungsservern oder speziell ausgestatteten Switches. Oft werden mehrere Varianten kombiniert:




• Gerätebasierte Virtualisierung wird von verschiedenen Hardwareherstellern wie Storagetek, EMC und HP/Compaq schon länger angeboten und ist naturgemäss grundsätzlich an das jeweilige Speichergerät gebunden. Gerade deshalb genügt diese Variante aber auch besonders hohen Performance-Ansprüchen - dafür sind die meist riesigen Geräte auch ziemlich teuer.





• Host-basierte Virtualisierung arbeitet mit Software auf allen Servern, die den virtuellen Storage-Pool nutzen wollen. Die Software, zum Beispiel der Veritas Volume Manager, kann das Verhalten der Applikationen analysieren und so die benötigte Kapazität von den Storage-Subsystemen anfordern.




• SAN-basierte Virtualisierung ist die neueste Variante. Die Virtualisierungssoftware läuft hier auf einem separaten Storage-Management-Server oder einem dedizierten Virtualisierungsgerät. Einzelne Hersteller wie FalconStor bieten auch vorkonfigurierte Software/ Hardware-Kombinationen an, sogenannte Virtualisierungs-Appliances.



Die SAN-basierte Virtualisierung bietet einen grossen Vorteil: Sie arbeitet unabhängig von Servern und Speichergeräten und kommt, zumindest in der Theorie, dem heterogenen Speicherideal am nächsten. Dennoch steckt auch hier der Teufel im Detail: Es gibt zwei unterschiedliche Methoden, nach denen netzwerkbasierte Virtualisierungslösungen ins SAN eingebunden werden:




• Bei In-Band-Lösungen läuft der gesamte Storage-Verkehr über einen separaten Server - entweder ein Windows-, Linux- oder Unix-System oder eine spezielle Virtualisierungs-Appliance. Beispiele sind die Lösungen von FalconStor, Datacore sowie die Continuous Access Storage Appliance von HP, die aus dem Produkt des übernommenen Herstellers StorageApps entstand. Über diesen Storage-Management-Server laufen sowohl die Daten selbst als auch die Metadaten, also die Informationen über den physikalischen Speicherort. Auf diese Weise lassen sich auch komplexere Storage-Operationen wie Replikation direkt steuern. Die Kehrseite der Medaille: Der Virtualisierungsserver hat den gesamten Datenverkehr zu bewältigen und bildet einen Flaschenhals im Speichernetzwerk, sowohl was die Leistung als auch was die Ausfallsicherheit betrifft. Hersteller wie FalconStor erlauben deshalb den parallellen Einsatz mehrerer Server - dann kommt aber wieder Verwaltungsaufwand für den Cluster hinzu.




• Out-of-Band-Lösungen wie die Softwareprodukte von IBM, HP, StoreAge und Veritas trennen Daten und Metadaten. Die Virtualisierungs-Engine ist via LAN mit den Host-Bus-Adaptern der Server verbunden, löst die Speicheranfragen aufgrund der Metadaten auf und teilt den Anwendungsservern mit, über welchen Pfad die gewünschten Daten erreichbar sind. Der eigentliche Datenverkehr läuft dann übers SAN direkt zwischen Server und Speichereinheit ab und geht nicht über das Virtualisierungsgerät. Damit entfällt der Flaschenhals, und die Konfiguration wird einfacher, dafür muss auf jedem angeschlossenen Server ein Software-Agent installiert werden. Die Möglichkeiten sind zudem weniger umfassend als bei einer In-Band-Lösung, da das Virtualisierungsgerät den Datenfluss selbst nicht kontrolliert.



Virtualisierungsarten


Das Ideal noch nicht erreicht

Die Idealvorstellung einer virtualisierten Speicherlandschaft: Statt statisch konfigurierte Speichereinheiten bietet das Rechenzentrum den Storage-Konsumenten unternehmensweite, anhand von Richtlinien in Echtzeit automatisch nach Bedarf bereitgestellte Speicherdienste.



Die Praxis hat dieses Ideal noch nicht erreicht. Herstellerübergreifende Standards wie die Storage Management Initiative (SMI) der Industrieorganisation SNIA (Storage Networking Industry Association) beginnen erst jetzt langsam in Produktform zu greifen. Man rechnet damit, dass im Lauf des nächsten Jahres erste Produkte auf den Markt kommen und bis 2005 sämtliche neuen Storage-Produkte SMI-konform sind.




Thomas Madsen von ProAct bringt die Situation auf den Punkt: "Für uns heisst Virtualisierung, dass die gesamten Speicher-Ressourcen einer heterogenen Umgebung zusammengefasst sind. Wenn nur einzelne Geräte einbezogen weden, ist es keine echte Virtualisierung. Zu einer umfassenden Umsetzung sind die Kunden aber noch nicht bereit, wie die Praxis zeigt: Im skandinavischen Markt, wo unser Mutterhaus tätig ist, hat noch kein einziger Kunde unternehmensweit virtualisiert - bisher wurde das nur in kleineren Umgebungen realisiert." Madsen merkt darüber hinaus an, dass viele Anwender als erstes die Zusatzfunktionen der Lösung nutzen (Replikation, Mirroring) und die eigentliche Virtualisierung erst später implementiert wird.



Artikel kommentieren
Kommentare werden vor der Freischaltung durch die Redaktion geprüft.

Anti-Spam-Frage: Wie hiess im Märchen die Schwester von Hänsel?
GOLD SPONSOREN
SPONSOREN & PARTNER