Speicher für das Business 2.0
Quelle: HP

Speicher für das Business 2.0

HP erklärt in «Swiss IT Magazine» am Beispiel von 3Par, wie eine Speicherarchitektur für die unberechenbaren Herausforderungen des Business 2.0 aussehen kann.

Artikel erschienen in Swiss IT Magazine 2011/06

     

Von Serge Bourgnon

Die Informatik verändert sich nach wie vor in einem rasanten Tempo. Durch neue Nutzungsformen wie Social Media, ortsbasierte Dienste oder Collaboration und Geräte wie Smartphones verdoppelt sich das weltweite Datenvolumen derzeit rund alle 18 Monate. Die Storage-Verantwortlichen müssen aber nicht nur diese enorme Zunahme meistern. Zusätzlich erschwert wird die Planung einer langfristig tragfähigen Speicherinfrastruktur durch die Tatsache, dass die Wachstumsraten und die kurzfristigen Spitzenbelastungen schwer vorhersehbar sind.


Die Einführung eines Smartphone-Clients für die CRM-Applikation, die Kundenkommunikation per Web 2.0, ein Produkte-Tracking­system oder wenn eine Abteilung beginnt, die regelmässigen Team-Meetings durch Videokonferenzen zu ersetzen, können den Speicherbedarf von einzelnen Anwendungen innert kürzester Zeit explodieren lassen. Kaum ein Storage-Verantwortlicher ist in diesem Umfeld noch in der Lage, mit Sicherheit vorherzusagen, wie viel Speicherplatz in drei Jahren für welche Applikation benötigt wird. Die Erfahrung zeigt, dass die Schätzungen meist massiv zu tief liegen. Das Business kann nicht warten. Es ist im weltweiten Konkurrenzkampf darauf angewiesen, dass die IT schnell auf neue oder sich ändernde Herausforderungen reagieren kann. Die IT-Abteilungen müssen sich dafür zu agilen Serviceorganisationen wandeln. Die Ansprüche, die an sie gestellt werden, gleichen sich immer mehr an jene an, welche die grossen Cloud- oder- Outsourcing-Provider erfüllen müssen.

Spezialprozessoren für die Datenbewegungen

Diesen wachsenden Agilitätsanforderungen können die bisherigen Speicherplattformen durch evolutionäre Weiterentwicklungen begegnen. Die zu Grunde liegende, herkömmliche Architektur setzt aber der gleichzeitigen Steigerung von Performance und Flexibilität ihre Grenzen. Um beiden Hauptanforderungen gleichermassen gerecht werden zu können, sind neuartige Speicher-Architekturen notwendig, die von Grund auf für das Internet-Zeitalter entwickelt wurden.


Genau hier setzt Utility Storage von 3Par an. Die Technologie des 1999 gegründeten und im vergangenen Herbst für 2,4 Milliarden US-Dollar von HP übernommenen Unternehmens wurde von Beginn weg für die schnell wachsenden und noch schneller wechselnden Datenvolumen der Internet-Ökonomie entworfen. Das Herzstück bilden Cluster-fähige Controller mit Spezialprozessoren (ASIC), in denen die Datenbewegungsebene fest ins Silizium programmiert ist. Dies erlaubt nicht nur eine um Faktoren schnellere Verarbeitung, sondern auch ein lineares Skalieren ohne Leistungseinbussen. Die klare Trennung der durch Standardprozessoren gesteuerten Metadatenverarbeitung von der Datenbewegungsebene garantiert zudem hohe Flexibilität.

Thin bereits in der Hardware

Bekannt geworden ist 3Par als Pionier des sogenannten Thin Provisioning. Dabei wird im Unterschied zum konventionellen Fat Provisioning nicht mehr jeder Applikation einzeln eine grosse, feste Speicherpartition zugeteilt, damit alle Belastungsspitzen abgefangen werden können. Die Zuweisung erfolgt vielmehr in 256 MB grossen «Chunklets». Durch diese kleineren und dynamisch adressierbaren Einheiten muss nur noch eine Gesamtreserve vorgehalten werden. Der Speicherbedarf sinkt in der Folge bis zu 50 Prozent. Dies spart nicht nur Storage-Einheiten, sondern auch Rechenzentrum-Platz und Strom für den Betrieb.
Im Gegensatz zu anderen Systemen ist Thin Provisioning bei 3Par aber nicht einfach als Zusatz auf die bestehende Architektur aufgepflanzt, sondern bereits in der Hardware integriert. Diese tiefe Verankerung im Fundament des Storage-Stacks ermöglicht eine ganze Reihe zusätzlicher Feature «out of the Box». Dazu gehören unter anderem Thin Conversion, Thin Persistence, Multi-Tiering, Advanced Virtualization sowie Dynamic und Adaptive Optimization.

Automatische Optimierung im Betrieb

Thin Conversion offenbart die Vorzüge einer Integration der Thin-Technologien in die Hardware-Basis insbesondere bei der Ablösung von Altsystemen. Die Spezialprozessoren in den Controllern analysieren und optimieren die Daten nämlich bereits bei der Übernahme. Mehrfach vorhandener Ballast der Betriebssysteme wird zum Beispiel schon während der Migration erkannt und eliminiert.

Erste Erfahrungen haben gezeigt, dass ein 3Par-System dank Thin Conversion durchschnittlich rund 50 Prozent weniger Speicher als die Vorgängerplattform benötigt. Entsprechend kleiner kann das Anfangssystem dimensioniert werden. In herkömmlichen Architekturen werden die vergleichbaren Optimierungen demgegenüber erst nach der Migration vorgenommen, was ein entsprechend grösseres Startsystem zur Folge hat.


Die Fähigkeit, die Daten «in line» direkt während der Bewegungen zu optimieren, bringt einen weiteren Vorteil: Auch die laufende Optimierung im Betrieb kann weitgehend automatisiert werden. Diese sogenannte Thin Persistence spart den sonst dafür notwendigen, regelmässigen Wartungsaufwand durch die Speicherverantwortlichen und verhindert, dass überflüssige oder über Zeit ineffizient gespeicherte Daten die Speicher volllaufen lassen. Auch ein aufwendiges Redesign der Lösung auf Grund von veränderten Anforderungen ist kaum noch nötig, da sich die Plattform laufend selber optimiert. In die Datenbanken und der Virtualisierungs-Software von Oracle, Vmware, Symantec und Microsoft ist die Thin-Persistence-Funktionalität standardmässig direkt integriert.

Feingranulare Virtualisierung bringt Performance

Die optimierte Auslastung ist jedoch nur eine Seite der Speichermedaille. Auf der anderen Seite muss auch die Performance stimmen. Diese kann – zusätzlich zur schnellen Datenbewegung durch performante Controller – erstens durch eine möglichst optimale Ausnutzung der Leistungen der einzelnen Disks und zweitens durch den selektiven Einsatz von schnellerer Speicher-Hardware für wichtige Aufgabe erreicht werden.

Das Erstere wird durch eine sogenannte Advanced Virtualization erreicht, einer vollständigen Virtualisierung der Daten über das ganze System. Die Disks werden dabei nicht wie bisher üblich in Storage-Gruppen zusammengefasst. Vielmehr werden die Daten automatisch in granulare 256-MB-Chunklets proportional über alle Festplatten im System verteilt. Dadurch sind immer alle Disks gleich stark ausgelastet. Ebenso skaliert die Plattform dank dieser feingranularen und gleichmässigen Virtualisierung praktisch linear, weil keine einzelne, überlastete Komponente das Gesamtsystem ausbremsen kann.


Für das Zweite sorgt ein Multi-Tiering, in das Solide State Disks, SATA- und Fibre-Channel-Festplatten hierarchisch eingebunden werden können. Dabei lassen sich entweder durch Dynamic Optimization ganze Volumen wie etwa eine vollständige Datenbank automatisiert einem bestimmten Festplattentyp zuweisen oder durch Adaptive Optimization nur einzelne Subvolumenbereiche – wie etwa häufig gebrauchte Tabellen einer Datenbank. So können genau jene Daten für einen definierten Zeitraum auf den schnellen Solide State Disks gehalten werden, bei denen sich deren höherer Preis auch auszahlt, wie dies etwa bei einer aufwendigen Jahresendverrechnung der Fall ist.

Leistung für jeden Mandanten

In der Systemleistung zeigt sich besonders deutlich, dass die Gründer von 3Par ursprünglich aus dem High Performance Computing kommen. Die Mesh-active-Controller-Technologie, welche für die optimale Steuerung des Controller-Cluster sorgt, ist im wesentlichen eine Adaption der hochskalierbaren Clustertechnologien aus dem Hochleistungsrechner-Bereich. Unter dem Strich erreicht die Plattform durch die Kombination aus feingranularer Virtualisierung, Multi-Tiering und ge-clusterten Spezialprozessoren für die schnellen Datenbewegungen I/O-Leistungen (Input/Output), die über denjenigen vieler aktueller High-end-Speichersysteme liegen.

Dass Service-orientierte IT-Organisationen auch die wechselnden Belastungen durch unterschiedliche Anwender im Unternehmen zuverlässig und sicher bewältigen können, dafür sorgt derweil Secure Multitenancy. Die fundamentale Trennung des Metadatenmanagements von den Datenbewegungen erlaubt eine klare Trennung von Benutzern, Anwendungen und Daten und damit einen sicheren Mandantenbetrieb.


Serge Bourgnon ist 3Par Business Development Manager bei HP (Schweiz).


Artikel kommentieren
Kommentare werden vor der Freischaltung durch die Redaktion geprüft.

Anti-Spam-Frage: Vor wem mussten die sieben Geisslein aufpassen?
GOLD SPONSOREN
SPONSOREN & PARTNER