Grid Computing in der Praxis

Technisch steht der Einführung von Grid Computing im Datacenter wenig im Wege. Für die ersten Gehversuche im Rechengitter sollte man allerdings Spezialisten beiziehen.

Artikel erschienen in Swiss IT Magazine 2004/06

     

Grid Computing ist zu grossen Teilen immer noch ein Hype und erst in wenigen Fällen kommerzielle Praxis. Laut einer Studie des US-Anbieters Grid Technologies Partners haben derzeit bloss rund ein Prozent der Unternehmen Grid-Projekte im produktiven Einsatz. Bis Ende 2005 soll dieser Anteil immerhin auf zehn Prozent anwachsen. Von den Grossunternehmen mit mehr als 10'000 Mitarbeitern sollen in knapp zwei Jahren aber bereits 40 Prozent einzelne Grids implementiert haben. In Dollar ausgedrückt umfasste der Markt laut den Marktforschern von Insight Research 2003 rund 250 Millionen Dollar - bis 2008 soll er auf rund 4,9 Milliarden Dollar anwachsen. Verglichen mit den 26 Milliarden Dollar, die gemäss IDC 2003 alleine in den USA mit Systeminfrastruktur-Software umgesetzt wurden, ist dies allerdings immer noch ein bescheidener Betrag. So dürfte sich der Grid-Anteil weltweit auch in vier Jahren noch im einstelligen Prozentbereich bewegen.




Bis Grid zu einer gängigen Infrastruktur-Grundlage von IT-Abteilungen wird, dürfte es demnach noch einige Zeit dauern. Auch spezialisierte Anbieter wie Platform Computing rechnen erst ab 2006 bis 2008 mit einem breiteren Einsatz. Reinhard Riedl vom Institut für Informatik der Universität Zürich sieht dabei neben den noch zu komplizierten Verrechnungsmodellen und Sicherheitsbedenken vor allem die langsame Umsetzung von Service-orientiertem IT-Management in den Unternehmen als grossen Bremser. Technisch sei vor allem für Rechen-Grids eigentlich schon länger alles vorhanden oder zumindest lösbar, so die übereinstimmende Meinung von Technikern und Wissenschaftlern.


Je nach Anwendung

In der Anwendung müssen grundsätzlich zwei Schienen des Grid Computing unterschieden werden: Rechen-Grids als High-end-Server-Ersatz und Daten-Grids als Speichernetzwerke. Während Rechen-Grids schon vielfach im praktischen Einsatz stehen und mit Linux und dem Globus-Toolkit auch über eine standardisierte und allgemein anerkannte Grundlage verfügen, stehen die Daten-Grids, durch die eine verteilte Speicherung und Bewirtschaftung von Daten auf heterogener Infrastruktur möglich werden soll, noch am Anfang ihrer Entwicklung.




Aber auch in den einzelnen Anwendungsbereichen der Rechen-Grids verläuft die Einführung sehr unterschiedlich. Wissenschaftliche Applikationen und andere, kulturähnliche CPU-intensive Optimierungsberechnungen beispielsweise im Finanzumfeld werden schon heute vielfach kommerziell auf Grids durchgeführt. Auch Datenbanken können heute ohne besondere Probleme auf einer Gitterinfrastruktur betrieben werden. Gustavo Alonso vom Institut für Pervasive Computing der ETH Zürich sieht im Grid-Suffix von Datenbanken denn auch mehr ein Um-Labeln der schon heute vorhandenen Cluster-Fähigkeiten als eine wirklich neue Lösung. Denn letztlich ist Grid nichts anderes als eine weiterführende Cluster-Architektur, die auch entfernte Rechner einbinden kann und die - hier liegt der grosse Vorteil für die Anwendung innerhalb einer IT-Abteilung - auf offenen, von allen massgeblichen Herstellern unterstützten Spezifikationen beruht. So lassen sich praktisch alle Applikationen, die heute auf Clustern laufen, grundsätzlich auch auf Grids portieren.


Auf der grünen Wiese

Wer über Grid-fähige Applikationen verfügt und heute schon auf diesen Technologie-Zug aufspringen will, sollte dabei einige Punkte beachten. Laut Gustavo Alonso macht es Sinn, auf der "grünen Wiese" anzufangen und beispielsweise einen Auswechslungszyklus der PC-Infrastruktur oder die Einführung von Blade-Servern im Betrieb dafür zu nutzen. Grids auf bestehenden, heterogenen Plattformen zu installieren, ist wesentlich aufwendiger, vor allem wenn es an die Performance-Optimierung geht. Zudem könnte je nachdem auch der Overhead zu gross werden, so Alonso. Bei den ersten Versuchen sollte man zudem auf keinen Fall geschäftskritische Anwendungen tangieren. Auch wenn die Technik grundsätzlich schon ausgereift ist, wäre das Risiko nicht zu rechtfertigen.



Billig wird der Einstieg in die Spartechnik allerdings kaum. Denn ohne den Beizug von entsprechend gut bezahlten Spezialisten lässt sich laut Reinhard Riedl ein Grid kaum aufbauen. Diese dürften beim ersten Projekt die Hardware-Einsparungen zu einem grossen Teil wieder aufheben. Ist Grid als Vorbereitung für ein späteres Outsourcing gedacht oder um Rechenleistung zu Spitzenzeiten von aussen einzubinden, ist zudem eine Service-orientierte Organisation der IT mit einer klaren Sourcing-Strategie praktisch Bedingung, so Riedl.




Wesentlich einfacher gestaltet sich natürlich der Grid-Umstieg für Applikationen, die schon jetzt auf Clustern betrieben werden, oder bei Datenbanken. Hier kann die Gittertechnik einfach als eine offenere und flexiblere Alternative zu den bisherigen Techniken betrachtet werden.


Daten-Grids im Aufbau

Im Speicherumfeld ist Grid im Gegensatz zum Rechnen bis auf weiteres noch kaum fit für das Business. Hier befindet sich die Technik im Hochschul- und Forschungsumfeld noch in der Entwicklung, und erst wenige Start-ups haben sich diesem Bereich angenommen.
Das europäische Kernforschungszentrum Cern nimmt dabei eine führende Rolle ein. So soll das DataGrid-Projekt helfen, die Unmengen an Daten, die durch den im Jahr 2007 fertig werdenden Teilchenbeschleuniger Large Hadron Collider anfallen werden, auf bezahlbare Weise zu speichern und gleichzeitig Wissenschaftlern in aller Welt zur kollaborativen Auswertung zur Verfügung zu stellen. Kommerzielle Anwender stellen aber gerade im Datenhaltungsumfeld wesentlich striktere Sicherheitsansprüche als Wissenschaftler, so dass geteilte Datenspeicher wohl bis auf weiteres weitgehend auf akademische Anwendungen beschränkt bleiben werden.


Backup inklusive

Wohin der Speicher-Weg für Grid in den Unternehmen führen könnte, zeigt das Start-up ExaGrid. Die Amerikaner nutzen Grid-Technologien für Speichernetzwerke, in denen beispielsweise Backup- und Recovery-Funktionalitäten oder Mirroring und Selbstheilung integraler Bestandteil sind. Die mit RAIN (Redundant Array of Inexpensive Nodes) bezeichnete Architektur verbindet auf billigen ATA-Laufwerken beruhende, verteilte Fileserver (Nodes) durch Grid-Middleware über herkömmliche IP-Netzwerktechnik (NFS, CIFS und FTP) zu redundanten und ausfallsicheren Speichernetzwerken. Die Middleware sorgt dabei für die intelligente, mehrfache Datenspeicherung auf verschiedenen Nodes. Wird ein File als beschädigt erkannt, ersetzt es das System automatisch und praktisch in Echtzeit durch eine unbeschädigte Kopie von einem anderen Node. Auch kann das System dank der mehrfachen Verteilung aller Files auf die verschiedenen Knoten den Ausfall eines einzelnen Speichergeräts unterbruchsfrei verkraften und anschliessend selbständig wieder Redundanz herstellen.


Treiber und Bremser im Grid Computing

Darüber, dass sich Grid Computing als Infrastrukturgrundlagen-Technik durchsetzen wird, sind sich die meisten Beobachter einig. Wie schnell und vor allem auch
wie umfassend dies der Fall sein wird, hängt aber von verschiedenen Faktoren ab.



Treiber:



• Bedarf an Rechenkraft für bestimmte Applikationen steigt enorm (Business Intelligence, CRM, Modellierungen, Forschung)



• Kostendruck: billigere Hardware- und Betriebssysteminfrastruktur



• Outsourcing-Trend: Grid Services



• Linux im Datacenter



• Bladeserver



• Utility-Computing-Initiativen (Automatisierung der IT)



• steigender Flexibilitätsbedarf der Unternehmen durch sich schnell verändernde wirtschaftliche Rahmenbedingungen (Merger usw.)



• schneller als Moor'sches Wachstum der Netzwerkgeschwindigkeiten



• mobiles Internet




Bremser:



• langsame Umsetzung von IT-Service-Management in den IT-Abteilungen



• Silo-Denken/Widerstände in den IT-Abteilungen



• Sicherheitsbedenken



• fehlende allgemein anerkannte Abrechnungsverfahren



• fehlende Grid-fähige Applikationen



• Technologie-Überdruss nach E-Hype



• andere Prioritäten, die im Vordergrund stehen



• (noch) fehlende kommerzielle Standards


Erste Gehversuche im Rechengitter

Die wichtigsten Punkte, die Pionier-Anwender von Grid-Techniken mit Vorteil im Auge behalten sollten:




• Service-orientiertes IT-Management mit klarer Sourcing-Strategie implementieren.




• Geeignete Anwendungen eruieren:

- je besser parallelisierbarer und CPU-intensiver, umso geeigneter

- Applikationen, die heute schon auf Clustern betrieben werden

- keine geschäftskritische Applikationen tangieren

- Applikationen mit vorhersehbaren Spitzen (für späteres Outsourcing via Grid).




• Ausgewiesene Spezialisten beiziehen für Planung und Implementation.




• Erstes Projekt auf der "grünen Wiese" oder zumindest in möglichst homogenem Umfeld starten (PC-Zyklus, Bladeserver-Einführung etc.). Je älter und heterogener die Komponenten, umso schwieriger ist die Optimierung.




• Erfahrungen auswerten und darauf aufbauend weitere Applikationen migrieren und/oder Infrastrukturkomponenten in das Grid einbinden.




Artikel kommentieren
Kommentare werden vor der Freischaltung durch die Redaktion geprüft.

Anti-Spam-Frage: Wieviele Fliegen erledigte das tapfere Schneiderlein auf einen Streich?
GOLD SPONSOREN
SPONSOREN & PARTNER