Übersicht statt Server-Chaos

Kosten – Nutzen – Praxis

Artikel erschienen in Swiss IT Magazine 2003/06

     

Es herrscht das nackte Chaos. Nach der streng zentralistischen IT-Architektur, die zu Zeiten der grossen Hosts und dummen Terminals die damals noch "EDV" genannte Informationsverarbeitung geprägt hat, kam mit dem Client/Server-Computing und mit immer stärkeren PCs der radikale Umschwung.


Wilder Datendschungel der Client/Server-Ära

In einer Art Befreiungsschlag beschafft sich selbst die kleinste Arbeitsgruppe einen eigenen Server; viele Applikationen laufen auf den einzelnen PCs der Mitarbeiter. Im Rechenzentrum läuft jede Anwendung auf einer anderen Plattform. Die Daten sind über eine Vielzahl von Systemen verstreut. Das Resultat: ein praktisch nicht mehr zu verwaltender Informationsdschungel. In manchen Unternehmen ist nicht einmal genau bekannt, wo überhaupt Server stehen und welche Informationen darauf gehalten werden. Erschwerend kommt dazu, dass die Mehrzahl der verteilten Server nach wie vor unter Windows NT läuft, das deutlich weniger bequem zu verwalten ist als die Windows-2000-Generation.





Optimierung tut Not

Das funktioniert heute nicht mehr. Der wirtschaftliche Druck verlangt nach einer IT-Architektur, die auf unternehmensübergreifende Abläufe, Time-to-Market-Produktion und kundenorientiertes Geschäftsgebaren ausgerichtet ist - "Die Geschäftsprozesse müssen die IT-Infrastruktur bestimmen und nicht umgekehrt", verkündet die Industrie. Möglich ist dies nur mit einer einheitlichen Gesamtsicht auf alle im Unternehmen vorhandenen Informationen: Je komplexer und grösser das Unternehmen, desto dringender wird die Konsolidierung der IT. Die Basis dafür ist eine Konsolidierung der Serverlandschaft.



Das Hauptziel einer Serverkonsolidierung: Die IT-Infastruktur soll weniger komplex werden. Mit der Zusammenfassung mehrerer kleiner Server auf ein grosses System ist es nicht getan - es sind verschiedene Aspekte zu berücksichtigen:





• Standardisierung und Harmonisierung der Serverplattformen: wenige grosse statt viele kleine Server; einheitliche Systemplattform statt Modell- und Betriebssystemvielfalt.




• Optimierung von Personal und Infrastruktur: zentraler Standort mit schlanker Administration statt geografische Verteilung mit individuellem Operating.




• Zentralisierung des Managements geschäftskritischer Anwendungen und Systeme: einheitliche Sicht auf den Informationsfluss statt separate Datengärtchen in jeder Abteilung.




• Steigerung der Performance, Skalierbarkeit und Verfügbarkeit: flexible Verwaltung der Gesamtressourcen statt wildes Upgrading einzelner Systeme.



Vorteile der Konsolidierung


Varianten der Konsolidierung

Je nach bestehender Infrastruktur und Bedarf lässt sich die Serverlandschaft auf unterschiedliche Art vereinheitlichen. In der Praxis werden meist mehrere Varianten kombiniert:




• Die logische Konsolidierung verändert an Standort, Anzahl und Systemplattform der Server nichts: Hier wird mit Hilfe von Remote-Management-Tools für Hardware, Betriebssysteme und Applikationen die Verwaltung der bestehenden Server zentralisiert. Dieses Verfahren bringt bereits für kleine Umgebungen mit einigen wenigen Servern Vorteile und ist ohne grossen Aufwand zu implementieren. Die benötigten Werkzeuge sind in Enterprise-Management-Suiten wie CA Unicenter, Tivoli oder OpenView enthalten; es existiert aber auch eine Vielzahl spezieller Server-Management-Pakete wie NetIQ AppManager, Hyena oder das Open-Source-lizenzierte Unix/Linux-Universaltool Webmin.





• Die geografische Konsolidierung, oft auch physische Konsolidierung genannt, fasst bisher an verschiedenen Orten plazierte Server in einem oder mehreren Data Centers zusammen. Auch hier bleibt die Zahl der Systeme gleich. Der Personalbedarf wird jedoch optimiert, und die Sicherheit verbessert sich: Ein Rechenzentrum lässt sich hinsichtlich Energieversorgung, Backup und Hackerangriffen besser schützen und überwachen als einzelne Server an verschiedenen Standorten.




• Die Hardware- oder rationale Konsolidierung ist gewissermassen die Königsklasse: Mehrere Anwendungen werden von bisher unterschiedlichen, kleineren Servern auf ein grosses System verlegt, wo sie parallel laufen. Je nach Leistungs- und Sicherheitsbedarf sind dabei sowohl bei der beteiligten Hardware als auch bei der Software, mit der die Konsolidierung unterstützt wird, unterschiedliche Ausprägungen möglich. Die Varianten Workload-Management, Software- und Hardwarepartitionierung werden zusammengefasst auch als rationale Konsolidierung bezeichnet.




• Das altbekannte Clustering, heute allgemein möglich dank der in Windows 2000 Server enthaltenen Cluster Services, erlaubt die Zusammenfassung mehrerer eigentlich getrennter Server zu einer Leistungseinheit. Damit lassen sich mehrere Standalone-Server ebenso verbinden wie ein Rack voll 19-Zoll-Einheiten oder ein Chassis mit einer Vielzahl von Blade-Karten. Clustering ist allerdings keine Konsolidierung im engeren Sinn - es handelt sich dabei mehr um ein "Scale-out"-Verfahren zur Verbesserung der Performance und Availability bestehender Einzelapplikationen.




• Mit Workload-Management-Software wie den Aurema-Produkten Armtech und Application Workload Manager können mehrere Applikationen unter demselben Betriebssystem betrieben werden. Das Einsatzgebiet: grössere Serversysteme, auf denen mehrere zusammengehörige Anwendungen parallel laufen sollen, die bisher auf getrennten Servern plaziert waren - beispielsweise ein Biztalk-Server mit der zugehörigen SQL-Server-Datenbank. Die Workload-Software übernimmt in Echtzeit die Zuordnung der Ressourcen, was eine bessere Performance und Sicherheit bringt als die simple Installation beider Applikationen auf derselben Hardware.




• Software-Partitionierung: Pakete wie VMWare GSX/ESX oder das kürzlich von Microsoft aufgekaufte Virtual PC erlauben es, auf derselben Hardware mehrere logisch völlig getrennte Serverbetriebssysteme zu fahren. Damit lassen sich auch auf kleineren Konsolidierungsservern mehrere Anwendungen ohne gegenseitige Beeinflussung betreiben.




• Hardware-Partitionierung bieten die grossen Serversysteme mit zahlreichen Prozessoren wie ES7000 von Unisys oder Superdome von HP. Betriebssystemseitig spielt dabei neben Unix die DataCenter-Variante von Windows 2000 Server eine zunehmende Rolle.




Hardware-Optionen bei der Konsolidierung


Konsolidierung für wen?

Es ist klar: Ein Kleinbetrieb mit drei Servern braucht keine Konsolidierung. Die Vorteile spielen erst ab einer gewissen Grösse der IT-Infrastruktur. Laut Reinhard Nedela, Senior Systems Analyst bei Unisys, macht die Serverkonsolidierung "in Unternehmen Sinn, in denen hundert und mehr Server stehen".



Die genannte Zahl darf man allerdings nicht ganz genau nehmen - das Unisys-Paradeprojekt bei der Post betraf schliesslich bloss 70 Server.




Auch Managing Consultant Dr. Christian Eggenberger von IBM Global Services legt das Hauptaugenmerk auf die Unternehmensgrösse: "Grosse Unternehmen haben gemäss einer IBM-Umfrage das grösste Interesse, ihre Server zu konsolidieren.



Die stärksten Treiber für eine Konsolidierung sind die Reduktion der IT-Ausgaben dank optimierter Auslastung und tieferen Lizenzkosten, die Optimierung der Manageability, die Erhöhung der Performance und der Servicequalität sowie die Ausnutzung von Synergien innerhalb eines vielschichtigen Konzerns."




Das Vorgehen: Beispiel Unisys

Am typischen Prozedere bei Unisys-Projekten zeigt sich, dass eine Serverkonsolidierung kein Alltagsvorgang ist, aber auch keine Hexerei. Bevor man überhaupt konsolidieren kann, muss bekannt sein, was zu konsolidieren ist. Die lakonische Feststellung von Reinhard Nedela: "Im Enterprise-Netz sind oft nicht alle Server bekannt."



Zu Beginn eines Konsolidierungsprojekts geht man bei Unisys deshalb so vor: Um alle Server zu finden - auch die in den entfernten Unterabteilungen -, verwendet man eine inzwischen oft durchgeführte Methode mit Unisys-eigenen Asset-Management-Tools. Die Ingenieure kommen mit einem Laptop ins Kundennetz und fragen vorübergehend nach Admin-Rechten, um die Eigenschaften und Abhängigkeiten der Server zu sammeln. Dies erfolgt nach einem eintägigen Workshop in nur wenigen Minuten pro untersuchtem Server, so dass eine Landschaft von rund 250 NT-4 oder Windows-2000-Einzelservern bereits am zweiten Tag untersucht werden kann.




Vor der Zusammenlegung der Applikationen müssen sodann Konflikte und Abhängigkeiten zwischen den betroffenen DLLs überprüft und dokumentiert werden, wobei ein XML-basiertes Datenbanksystem namens UREP zum Einsatz kommt. Daraus ergibt sich eine Risikoanalyse mit einer Bewertung der Folgen bei physischer oder logischer Konsolidierung - das Geschäft soll schliesslich während und nach der Konsolidierung nahtlos weiterlaufen.



Parallel zu dieser technischen Abhängigkeitsanalyse muss auch eine eingehende Untersuchung der kaufmännischen Gegebenheiten erfolgen. Die Serverkonsolidierung hat ja die optimale Anpassung der IT an die Business-Anforderungen des Unternehmens zum Ziel. Neben den reinen TCO-Überlegungen sollte die betriebswirtschaftliche Analyse auch qualitative Faktoren wie Skalierbarkeit, Verfügbarkeit, Integration der Prozesse und Sicherheit berücksichtigen.



Wer eine Serverkonsolidierung vornehmen will, muss meist auch die Speicherumgebung vereinheitlichen. Gerade kleinere Workgroup- und Abteilungsserver sind meist mit Direct-Attached-Storage-Geräten (DAS), sprich mit internen Harddisks, ausgestattet. Bei einer Zusammenlegung stellt sich somit automatisch die Frage, was mit den gespeicherten Daten geschehen soll. Am besten wird gleichzeitig mit der Prozessorleistung auch die Speicherkapazität konsolidiert, damit die Applikationen unternehmensweit schnellen Zugriff auf die Daten erhalten. Je nach den Anforderungen eignet sich ein Storage Area Network (SAN; wenn vornehmlich direkt auf grosse Datenbanken zugegriffen werden muss), Network Attached Storage (NAS; für File-Sharing) oder aber eine Kombination der beiden Konzepte.



Für die eigentliche Implementation, die im allgemeinen einen ES7000-Server zum Kern hat, verlässt sich Unisys zumindest bei Windows-basierten Umgebungen auf einen standardisierten Lösungsansatz, der im vergangenen Jahr im Rahmen der Microsoft System Architecture MSA zusammen mit Microsoft und weiteren Partnern definiert wurde. Man unterscheidet dabei zwischen den Modellen EDC (Enterprise Data Center für Unternehmen mit 1000 und mehr hausinternen Benutzern) und IDC (Internet Data Center für ISPs und andere Anbieter von Internetdiensten ab 10'000 Benutzer).



Zu den weiteren Partnern gehören EMC, Nortel, Brocade und Emulex sowie die Unisys-Mitbewerber Dell und HP. Der Grund für die Präsenz der Konkurrenz: "Die MSA beschreibt komplette End-to-End-Lösungen. Dabei gibt es viele Fälle, in denen die ES7000 sich nicht für eine kostengünstige Konsolidierung eignet - zum Beispiel generell bei Webservern." In solchen Fällen kommen Dell und HP zum Zug.



Die MSA umfasst zwei Komponenten. Im Prescriptive Architecture Guide (PAG) sind die erforderlichen Integrations- und Testschritte für beide Modelle festgeschrieben. Der ebenfalls mitgelieferte Reference Architecture Guide (RAG) definiert die erforderlichen Komponenten und deren Zusammenwirken. Derzeit gründet die Referenz auf der Windows-2000-Betriebssystemgeneration; die kommende Version 2 wird bereits die Neuerungen der Windows-2003-Produkte berücksichtigen.



Carlys Konsolidierungs-Konzept



Artikel kommentieren
Kommentare werden vor der Freischaltung durch die Redaktion geprüft.

Anti-Spam-Frage: Wieviele Zwerge traf Schneewittchen im Wald?
GOLD SPONSOREN
SPONSOREN & PARTNER