Skalierbarkeit ist der Schlüssel

Die Server-Infrastruktur unterstützt die Unternehmensfunktionen und Geschäftsprozesse nur dann optimal, wenn ihre Leistung exakt auf die individuellen Bedürfnisse angepasst ist.

Artikel erschienen in Swiss IT Magazine 2002/06

     

Ein Kleinbetrieb mit fünf Mitarbeitern braucht keinen Server - so dachten bis vor kurzem viele. Da sich in den meisten Branchen aber immer mehr ein vollständig kundenorientiertes Geschäftsmodell durchsetzt, in dem Bestellungen und Anfragen von Kunden nicht mehr als Beeinträchtigung des Büroschlafs empfunden werden, wird der permanente Zugriff zu allen IT-Funktionen selbst in der kleinsten Firma zur schlichten Notwendigkeit - "always on" heisst der erwünschte Zustand. Und der lässt sich am besten durch Anwendungen erreichen, deren Verfügbarkeit und Performance mit Hilfe von optimal auf die Bedürfnisse eingestellter Serverleistung garantiert werden.




Andy Knöpfli, bei der EMEA-Abteilung von Compaq für Intel-basierte Server zuständig, stellt dazu fest: "Heute kann es sich niemand mehr leisten, einem Kunden am Telefon zu sagen, seine Anfrage könne wegen einer Computerpanne im Moment nicht bearbeitet werden."


Zwei Arten der Serverskalierung

Auch wenn im KMU-Bereich zunächst ein Server für alle benötigten Dienste ausreicht, zum Beispiel eine fixfertig konfigurierte Server-Appliance wie der Cobalt Qube von Sun, wird das hoffentlich prosperierende Unternehmen bald einmal mehr Computing-Power benötigen.



Die Skalierung der Serverleistung auf die wachsenden Bedürfnisse hin kann auf zwei Arten vor sich gehen: Beim Scaling-up-Verfahren wählt man von Anfang an einen hochgradig ausbaubaren Server, dessen Leistung durch Nachrüstung mit zusätzlichen Prozessoren und anderen Systemkomponenten gesteigert wird. Dies ist die traditionell aus dem Mainframe- und Midrange-Bereich bekannte Methode, die auch von Unix-Systemen wie dem Sun Fire 15000 mit bis zu 106, dem HP Superdome mit bis zu 64 oder dem Alpha-Server GS von Compaq mit bis zu 32 proprietären RISC-Prozessoren unterstützt wird, immer mehr aber auch in der Wintel-Welt zum Zug kommt - der ES7000 von Unisys zum Beispiel arbeitet mit bis zu 32 Xeon-CPUs.




Damit die geballte Power eines voll ausgestatteten Servers der Scaling-up-Kategorie auch wirklich auf den Boden kommt, muss sich das System in verschiedene logische Einheiten einteilen lassen, die jeweils eine eigene Applikations- und/oder Betriebssystemumgebung betreiben können. Betriebssysteme und Hardware stellen dazu sogenannte Partitionierungsmechanismen zur Verfügung. Diese funktionieren jedoch je nach Hersteller und teilweise auch nach zu betreibender Applikation unterschiedlich; dementsprechend hoch ist der Aufwand für Konfiguration und Management.



Anders funktioniert Scaling out beziehungsweise Clustering: Hier startet man mit einem einzelnen Server und erhöht die Gesamtleistung durch Hinzufügen weiterer Geräte - viele gleichartige Server mit ein bis vier Prozessoren stellen gemeinsam einen Service zur Verfügung; die gesamte Leistung ergibt sich aus der Summe der einzelnen Instanzen; ein Teil der Gesamtleistung wird allerdings durch den Verwaltungsaufwand abgezogen. Heinz Brandenberger von Fujitsu-Siemens: "Scaling out wird heute eindeutig von Intel-basierten Servern dominiert. Scaling-Up-Szenarien dagegen können mit aktuell maximal 32 Prozessoren und beschränktem Adressraum heute nur bedingt durch Intel-Server abgedeckt werden."



Clustering zum Zweck der Leistungssteigerung darf im übrigen nicht mit Clustering zwecks erhöhter Verfügbarkeit verwechselt werden: Beim Availability-Clustering wird der Ausfall eines Servers sofort durch einen zweiten Server wettgemacht. Je nach verwendetem Clustering-Modell dient der Ersatzserver im Normalbetrieb gleichzeitig dem Performance-Clustering.




Scale up oder Scale out?

Die Anbieter sind sich nicht einig, welche Strategie zur Skalierung der Serverleistung einem noch kleinen, aber prosperierenden KMU zu empfehlen ist. Je nach der existierenden Produktpalette fallen die Vorschläge anders aus. IBM konstatiert, am besten sei ein skalierbarer Server, der möglichst wenig Overhead und System Operators verlange und positioniert die eigene iSeries, vormals als AS/400 bekannt, in diesem Segment. Auch Sun findet, Scaling up sei die vorteilhafte Methode, was Verkaufsleiter Reto Brack wie folgt formuliert: "Eine Skalierung der Leistung über den internen Ausbau des Servers durch zusätzliche CPUs ist in der Regel die kostengünstigste Variante. Die Leistung einer Servereinheit wird erhöht, ohne dass zusätzliche Maschinen administriert werden müssen."



Laut Heinz Brandenberger gilt in erster Linie, nur Standard-Server zu verwenden. "Eine langfristige Aufrüstung der Systeme ist bei der Schnellebigkeit der Intel-Technologie nicht wirtschaftlich. Deshalb sollten Applikationsszenarien ausgewählt werden, die Scaling out unterstützen - so können im Lauf der Zeit Server mit unterschiedlicher Leistung miteinander zum Einsatz kommen."




Compaq-Vice-President Andy Knöpfli betont, dass die Wahl der Skalierungsmethode sich der Gesamtlösung unterordnet: "Ob Scaling up oder Scaling out; wir sind hier nicht religiös - die Erfahrung zeigt: je kleiner die Firma, desto mehr Gewicht erhält die Lösung gegenüber der Hardware." Deshalb, so Knöpfli, arbeite Compaq eng mit Lösungsanbietern von Abacus bis SAP zusammen.



Die traditionellen Unix-Anwendungen sind naturgemäss auf Scaling up ausgerichtet und laufen am besten auf möglichst hochgerüsteten Superboliden, wie die laufend publizierten Benchmarkresultate demonstrieren sollen. Scaling out ist allgemein im Kommen; ein Musterbeispiel für die Neuorientierung in dieser Richtung ist die Oracle-Datenbank, die erst mit den "Real Application Clusters" von Version 9i umfassende Scaling-out-Möglichkeiten brachte, dafür aber gleich richtig.



Ein Argument spricht zwar nicht gegen Scaling out, weist aber auf eine Gefahr hin: In einer typischen Unternehmensumgebung mit zahlreichen einzelnen Servern sind die meisten Einheiten gar nicht wirklich ausgelastet; viele davon nicht einmal zur Hälfte. Vor dem Kauf eines zusätzlichen Servers ist deshalb in jedem Fall die Belastung der bestehenden Systeme zu prüfen und gegebenenfalls deren Konfiguration zu ändern.




Straffes Management unerlässlich

Je mehr Server in einem Scaling-out-Szenario für die Unternehmens-IT zuständig sind, desto grössere Bedeutung kommt Management-Tools zu, die über die blosse Überwachung einiger Basisparameter hinausgehen. Ein Beispiel dafür sind die "Product Essentials", die Compaq im Rahmen der "Adaptive Infrastructure" kürzlich vorgestellt hat. Eigentlich für die ultrakompakten Blade-Server entwickelt, eignen sich die Tools generell zur Verwaltung von Compaq-Serverpopulationen. Die vier Essentials-Pakete bieten Fernüberwachung und Fernsteuerung, dynamische Zuteilung von Systemressourcen, Fehlermanagement und automatisierte Verteilung und Maintenance von Software und sollen Zeit und Kosten sparen. Zitat von der Compaq-Website: "Sechs Webserver in Gang gesetzt - in 40 Minuten statt 9 Stunden."





Redundanz im KMU gefragt

"Es gibt fast keine Kunden mehr, die den Server abends um sechs abschalten, um ihn morgens um sechs wieder zu starten" - diese Erfahrung hat wohl nicht nur Andy Knöpfli gemacht. Die meisten Unternehmen betreiben ihre Server heute permanent im 7x24-Modus, weil sie auf "Business Continuity" angewiesen sind. Neben einer möglichst hohen Verfügbarkeit der Systeme ist vor allem wichtig, dass keine Daten verlorengehen.



Ein KMU mit einigen wenigen Servern sollte daher unbedingt auf Modelle setzen, die mit redundanten Komponenten ausgestattet sind - Hot-Plug-Harddisks und RAID gehören denn auch bei Entry-Level-Servern heute zum Standard. Der Verzicht auf redundante Disks, Ventilatoren und RAID-Controller lohnt sich, so Knöpfli, auf keinen Fall: "Hot-Plug-Komponenten sind dank stark gestiegenen Verkaufsvolumen nicht mehr teurer als herkömmliche Parts."




In grösseren Serverpopulationen spielt die Redundanz pro Servereinheit eine geringere Rolle: Wo Dutzende von Servern gemeinsam einen Dienst bewältigen, überträgt der Load-Balancing-Mechanismus beim Ausfall einer Komponente gleich die gesamten Funktionen an einen anderen Server.




Abrechnung nach Gusto

Der Anschaffungspreis eines Servers macht den kleinsten Teil der Gesamtkosten (TCO) aus - je nach Quelle schlägt er mit 10 bis 20 Prozent zu Buche. Der ganze übrige Aufwand, den ein Server in den 3 bis 4 Jahren seiner typischen Lebensdauer verursacht, setzt sich aus Administration, Energieverbrauch und weiteren laufenden Kosten zusammen.



Der Administrationsaufwand steigt mit jedem neuen Servermodell, das zu unterstützen ist - Knöpfli stellt einmal mehr die Bedeutung einer einheitlich administrierbaren Umgebung heraus: "Schon wer zwei Server von verschiedenen Herstellern hat, muss automatisch mit höheren TCO rechnen als mit nur einem Produkt." Der Betrieb einer gemischten Landschaft aus bestehenden einzelnen Servern unterschiedlicher Provenienz kann unter Umständen teurer zu stehen kommen als der Aufbau einer völlig neuen Infrastruktur.




Die Frage, ob der Kauf oder das Leasing die ideale Gestehungsform für die Unternehmens-IT sei, ist nicht allgemeingültig zu beantworten. Die Wahl der Finanzierungsform hängt laut Andy Knöpfli vor allem vom Geschäftsmodell des Unternehmens ab - bevorzugt man die Steigerung der firmeneigenen Assets durch Kauf, oder will man die IT-Ausgaben durch Leasing weitgehend auf die operativen Kosten legen? Sun-Manager Brack hält dagegen fest, dass bei einem Kauf kaum attraktive Möglichkeiten zur flexiblen Abschreibung und Restwertbewertung bestehen: "Der Computer ist wegen des kurzen Lebenszyklus kein klassisches Investitionsgut mehr; das Leasing bietet hier interessante Ansätze: Es reduziert die Belastung der Bilanz und erhöht die Rendite des investierten Kapitals." Damit die geleaste Umgebung stets auf dem neuesten Stand bleibt, bietet Sun wie viele andere Hersteller eine Modernisierungsoption an: Ab der Mitte der Laufzeit des Vertrags, die im allgemeinen 36 Monate beträgt, können Systemkomponenten bis zum Erreichen eines bestimmten Modernisierungsguthabens nachgerüstet werden; bei jeder Nachrüstung beginnt erneut eine 36-monatige Vertragsfrist. Die monatlichen Leasingraten bleiben dabei gleich.



Die enormen Investitionen, die beim Kauf der gesamten IT-Infrastruktur nötig wären, lassen sich auch mit neuen Abrechnungsmodellen entschärfen, die in letzter Zeit bei verschiedenen Herstellern aufkommen. Ein Beispiel: Sun bietet neben Kauf und Leasing ein Utility-Modell an, das sich an die bekannten Gepflogenheiten der öffentlichen Versorgungsbetriebe wie Gas und Wasser anlehnt: Die Infrastruktur wird geliehen, bezahlt wird die genutzte Leistung.



Eine andere Option bei Sun ist "Capacity on Demand" (COD): In diesem speziell für den Enterprise-10000-Server "Starfire" entwickelten Finanzierungsmodell steht von Anfang an ein voll ausgebauter Server vor Ort; gekauft oder geleast wird zu Beginn aber nur eine kleinere Kapazität. Sobald die Bedürfnisse steigen und die bisher nicht aktivierte Prozessorleistung in Anspruch genommen wird, fallen die restlichen Kosten an. Laut Sun-Website kommt ein Starfire-System mit COD um etwa 60 Prozent günstiger als bei herkömmlicher Ausstattung.



Artikel kommentieren
Kommentare werden vor der Freischaltung durch die Redaktion geprüft.

Anti-Spam-Frage: Welche Farbe hatte Rotkäppchens Kappe?
GOLD SPONSOREN
SPONSOREN & PARTNER