Skalierbarkeit ist der Schlüssel

Skalierbarkeit ist der Schlüssel

18. Februar 2002 - Die Server-Infrastruktur unterstützt die Unternehmensfunktionen und Geschäftsprozesse nur dann optimal, wenn ihre Leistung exakt auf die individuellen Bedürfnisse angepasst ist.
Artikel erschienen in IT Magazine 2002/06

Ein Kleinbetrieb mit fünf Mitarbeitern braucht keinen Server - so dachten bis vor kurzem viele. Da sich in den meisten Branchen aber immer mehr ein vollständig kundenorientiertes Geschäftsmodell durchsetzt, in dem Bestellungen und Anfragen von Kunden nicht mehr als Beeinträchtigung des Büroschlafs empfunden werden, wird der permanente Zugriff zu allen IT-Funktionen selbst in der kleinsten Firma zur schlichten Notwendigkeit - "always on" heisst der erwünschte Zustand. Und der lässt sich am besten durch Anwendungen erreichen, deren Verfügbarkeit und Performance mit Hilfe von optimal auf die Bedürfnisse eingestellter Serverleistung garantiert werden.



Andy Knöpfli, bei der EMEA-Abteilung von Compaq für Intel-basierte Server zuständig, stellt dazu fest: "Heute kann es sich niemand mehr leisten, einem Kunden am Telefon zu sagen, seine Anfrage könne wegen einer Computerpanne im Moment nicht bearbeitet werden."


Zwei Arten der Serverskalierung

Auch wenn im KMU-Bereich zunächst ein Server für alle benötigten Dienste ausreicht, zum Beispiel eine fixfertig konfigurierte Server-Appliance wie der Cobalt Qube von Sun, wird das hoffentlich prosperierende Unternehmen bald einmal mehr Computing-Power benötigen.



Die Skalierung der Serverleistung auf die wachsenden Bedürfnisse hin kann auf zwei Arten vor sich gehen: Beim Scaling-up-Verfahren wählt man von Anfang an einen hochgradig ausbaubaren Server, dessen Leistung durch Nachrüstung mit zusätzlichen Prozessoren und anderen Systemkomponenten gesteigert wird. Dies ist die traditionell aus dem Mainframe- und Midrange-Bereich bekannte Methode, die auch von Unix-Systemen wie dem Sun Fire 15000 mit bis zu 106, dem HP Superdome mit bis zu 64 oder dem Alpha-Server GS von Compaq mit bis zu 32 proprietären RISC-Prozessoren unterstützt wird, immer mehr aber auch in der Wintel-Welt zum Zug kommt - der ES7000 von Unisys zum Beispiel arbeitet mit bis zu 32 Xeon-CPUs.



Damit die geballte Power eines voll ausgestatteten Servers der Scaling-up-Kategorie auch wirklich auf den Boden kommt, muss sich das System in verschiedene logische Einheiten einteilen lassen, die jeweils eine eigene Applikations- und/oder Betriebssystemumgebung betreiben können. Betriebssysteme und Hardware stellen dazu sogenannte Partitionierungsmechanismen zur Verfügung. Diese funktionieren jedoch je nach Hersteller und teilweise auch nach zu betreibender Applikation unterschiedlich; dementsprechend hoch ist der Aufwand für Konfiguration und Management.



Anders funktioniert Scaling out beziehungsweise Clustering: Hier startet man mit einem einzelnen Server und erhöht die Gesamtleistung durch Hinzufügen weiterer Geräte - viele gleichartige Server mit ein bis vier Prozessoren stellen gemeinsam einen Service zur Verfügung; die gesamte Leistung ergibt sich aus der Summe der einzelnen Instanzen; ein Teil der Gesamtleistung wird allerdings durch den Verwaltungsaufwand abgezogen. Heinz Brandenberger von Fujitsu-Siemens: "Scaling out wird heute eindeutig von Intel-basierten Servern dominiert. Scaling-Up-Szenarien dagegen können mit aktuell maximal 32 Prozessoren und beschränktem Adressraum heute nur bedingt durch Intel-Server abgedeckt werden."



Clustering zum Zweck der Leistungssteigerung darf im übrigen nicht mit Clustering zwecks erhöhter Verfügbarkeit verwechselt werden: Beim Availability-Clustering wird der Ausfall eines Servers sofort durch einen zweiten Server wettgemacht. Je nach verwendetem Clustering-Modell dient der Ersatzserver im Normalbetrieb gleichzeitig dem Performance-Clustering.



 
Seite 1 von 3

Neuen Kommentar erfassen

Anti-Spam-Frage Aus welcher Stadt stammten die Bremer Stadtmusikanten?
Antwort
Name
E-Mail
GOLD SPONSOREN
SPONSOREN & PARTNER