Fast alles ist On Demand

IBM, HP, Sun und CA versuchen «On Demand» als ihre eigene Spielwiese zu besetzen. Genau genommen gibt es aber kaum mehr einen IT-Bereich, der nicht auf das gleiche Ziel ausgerichtet ist.

Artikel erschienen in Swiss IT Magazine 2004/01

     

Ordnung und Effizienz im Datencenter versprechen die Serverhersteller wie IBM, HP und Sun mit ihren Utility-Computing-Initiativen. Selbstredend umfassen die Bestrebungen zur Virtualisierung der Rechnerkapazitäten aber nicht nur die Hardware, sondern auch die Management-Tools und die Applikationen selber. So versuchen auch dedizierte Verwaltungsspezialisten wie Computer Associates (CA) oder BMC auf den langsam anrollenden Zug aufzuspringen. On Demand - auf Abruf bei Bedarf - soll die Datenverarbeitung in Zukunft zur Verfügung stehen.



Dabei wird die Abgrenzung zwischen den einzelnen Begriffen immer schwieriger. Eigentlich folgen heute fast alle IT-Trends von ILM (Information Life Cycle Management) über Grid, Web Services und MDA (Model Driven Architecture) bis zum Service-orientierten IT-Management und Outsourcing Spielarten der gleichen Idee in ihren jeweiligen Sparten. Standardisierung, Virtualisierung und Automatisierung sind die Triebfedern all dieser Bereiche.




So zielen auch die einzelnen Initiativen der grossen Hersteller (siehe Tabelle) grundsätzlich alle in die gleiche Richtung. Unterschiede ergeben sich hauptsächlich aus den unterschiedlichen Produkte-Portfolios der einzelnen Anbieter. Während sich IBM und HP als Gesamtlösungsanbieter attraktiv zu machen versuchen, streichen Spezialisten wie Sun, CA, EMC oder BMC die Vorteile einer Best-of-Breed-Strategie auf dem Weg zur sogenannten "real-time infrastructure" heraus.


Fehlende Puzzle-Teile

Die anpassungsfähige Informatik auf Abruf beschränkt sich nicht nur auf die Hard- und Softwaretechnik, sondern ist ein Puzzle aus Technik, IT-Prozess-Standardisierung und Anbindung an die Geschäftsprozesse, dessen Zusammensetzen seine Zeit in Anspruch nimmt. Sie kann nicht als Box gekauft werden, sondern muss Stück für Stück aufgebaut werden, wie Nora Denzel, die koordinierende Managerin für HPs Adaptive-Enterprise-Initiative, übertriebene Erwartungen der Anwender zu dämpfen versucht. IBM spricht in diesem Zusammenhang von einer Reise.




Der Grund für die Betonung des aufbauenden Vorgehens liegt allerdings nicht nur in der Natur der Sache. Vielmehr kann heute noch kein Hersteller mit einem pfannenfertigen On-Demand-Konzept aufwarten. Alle Initiativen sind Baustellen, auf denen verschiedene Elemente noch gar nicht fertig konstruiert sind. So stecken beispielsweise die Speichervirtualisierung und das darauf aufbauende ILM noch in den Anfängen. Laut Gartner wird ILM Ende 2005 noch zu 80 Prozent eine Vision und erst zu 20 Prozent Realität sein.


Das "Über"-OS

Sowohl HP als auch Sun bemühen, wenn es um die Veranschaulichung ihrer Initiativen geht, das Bild eines PC-Betriebssystems. Wie dieses soll ein "Über-OS" Rechenleistung, Speicherressourcen, Netzwerk und Applikationen für das ganze Datacenter effizient koordinieren. In der Realität heutiger On-Demand-Ansätze bedeutet dies in erster Linie die Virtualisierung der Rechen- und Speicherkapazitäten über heterogene Plattformen im Datacenter. So sollen sich zum einen Gerätekosten sparen lassen, indem die Ausfallsicherheit durch eine intelligente Vernetzung billiger Rechner anstelle von teuren Highend-Servern erreicht wird. Zum anderen wird durch die Abstraktion aller Rechner in einem logischen Pool aber auch der Verwaltungsaufwand wesentlich verkleinert. Gartner empfiehlt den Anwendern, künftig statt in die Serverkonsolidierung in die Virtualisierung der Rechner zu investieren. So sollen sich die IT-Kosten um rund 25 Prozent drücken lassen. Dass Servervirtualisierung derzeit ein heisses Thema ist, zeigt auch der kürzliche Kauf von Vmware durch EMC. Der Speicherspezialist bereitet sich damit offensichtlich auf ein Zusammenwachsen der bisher getrennten Rechner- und Speichernetzwerke vor.




Die im letzten Jahr am meisten zitierte Server-Virtualisierungstechnik ist Grid-Computing. Aller Medienpräsenz zum Trotz steckt das von Wissenschaftlern entwickelte Clustern unterschiedlicher Plattformen über das Internet aber noch in den Kinderschuhen. Dies vor allem darum, weil die wenigsten heutigen Geschäftsanwendungen Grid-fähig sind. Dazu müssen die Applikationen erst für das Verteilen fit gemacht werden. Eine Arbeit, an die sich die Anwendungshersteller erst zögerlich machen - der Nachfragedruck fehlt noch weitgehend. Glaubt man den Gartner-Auguren, wird sich dies aber schon bald ändern. Bereits Ende dieses Jahres sollen demnach die ersten Lösungs-Pakete, bestehend aus spezifischen Applikationen und der notwendigen Middleware, auf den Markt kommen.


In Zukunft Selbstheilung

Zur Virtualisierung kommt die Automatisierung hinzu. Die Rechner und Speicher-Arrays sollen sich in Zukunft weitgehend selber verwalten und, so die Vision, auch über Selbstheilungsmechanismen verfügen. Die Hardware wird demnach künftig selber merken, wenn einzelne Bauteile fehleranfällig werden, und diese dann auch ohne spezielle Intervention eines Administrators aus dem Betrieb nehmen. Vor allem IBM investiert viel Forschungsgeld in ihr eLiza genanntes Selbstheilungs-Programm. Aber auch CA arbeitet an entsprechender Software.




On Demand geht aber über das eigentliche Datacenter hinaus. Die IT soll an die Geschäftsprozesse der Unternehmen angebunden werden. Der Helpdesk und damit auch die Geschäftsleitung sollen bei jedem technischen Problem genau wissen, welcher Geschäftsablauf dadurch wie stark gestört wird. Umgekehrt soll der Mitarbeiter im Datacenter in Echtzeit wissen, welche wirtschaftliche Bedeutung ein bestimmter Ausfall hat, damit er bei seiner Arbeit entsprechende Prioritäten setzen kann. Reporting- und Monitoring-Tools, wie sie für On Demand gebraucht werden, sind damit auch die Grundlage für ein Service-orientiertes IT-Management.


Leistungsbezogene Abrechnung

Zentral für die wirtschaftliche Steuerung der Informatik sind die Messinstrumente auch, weil sie die Möglichkeit schaffen, die einzelnen Leistungen den verschiedenen Abnehmern genau zu verrechnen. Die leistungsbezogene Abrechnung ist aus Sicht der Anwender das eigentliche "Killer-Feature" von On-Demand-Computing. Neben einer gerechten Kostenverteilung innerhalb der Unternehmen ermöglicht dies auch die Kostentransparenz in der IT selber. Die Zeiten, in denen Geschäftsleitungen fatalistisch und praktisch ohne Kontrolle ihren Informatikabteilungen Geld zur Verfügung stellten, dürften damit endgültig zu Ende gehen.


Die wichtigsten On-Demand-Initiativen

Computer Associates - Sonar: Systemmanagement



Hewlett-Packard - Adaptive Enterprise: Hardware, Systemmanagement, Services



IBM - On Demand: Hardware, Systemmanagement, Services



Sun - Sun One: Hardware




Artikel kommentieren
Kommentare werden vor der Freischaltung durch die Redaktion geprüft.

Anti-Spam-Frage: Wieviele Fliegen erledigte das tapfere Schneiderlein auf einen Streich?
GOLD SPONSOREN
SPONSOREN & PARTNER