Gitter kommen ins Glashaus
Grid Computing geistert schon seit ein paar Jahrzehnten durch die IT. Erst als theoretisches Konzept, später als billiger Ersatz für akademische Supercomputer und schliesslich auch zum Beispiel in Form des Seti@Home-Projekts, um weltweit Interessierte an der Suche nach Spuren von ausserirdischem Leben teilhaben zu lassen. Jetzt soll Grid aber den Elfenbeinturm und die Stufe der Freiwilligenprojekte verlassen und im Glashaus – in der Unternehmensinformatik – Einzug halten.
Erste kommerzielle Installationen sind bereits produktiv, zum Beispiel vernetzt der Basler Pharmamulti Novartis seine Desktops zu einem virtuellen Superrechner. Aber auch Finanzinstitute setzen schon heute für aufwendige Business-Intelligence-Applikationen Grids ein. All diesen bisherigen kommerziellen Anwendungen gemeinsam ist ihre wissenschaftsähnliche, CPU-intensive Natur. Novartis berechnet Molekülstrukturen, andere machen Windkanalberechnungen oder Data Mining in Kundendaten.
«Normale», transaktionslastige Business-Applikationen wurden demgegenüber bisher noch kaum auf die Gitter migriert. Dies könnte sich aber schon bald ändern. Oracle, aber auch IBM, Sun, HP und Fujitsu Siemens versuchen mit viel Marketing- und Entwicklungsaufwand die Technik im Datacenter zu etablieren. Grids gelten als einer der zentralen Enabler für Utility Computing.
Aber längst nicht alle Anwendungen eignen sich fürs verteilte Rechnen. Zudem sind einige für den Business-Einsatz zentrale Fragen, wie die Sicherheit und die Kostenverrechnung, noch nicht abschliessend gelöst. Trotzdem spricht vieles dafür, dass die Gitter zum künftigen «Über-OS» in den Datencentern avancieren, denn Grids versprechen mehr, als nur brachliegende CPU-Leistung zu aktivieren.
Eine alte Idee
Das erste Mal öffentlich über Grid-ähnliche Systeme nachgedacht wurde 1965. Entwickler des Unix-Vorläufers Multics entwarfen die Vision von «computing as an utility», in der Rechenleistung wie Strom oder Wasser einfach von einem Netz abgezapft werden kann.
Ende der 80er- und Anfang der 90er-Jahre wurden die ersten Rechnervernetzungsprojekte an Hochschulen in Angriff genommen. An der Universität von Wisconsin wurde 1988 Condor gestartet. Damit konnten die Computer innerhalb eines LAN gepoolt werden. Neben dem Auffinden von geeigneten Ressourcen konnte Condor auch bereits schon den Absturz einzelner Rechner verkraften.
1992 startete die deutsche Genias Software Codine (Computing for distributed Network Environments). Die Software wurde 1999 in Gridware umgetauft und wurde nach dem Kauf von Genias durch Sun zur Sun Grid Engine.
Auch andere verteilte Rechenpionierprojekte wie Legion der Universität von Virginia und Nimrod der Monash Universität in Australien wurden Anfang der 90er Jahre gestartet. Für eine breite Anwendung ausserhalb von spezialisierten Forschungsprojekten waren aber damals die Netzwerke schlicht zu langsam.
Als die erste «kommerzielle» Anwendung eines Grid-ähnlichen Konzepts im grossen Stil kann Napster angesehen werden. Über die Peer-to-Peer-Tauschbörse und ihre wechselnden Nachfolger konnten und können Millionen von Anwendern die Rechen- und Speicherkapazitäten von Tausenden von weltweit verteilten Rechnern nutzen. Die Tauschbörsen zeigen aber auch eines der grundlegenden, noch nicht abschliessend gelösten Probleme des verteilten Rechnens auf: Es fehlt ein von allen involvierten Parteien akzeptiertes Business-Modell. Nicht nur die Urheberrechtsfrage ist noch ungelöst, auch die Frage, wie Speicher-, CPU-, Netzwerk- und Applikationsgebrauch im einzelnen verrechnet werden sollen, steht noch immer weitgehend offen.