Revival der Virtualisierung
Quelle: istockphoto

Revival der Virtualisierung

Von Steven Henzen

Die Grundidee der Virtualisierung ist die Abstraktion und damit ein flexibleres Management von Ressourcen unabhängig von limitierender Hardware. Mittlerweile können Virtualisierungstechniken auf jedem x-beliebigen Level eingesetzt werden: vom Server bis hin zum Rechenzentrum, vom Desktop bis hin zur einzelnen Applikation.

Artikel erschienen in Swiss IT Magazine 2015/12

     

Man könnte meinen, Virtualisierung sei ein alter Hut. Immerhin reichen die ersten Schritte in die Partitionierung von Hardwareressourcen für den Parallelbetrieb von Betriebssystemen bis ins Jahr 1972 zurück. Insbesondere die Server-Virtualisierung gehört in den IT-Abteilungen von Unternehmen heute zum Alltag. In seiner aktuellsten Studie von Mitte Jahr hat das Marktforschungsunternehmen Gartner die Marktsituation der Server-Virtualisierung unter die Lupe genommen und festgestellt, dass mittlerweile nahezu drei Viertel aller x86-Server virtualisiert sind. Mit den bekannten Vorteilen: bessere Auslastung der Hardwarekomponenten, weniger Stromverbrauch, optimierte Administration, gesteigerte Verfügbarkeit und auf ein Minimum reduzierte Ausfallzeiten. Doch im Lichte der jüngeren technologischen Entwicklungen erscheint es sinnvoll, Server-Virtualisierung nochmals grundsätzlich zu beleuchten. Denn zum einen entwickeln sich sowohl die Virtualisierungs-Hard- wie auch -Software beständig weiter. Zum anderen entstehen durch die Cloud neue Architekturen, in denen die Virtualisierung ein grundlegender Baustein ist.

Die grossen Player im Markt

In den Ursprüngen der Virtualisierung lag ein wesentliches Anliegen darin, IT-Infrastrukturen zu konsolidieren. Anstelle lediglich die Anzahl physischer Server zu reduzieren, rückte deren Virtualisierung, also die Nachbildung von Server-Ressourcen mittels einer Abstraktionsschicht, in den Fokus. Plötzlich wurde es möglich, End-of-Life-Zyklen der Hardware von der Ressourcenverfügbarkeit zu entkoppeln. Vmware erwies sich in diesem Bereich als Pionier, als mit vMotion erstmals x86-Hardwarekomponenten im laufenden Betrieb ohne spürbare Auswirkungen auf Performance und Verfügbarkeit ausgetauscht werden konnten.
Vmware ist auch heute noch unbestrittener Marktführer im Bereich Server-Virtualisierung und treibt massgeblich die Innovationen in diesem Markt voran. Doch Microsoft hat mit Hyper-V hinsichtlich des Funktionsumfangs weitgehend zu Vmware aufgeschlossen, konzentriert sich aber hauptsächlich auf Windows-Umgebungen. Genau dieser Fokus scheint sich auszuzahlen: Microsoft wird im Bereich Server-Virtualisierung zunehmend für kleine und mittlere Unternehmen interessant. Dies zum einen aufgrund des Preisvorteils, zum anderen aber auch wegen der hohen Verbreitung und Durchdringung von Windows-Produkten in diesem Segment (mehr dazu in der Marktübersicht ab Seite 41).
In der Betrachtung der unmittelbaren Infrastruktur für die Virtualisierung teilen sich im Gartner-Quadrant diese beiden Player den Markt auf. Weitere Anbieter – untersucht wurden im letzten Gartner-Bericht Oracle, Red Hat, Citrix, Parallels und Huawei – werden lediglich als Nischenanbieter verortet.

Basis für differenzierte Anwendungsfälle

Alle führenden Hersteller von Virtualisierungslösungen bieten ihre Plattformen, Hyper-V, ESXi, Xenserver oder Proxmox Virtual Environment, mittlerweile kostenlos an, um den Einstieg in die Virtualisierung zu erleichtern. Ihr Geld verdienen sie über die Managementwerkzeuge, in denen heutzutage allerdings die eigentlichen Innovationen stattfinden. Gleichwohl bleibt der Hypervisor das technologische Herzstück der Server-Virtualisierung für die Erzeugung und parallele Verwaltung virtueller Maschinen. Während Microsoft und Vmware als proprietäre Lösung daherkommen, vertreten Red Hat und Citrix die Open-Source-Welt. Bei Xenserver von Citrix steht die komplette Software als Open Source bereit, bei Linux mit der Kernel Based Virtual Machine (KVM) ist das ohnehin der Fall. Somit stehen den Nutzern alle vorhandenen Management-Tools auch für potenziell grössere Virtualisierungsvorhaben kostenlos zur Verfügung.
Ansonsten verfolgen die einzelnen Hersteller in Bezug auf das Management unterschiedliche Strategien: Microsoft Hyper-V, Citrix Xenserver und KVM sind untrennbar mit ihren jeweiligen Management-Betriebssystemen verbunden. Vmware ESXi hingegen bildet eine eigenständige Mini-Appliance (mehr zum Thema Management ab Seite 38).
In den Varianten Bare-Metal oder Hosted scheint sich die Gunst der Administratoren mehr und mehr hin zu den direkt auf der Hardware laufenden Hypervisoren des Typs 1 zu bewegen. Der Grund liegt in der besseren Performance, weil die Mittelschicht des Hostsystems entfällt und die Ressourcen ohne eine Vermittlerebene direkt zugewiesen werden. Allerdings punkten die gehosteten Hypervisoren mit einer einfacheren Verwaltung und mit schnelleren Updates. Typ 1 empfiehlt sich daher für die businesskritischen Workloads, während Typ 2 vor allem bei der raschen Implementierung von Testumgebungen seine Daseinsberechtigung rechtfertigt.

Keine Silos mehr

Die grossen Vorteile, die Virtualisierung in Bezug auf Skalierbarkeit, Verfügbarkeit und Performance mit sich bringt, haben dazu geführt, dass immer mehr Bereiche der IT mittels verschiedener Abstraktionsschichten von der darunterliegenden Hardware abgekoppelt betrieben werden.
Ohnehin kann Server-Virtualisierung je länger je weniger isoliert betrachtet werden. Deutlich wird dieser Trend in der Strategie von Citrix: Man konzentriert sich vornehmlich auf Desktop- und Client-Virtualisierung und bietet mit dem Xen- server lediglich eine ergänzende Server-seitige Technologie an. Beim so genannten Desktop as a Service ist der gesamte Desktop-PC einschliesslich des Betriebssystems, aller Anwendungen und persönlichen Benutzereinstellungen virtualisiert. Der komplette Büro-PC liegt als virtuelles System auf einem Server im Netzwerk und wird von dort zentral verwaltet. Im Lichte der zunehmenden Mobilisierung eine sehr attraktive Entwicklung.
Die Anwendungsvirtualisierung geht noch einen Schritt weiter und entkoppelt einzelne Anwendungen vom Betriebssystem. Im Zuge dieses Trends wird der Terminus Container populär, insbesondere seit Docker seine Engine für das schnellere Verpacken und Bereitstellen der Container-basierten Virtualisierung auf den Markt gebracht hat. Darunter versteht man eine komplette Anwendung, inklusive ihrer Abhängigkeiten und Konfiguration, verpackt in einem definierten, wiederverwendbaren Format.

Im Unterschied zu einer kompletten Virtual Machine enthält ein Docker-Container jedoch kein eigenes Betriebssystem mit eigenem Kernel, Treibern ecetera. Er fällt dadurch deutlich schlanker aus. Dadurch ist es möglich, einen Container in einem Bruchteil der Zeit zu starten und auch nur einen Bruchteil der Ressourcen zu verbrauchen, die eine VM benötigen würde (mehr dazu ab Seite 45). Damit eignet sich diese Technologie aktuell besonders gut für die agile Software-Entwicklung. Und auch in punkto Sicherheit wird dieses Thema an Bedeutung gewinnen, da die einzelnen Applikationen gut voneinander abgeschirmt werden können. Für den Betrieb von Applikationen werden zudem die Leistungsparameter eines Servers noch unwichtiger.
Während die Linux-Welt Container schon länger unterstützt, machen Microsoft mit Windows Server 2016 und Vmware ebenfalls Container-basierte Virtualisierung verfügbar.

Neue Ansätze in der Virtualisierung

Entkoppelung, wie sie der Grundidee der Virtualisierung zugrunde liegt, treibt auch das nächste grosse Virtualisierungsthema: die Netzwerkvirtualisierung. Dabei wird ein komplettes Netzwerk virtuell in Software abgebildet und betrieben. Zugrunde liegt mit dem Software-Defined Network eine zentrale Steuerungsinstanz, die dazu dient, Komplexität zu reduzieren und Netzwerke einfacher zu verwalten. Damit muss die Hardware, zum Beispiel Firewalls, Router, Switches, nicht mehr manuell konfiguriert werden, vielmehr erfolgt dies ohne physischen Zugriff auf Netzkomponenten – und zwar, indem Steuerungs- und Datenebene voneinander abgekoppelt werden. So können beispielsweise nicht nur Workloads innerhalb eines Rechenzentrums gesteuert werden. Auf Basis der Software-Architektur ist die Vernetzung und Erreichbarkeit mehrere Datacenter-Standorte möglich. Dadurch können Workloads und Lasten flexibel und bestmöglich verteilt werden.

Und noch ein völlig neuer Virtualisierungsansatz macht von sich reden: das Datacenter in a Box. Zugrunde liegen hier so genannte hyperkonvergente Infrastrukturen. Dieser alternative Ansatz, der zunächst durch Newcomer wie Nutanix vorangetrieben wurde, soll Virtualisierung noch leichter, schneller und preiswerter machen. Auch Vmware ist mit Evo:rail mittlerweile bereits auf diesen Zug aufgesprungen. Vereinfacht gesagt, kombinieren hyperkonvergente Lösungen Server-, Netzwerk- und Storage-Komponenten in vorkonfigurierter Form und mit einheitlicher Verwaltung über alle Ressourcen hinweg. Neue Server können nach dem Scale-out-Prinzip einfach bereitgestellt werden. Alles basiert auf Software, ist hochgradig standardisiert und automatisiert. Das Datacenter in a Box führt Server, Storage und eine Virtualisierungslösung in einer einzigen Architektur zusammen und kann über ein und dieselbe Bedieneroberfläche konfiguriert und gesteuert werden. Hier steckt sicher noch viel Zukunftsmusik, dennoch sollte man sich mit dem Konzept bereits etwas vertraut machen.

Ein wichtiger Baustein von Cloud Computing

Was wäre ein Artikel über Virtualisierung ohne das Stichwort Cloud? In der Virtualisierung steckt bereits vom Konzept her ein wichtiger Baustein von Cloud Computing: flexible Ressourcen-Allozierung nach Bedarf, die nicht mehr durch verfügbare Hardwarekomponenten limitiert ist. Mit der Cloud ändert sich an bestehenden Konzepten der Virtualisierung von Rechner- netzen im Prinzip nichts. Die hohe Kunst in der Virtualisierung besteht darin, dass der Nutzer gar nicht mehr spürt, ob er mit physischen oder virtuellen Ressourcen arbeitet. Die IT-Abteilung hingegen muss sich die einzelnen Abstraktionsschichten jeweils genauer anschauen und von Fall zu Fall entscheiden, wie viel Administration man inhouse behalten und was man eventuell eher als Infrastructure, Platform oder Software as a Service aus der Cloud beziehen will.

Der Autor

Steven Henzen ist Senior Architect und verantwortet in dieser Funktion die Administration von Enterprise- Architekturen bei den Kunden von T-Systems in der Schweiz aus den verschiedensten Wirtschaftszweigen und der öffentlichen Hand mit besonderem Schwerpunkt auf Travel, Logistik, produzierende Industrie und Gesundheitswesen. T-Systems begleitet seine Kunden in der digitalen Transformation ihrer Geschäftsmodelle mit innovativen Technologien für Cloud Computing, Big Data, Collaboration, Mobile Enterprise und Security.


Artikel kommentieren
Kommentare werden vor der Freischaltung durch die Redaktion geprüft.

Anti-Spam-Frage: Aus welcher Stadt stammten die Bremer Stadtmusikanten?
GOLD SPONSOREN
SPONSOREN & PARTNER