Das intelligente Netzwerk

Höhere Bandbreite ist nicht gleich mehr Tempo: Erst ein sinnvolles Performance-Management optimiert die Nutzung der Ressourcen.

Artikel erschienen in Swiss IT Magazine 2004/17

     

Die IT-Infrastrukturausrüster durchleben einen signifikanten Wandel: Während der 90er-Jahre lag der Fokus des IT-Marktes darauf, Unternehmen zu vernetzen und ihre Konnektivität zu gewährleisten. Bestand irgendwo ein Engpass, wurde er mit der Installation neuer Hardware beseitigt und so die Verfügbarkeit von Netzwerken und Anwendungen sichergestellt. Dieser Connectivity-Ansatz war bald überholt, in den Fokus gelangte die Netzwerk- und Anwendungssicherheit. Denn mit zunehmender Zahl der immer raffinierteren Angriffe auf Computer wuchs und wächst die Nachfrage nach passenden Schutzmechanismen. Vor diesem Hintergrund haben viele Unternehmen Handlungsbedarf erkannt und entsprechende Budgets eingerichtet. Der Ruf nach einer eigenen Infrastrukturebene für Sicherheitslösungen und dedizierten IT-Verantwortlichen, die sie implementieren, verhallt nicht mehr ungehört.





Derzeit verschiebt sich der Blickwinkel erneut: von der Verfügbarkeit und Sicherheit hin zum Performance-Management und zur Optimierung vorhandener Ressourcen. Kein Wunder: Eine aktuelle, von Packeteer initiierte Untersuchung zeigt, dass Einbussen bei der Applikations-Performance und bei Netzwerküberlastungen einen erheblichen Einfluss auf die Geschäfte heutiger Unternehmen haben. Über 80 Prozent der Unternehmen mit Umsätzen von mehr als einer Milliarde Dollar geben an, dass sie bereits Vorfälle erlebt haben, in denen die Applikations-Performance dramatisch eingebrochen ist. Mehr als die Hälfte gibt an, dass solche Störungen immer häufiger auftreten.






Bis in die jüngste Vergangenheit wurden Applikationen einfach auf ein Netzwerk aufgesetzt, ohne mögliche Auswirkungen zu bedenken. Doch während die Geschwindigkeit im LAN (Lokal Area Network) exponentiell gesteigert wurde, um das erhöhte Verkehrsaufkommen zu bewältigen, blieben die Übertragungsgeschwindigkeiten im WAN (Wide Area Network) annähernd gleich. Die sogenannte «Letzte Meile», aber auch andere Abschnitte, leiden daher unter notorischem Bandbreitenmangel. Diese Flaschenhälse beeinträchtigen massiv Unternehmenssoftware, die nicht mehr länger nur innerhalb eines LAN betrieben wird: Über die letzten Jahre haben viele Unternehmen ihre zentralisierte Firmenstruktur in eine weit verteilte Topologie gewandelt, in der Kunden, Partner, mobile Mitarbeiter und Zweigstellen über ein Netzwerk auf Applikationen zugreifen – oft sogar über das öffentliche Internet. ERP wird längst übergreifend verwendet, MRP umfasst CRM und SFA, Webportale, Mobile Computing, B2B-Austausch und mehr – und alle Komponenten laufen über WANs. Da diese Shared-Netzwerke und -Anwendungen weit über die Firmengrenzen hinausgehen, ist das Managen ihrer Performance ein äusserst komplexes, gleichzeitig aber essentielles Unterfangen.





Darüber hinaus erzeugen die Web-Fähigkeit von Anwendungen, Sprach- und Videoübertragungen über IP immer mehr Datenverkehr. Auch unerwünschte Applikationen wie Internet-Radio, Musik-Downloads, P2P-Tauschbörsen, Online-Spiele und elektronische Schädlinge belasten die Netzwerke: Messungen mit Applikations-Performance-Werkzeugen haben gezeigt, dass diese Anwendungen rund 25 Prozent des über einen WAN-Anschluss fliessenden Datenverkehrs verursachen. Unternehmen mit rund 2500 Angestellten zahlen für ihre WAN-Verbindung durchschnittlich 26 Millionen Euro pro Jahr – mehr als 6 Millionen davon fliessen also in die Unterstützung der nichtgeschäftlichen Nutzung ihrer Netzwerke.




Mehr als die Hälfte der Bandbreite wird heute für unerwünschte Tätigkeiten genutzt


Intelligente Netzwerke

In dieser Situation wird der Ruf nach «intelligenten Netzwerken» laut. Stellen sie eine geeignete Lösung dar? Zunächst zur Definition: Ein intelligentes Unternehmens-Netzwerk


• überwacht und analysiert automatisch die Anforderungen von zahlreichen Applikationen, Abteilungen und Anwendern (inklusive Problemen und Trends) und allokiert Ressourcen abhängig von der Wichtigkeit der Anwendungen;


• passt automatisch Ressourcen-Allokationen und -Konfigurationen an, um die geforderten Service-Level liefern zu können;


• identifiziert und selektiert automatisch die beste Alternative (zum Beispiel Router, Carrier) für bestimmte Aufgaben – immer mit Blick darauf, permanent die Effizienz zu steigern und Kosten zu reduzieren;


• diagnostiziert und löst automatisch alle Netzwerkprobleme auf granularer Ebene (Subnetz, IP-Adresse, Gerät);


• detektiert automatisch unerwünschten Datenverkehr und verhindert, dass er die Leistungsfähigkeit und Verfügbarkeit wichtiger Applikationen beeinträchtigt.
Ein intelligentes Netzwerk bietet von einem Carrier bereitgestellte Netzwerk-Services, Computing-Dienste der IT oder eines ausgelagerten Service-Providers, die Management-Infrastruktur eines Plattformanbieters wie IBM Tivoli, BMC oder HP OpenView und nicht zuletzt spezifische Lösungen wie Traffic-Management, Security, Billing und mehr von Anbietern wie Packeteer.
Damit ein Netzwerk die geforderte «Intelligenz» überhaupt bieten kann, muss es erstens über genaue, zeitgerechte und umfassende Informationen über die Ressourcennutzung, Prioritäten und Service-Level verfügen – nur so ist es in der Lage zu bestimmen, ob Handlungsbedarf besteht oder nicht. Zweitens muss es die Fähigkeit besitzen, auf Basis dieser Informationen zu handeln und nicht nur darüber zu berichten.


Intelligent Core versus Intelligent Edge

Gehört die Intelligenz nun in das Kernnetzwerk (Core) oder in den Zugangsbereich (Edge)? Service-Provider folgen dem zentralen Ansatz – sie können dadurch höherwertige Dienste anbieten und entsprechend grössere Margen verlangen. Zusätzlich zu den Managed-Service-Angeboten für Applikations-Datenverkehr und Sicherheit, wie sie Equant mit Hilfe von Packeteer- und Checkpoint-Produkten implementiert hat, setzen auch Carrier in ihren Kernnetzwerken Techniken ein, mit denen sie «Intelligenz» als einen Hauptbestandteil ihrer Bandbreitenangebote offerieren können.
Am weitesten verbreitet ist dabei MLPS (Multi-Label Protocol Switching). Das Verfahren benutzt Netzwerkgeräte, die Datenpakete markieren, bevor sie sie durch das Backbone-Netzwerk senden. Basierend auf diesen Markierungen (Tags) erreicht es verschiedene Service-Level (Prioritäten). Da die Pakete über die Netzwerke mehrerer Carrier fliessen und die nötigen Standards nicht eindeutig festgelegt sind, wird es jedoch noch dauern, bis diese Technik tatsächlich funktioniert.
Zudem sind die meisten Netzwerk-Geräte wie Router und Switches nicht in der Lage, Pakete korrekt zu markieren, da sie keine oder nur eine rudimentäre Layer-7-Klassifikation haben – sie können die Pakete nicht bis auf die Anwendungsebene (Layer 7) verfolgen. Statt dessen vertrauen sie auf wenig effektive Verfahren wie das Mappen von Anwendungen auf bestimmte Portnummern und andere physikalische Traffic-Quell- und -Zielpunkte, um den Datenverkehr zu identifizieren.





Damit können sie beispielsweise nicht zwischen SAP-Web-Front-end-Traffic und P2P-Datenverkehr unterscheiden. Seit die meisten geschäftswichtigen Anwendungen «Web-enabled» sind und seit P2P-, Spam- und Viren-Traffic sich als Geschäftsdatenverkehr tarnt und zudem zwischen den Ports wechselt («Port-Hopping»), erlangt die Fähigkeit, den Traffic genau und granular identifizieren zu können, eine unternehmenswichtige Bedeutung. Nur damit ist es möglich, Applikationen auf dem Netzwerk genau zu steuern.


Kontroll-Appliances versus -Software

Appliance-Anbieter wie Packeteer und NetScreen können mit ihren Traffic-Management- und Security-Lösungen die Performance- und Verfügbarkeitsprobleme heutiger Unternehmen lösen und sind daher sehr gefragt. Die Softwarelösungen laufen auf einer dedizierten Hardware, die «inline» ins Netzwerk implementiert wird. Als Appliance sind die Systeme einfach zu installieren und zu managen.






Application-Performance-Management-Software (APM) von Herstellern wie Mercury Interactive und Compuware wird ebenfalls sehr häufig eingesetzt – doch dient sie in erster Linie als Analyse- und Berichtswerkzeug. Sie ist nicht in der Lage, die zweite Bedingung der genannten «Intelligenz»-Definition zu erfüllen. Agenten-basierte Systeme können zudem einen enormen logistischen Aufwand für die Installation und das fortlaufende Management bedeuten.
Anbieter von Infrastruktur-Management-Software wie BMC und Tivoli bieten mehr Informationen über die einzelnen Ebenen einer IT-Infrastruktur, zudem liefern
sie tiefergehende Details über die Applikations-Performance. Doch auch diese Software kann nicht steuernd eingreifen. Vielmehr sendet sie besondere Vorkommnisse an einen Helpdesk. Erst die nächste Generation wird eine Lösung automatisch generieren und umsetzen – und dafür ist wiederum der Einsatz von Appliances nötig. Denn nur damit ist es möglich, die Ressourcen-Allokation zu optimieren und Performance-Probleme automatisch zu beheben.
Doch diese umfassende Integration offenbart Kritikpunkte:


• Die Abhängigkeit von einer Einproduktlösung ist problematisch, da der Anwender bei einem Ausfall mit einem Schlag sämtliche Funktionalität verliert.


• Die Interaktion zwischen verschiedenen Lösungen erzeugt ein hohes Mass an Komplexität beim Testen, Installieren und Verwalten des Geräts.


• Der Kompromiss zwischen dem Bestreben, einerseits viele Funktionen zu bieten und andererseits zu versuchen, sich widersprechende Erwartungen wie Preis und Performance zu vereinen, untergräbt den Nutzen der Integration.


Zusammenfassung

Besonders grosse, weitverzweigt agierende Unternehmen wollen mehr «Echtzeiterfahrungen», ihre geschäftswichtigen Anwendungen sollen flüssiger funktionieren. Um den Graben zwischen Wunsch und Realität zu schliessen, ist der Einsatz intelligenter Netzwerke nötig. Diese werden in der Regel von Integratoren oder Service-Providern implementiert, die auf die bestmögliche Lösung setzen, um eine umfassende Einsicht in und Kontrolle des Netzwerk-Datenverkehrs gewährleisten zu können.





Unternehmen erkennen zunehmend, dass Netzwerke und Anwendungen untrennbar miteinander verknüpft sind – durch «Schubladendenken» getrennt, lassen sie sich nicht effektiv verwalten. Manche der IT-Prioritäten wie die Optimierung der Geschäftsprozesse, das Generieren von ROI und die Verknüpfung der IT-Investitionen mit den Geschäftszielen verlangen nach einer garantierten Performance und Verfügbarkeit der beteiligten Applikationen sowie einer optimalen Nutzung der Infrastruktur-Ressourcen. IT-Manager haben dies erkannt und planen Performance-Management als notwendige Netzwerkkomponente ein. Anstatt weiter dem teuren «Viel hilft viel»-Ansatz zu folgen, wenden
sie sich verfeinerten, proaktiven Steuerungsverfahren zu, die Anwendungen bis hinauf zur Applikationsebene analysieren, überwachen, managen und optimieren sowie Routing und Switching auf Applikationsebene ermöglichen.






In Zukunft wird der Automationsgrad weiter steigen. Die integrierten Lösungen werden Ressourcen überwachen und abhängig vom Bedarf und von den Geschäftsprioritäten allokieren. Sie werden Probleme selbständig erkennen und lösen und damit die Leistungsfähigkeit der Applikationen verbessern und Kosten minimieren. Das Zusammenfallen von drei Trends – die kontinuierliche Expansion traditioneller Unternehmen, die heterogene Natur von Unternehmensnetzwerken (besonders WLANs, Wireless WAN und das öffentliche Internet) und der ständig steigende Strom von schädlichem und unnützem Datenverkehr – werden Chancen sowohl für Start-up- als auch für etablierte Unternehmen bieten, neue Produkte für das Applikations- und Netzwerk-Performance-Management zu entwickeln.


Der Autor

Stefan Pickert ist Regional Manager DACH bei Packeteer.




Artikel kommentieren
Kommentare werden vor der Freischaltung durch die Redaktion geprüft.

Anti-Spam-Frage: Wieviele Zwerge traf Schneewittchen im Wald?
GOLD SPONSOREN
SPONSOREN & PARTNER