Was kommt nach der Bandbreite
Quelle: istockphoto

Was kommt nach der Bandbreite

Von Michael Fiel

Artikel erschienen in Swiss IT Magazine 2015/06

     

2007 surfte die ganze Schweiz noch auf Kupferkabeln. Die ganze Schweiz? Nein, eine kleine Walliser Gemeinde wehrte sich und begann, Glasfasern zu verlegen. Vor gerade einmal acht Jahren sorgte Sierre für Aufsehen, als der lokale Kabelnetzanbieter begann, das koaxiale Netz durch Glasfasern zu ersetzen und diese bis zu den Endkunden – in die Wohnung oder ins Geschäft – zu verlegen (Fibre to the Home, FTTH). Nachdem mit dem EWZ, dem Elektrizitätswerk der Stadt Zürich, ein grosser und ernstzunehmender Anbieter ebenfalls in den FTTH-Markt einsteigen wollte, begann eine rasante und stürmische Entwicklung, die heute zwar immer noch nicht abgeschlossen ist, aber in deutlich ruhigeren Bahnen verläuft. Innerhalb kürzester Zeit hat sich dank des gelebten Schweizer Föderalismus das Bandbreitenangebot flächendeckend erhöht, so dass fast überall in der Schweiz Download-Bandbreiten über 100 Mbit/s normal geworden sind. Seit dem 1. Juni 2015 können nun auch über eine Million FTTH-Kunden von Swisscom mit 1 Gbit/s symmetrisch surfen. Aber wenn genug Bandbreite da ist, was ist dann noch wichtig, wodurch unterscheiden sich die Angebote der einzelnen Anbieter und worauf muss man achten?

Aber erst noch einmal ein Rückblick. Den FTTH-Boom ins Rollen gebracht hat, wie einleitend erläutert, Sierre Energie, erkennbar auch an der niedrigsten Bakom-FTTH-Betreiber-ID «100». Diese Entwicklung blieb jedoch weitgehend unbemerkt, bis der Energieversorger der Stadt Zürich, das EWZ, ebenfalls begann, das Thema FTTH aufzurollen. Erste Strategien wurden entwickelt, Business Cases erstellt und verschiedenste Szenarien geplant. Immer mehr Stadtwerke begannen ebenfalls, sich mit dem Thema FTTH zu beschäftigen.


Warum gerade die Energieversorger?
Die kommende Marktliberalisierung und die Entwicklung in der Energie-Übertragung und Energieversorgung hin zu intelligenten Netzen (Smart Grid) zwingt Energieversorger zum Umdenken. Neue Geschäftsfelder müssen erschlossen werden, um den drohenden Kundenverlust auszugleichen. Neue Technologien (Smart Metering) drängen in den bewährten Markt und letztlich haben auch die Eigentümer der Energieversorger, die Kommunen, ein vitales Interesse an Telekommunikationstechnologien. Wie entwickeln sich die Städte in den nächsten Jahren, welche Dienste fordert ein Bürger in Zukunft, wie kann man das alles anbieten, ohne dass die Kosten explodieren? Das sind in diesem Zusammenhang gängige Fragen. Auch die so genannten Smart Cities werden letztlich die Glasfasernetze, die von den Stadtwerken derzeit gebaut werden, als eine der grundlegenden Technologien nutzen. Und das wichtigste Asset solcher Netze, die Rohranlage, ist ja schon vorhanden. Warum diese also nicht nutzen und gleichzeitig noch das Energienetz sanieren?

Das Geld liegt unter der Strasse.

In der Telekommunikation liegt das Geld nicht auf der Strasse, sondern unter der Strasse. Die höchsten Kosten entstehen durch den Tiefbau, das Aufreissen von Strassen, das Bauen einer Trassee und das Verlegen von Kabelschutzrohren. Wer da bereits Anlagen hat, ist klar im Vorteil. Neben den Gemeinden sind das in der Regel nur mehr die Energieversorger und Kabelnetzanbieter (die beide oftmals wiederum einer Gemeinde gehören) sowie die Telekommunikationsunternehmen. 1000 Franken pro Meter Trassee sind beispielweise in Altstädten keine Seltenheit. Die höchsten Baukosten pro Nutzungseinheit (Wohnung oder Geschäft) entstehen dann aber auf den letzten 200 Metern, wenn die Kabel von einem Verteilpunkt (Distribution Point) sternförmig in die einzelnen Liegenschaften gezogen werden.
Um Kosten zu senken, werden daher oft genau diese letzten 200 Meter – der «Drop» – nicht mehr mit Glasfasern gebaut. Kabelnetze verwenden hier Coax-Kabel, Telekomanbieter wechseln von Glas auf die bestehenden Kupferkabel. Manche Anbieter werben mit «95 Prozent Glasfaser» – gemeint ist dabei nicht die Gesamtlänge des Netzes, sondern die Länge eines Kabels bis zum Kunden. Aber es sind genau jene letzten 200 Meter (beziehungsweise 5 Prozent), die diese Anbieter dann eben nicht ausbauen.

Konfrontation oder Kooperation?

Swisscom als grösster Anbieter wirkte zu Beginn der FTTH-Entwicklung ratlos, fast hilflos. Schnell hatte man am Swisscom-Hauptsitz in Bern aber die Auswirkungen auf das eigene Geschäft erkannt und begann, sich neu zu positionieren. Neue Abteilungen wurden geschaffen, Technologien evaluiert, Argumentarien entwickelt und letztlich eine Strategie der Kooperationen mit anderen Anbietern verabschiedet. Mit Verspätung, aber dafür mit umso mehr Druck begann auch Swisscom das Thema FTTH für sich zu besetzen und rang letztlich allen grösseren FTTH-Aspiranten eine Kooperation ab. Die Stadtwerke waren darüber wenig erfreut, hofften sie doch, Swisscom als Kunden für ihre Netze gewinnen zu können. Und als nach Jahren der Verhandlungen auch das EWZ mit Swisscom eine Kooperation einging, war allen klar, die Zeit der Alleingänge ist vorbei.
Inzwischen gibt es in allen grösseren Ballungsräumen entweder eine FTTH-Kooperation zwischen Swisscom und einem Energieversorger, oder aber Swisscom baut alleine ein Glasfasernetz. Auch Kabelnetzanbieter wie zum Beispiel GA Weissenstein in Solothurn oder Leucom Stafag im Kanton Thurgau sahen Vorteile in einer Kooperation und bauen inzwischen gemeinsam mit Swisscom an FTTH-Netzen. Aus Angst vor Nachteilen für die Bevölkerung gingen in den letzten Jahren auch immer mehr kleinere Gemeinden Baukooperationen mit Swisscom ein.
Aber ist FTTH immer die richtige Lösung? Inzwischen hat sich der FTTH-Boom etwas gelegt. Als Faustregel gilt, dass Anschlüsse, die mehr als 3000 Franken pro Nutzungseinheit kosten, nicht rentabel betrieben werden können. Hier setzt Swisscom auf andere Technologien wie Vectoring oder zukünftig auch G.Fast. Sowohl Vectoring als auch G.Fast sind Weiterentwicklungen des DSL-Standards, mit denen Bandbreiten im Download bis 100 Mbit/s beziehungsweise 500 Mbit/s ermöglicht werden können. Während Vectoring in der Schweiz bereits ausgebaut wird, befindet sich G.Fast noch in der Erprobungsphase.

Evolution oder Revolution?

Das von Swisscom selbst postulierte Ziel von einer Million FTTH-Haushalten bis Ende 2015 wurde wie schon erwähnt kürzlich bereits erreicht, wird somit mit Jahresende übertroffen werden. Und die Kabelnetzanbieter? Sie wirkten anfangs eher beleidigt, konnten nicht verstehen, weshalb nun plötzlich alle TV anbieten wollten. Und ihr Marktvorteil, die gegenüber dem Kupferkabel höheren Internet-Bandbreiten, wurde bald wieder Geschichte. Dennoch, statt teurer neuer Netze (Revolution) entschied sich die Mehrzahl zum Ausbau der bestehenden Netze (Evolution), manchmal bis zum letzten Verstärker (Fiber to the last Amplifier, FTTLA) oder bis in eine Liegenschaft (Fiber to the Building, FTTB) in Kombination mit RFoG (Radio Frequency over Glass). Mit RFoG kann das Fernsehsignal (RF) und das derzeit auf Kabelnetzen verwendete Datenprotokoll (DOCSIS; Data Over Cable Service Interface Specification) über Glasfaser transportiert werden und es können weiterhin die bestehenden Kabelmodems und TV-Boxen eingesetzt werden. Durch Verbesserungen im DOCSIS-Standard können in Kabelnetzen auch in Zukunft noch höhere Bandbreiten erzielt werden. Aber der Preis für diesen Zuwachs ist hoch, letztlich ist auch Kabelnetzanbietern klar, dass die Glasfasern so weit wie möglich zum Endkunden gezogen werden müssen. Hinzu kommt: Per Juni 2015 hat Swisscom einen weiteren Angriff gestartet. Waren symmetrische Bandbreitenprofile bisher nur bei den Stadtwerken und kleineren Anbietern verfügbar, bietet nun auch Swisscom Profile bis zu 1000/1000 Mbit/s symmetrisch zu attraktiven Preisen an, im Moment sogar günstiger als manche Stadtwerke. Der aktuelle Plan von Swisscom lautet: Bis Ende 2015 sollen insgesamt 2,3 Millionen Haushalte mit Bandbreiten über 100 Mbit/s (Download) versorgt werden – entweder mittels Vectoring oder FTTH.
Vereinzelt testen Kabelnetzbetreiber und Swisscom ausserdem bereits neue Technologien mit noch höheren Bandbreiten, diese werden jedoch noch nicht flächendeckend eingesetzt.

Netztechnologien oder einfach Bandbreite?

Dass Glasfasern die moderneste und nachhaltigste Infrastruktur für die Telekommunikation sind, ist unbestritten. Wie weit die Glasfasern aber bis zum Kunden gezogen werden, darin unterscheiden sich die Netze.
Nur bei FTTH-Netzen werden Glasfasern tatsächlich bis in eine Nutzungseinheit gezogen. Aber auch hier sind auf den letzten Metern wieder Medienbrüche vorhanden. Das Signal kommt dann meist über eine RJ45- oder WLAN-Verbindung bis zum eigentlichen Endgerät – also zum PC, Laptop oder Tablet. Irgendwann werden vielleicht auch Kühlschränke direkt an ein Glasfasernetz angeschlossen werden (Fiber to the Device, FTTD). Für die grosse Mehrzahl der Privatkunden ist die Technologie aber unerheblich. Die Geschwindigkeit muss stimmen, möglichst wenig Endgeräte sollen vorhanden sein, Kabelsalat ist ein Unding. Und für manche Nutzer ist auch WLAN kein Thema. Ein aktueller Stand der angebotenen Technologien, Geschwindigkeiten und der jeweiligen Anbieter eines Standortes kann für die ganze Schweiz unter www.breitbandatlas.ch abgerufen werden. Dabei sind hier jedoch nur die Netzbetreiber aufgeführt. Anbieter, die keine eigenen Kabel verlegen und diese Netze für eigene Dienste nutzen – wie zum Beispiel Sunrise oder alle kleineren ISP – sind nicht ersichtlich.

Alleine ist man nie

Ein weiterer Technologieunterschied liegt in der Nutzung der Übertragungsmedien. Ein Telefonkabel oder ein Glasfaserkabel in FTTH-Netzen steht einem Kunden bis zur Ortszentrale zur alleinigen Nutzung zur Verfügung, während Koaxialkabel in Kabelnetzen immer von mehreren Nutzern gemeinsam verwendet werden. Die Diskussion um diese «Shared Media» nimmt oft religiöse Züge an. Die Anzahl der Teilnehmer, die sich eine gemeinsame Bandbreite teilen, wird als Zellengrösse beschrieben. In FTTH-Netzen ist die Zellengrösse gleich eins, da jedem Teilnehmer ein eigenes Kabel bis in die Vermittlungszentrale zur Verfügung steht. In Kabelnetzen sieht man typische Zellengrössen von 100 bis 500 Teilnehmern, somit teilen sich also bis zu 500 Kunden einen einzigen Kabelstrang. Wenn also der Nachbar mal wieder aus Versehen seine Lieblingsserie aus dem Internet saugt, kann dies zu Kollisionen führen, das heisst, das eigene Datenpaket muss warten, bis das Datenpaket des Nachbarn durchgereicht wurde. Durch immer neue Technologien wird aber auch dieser Effekt immer unwichtiger. Spätestens nach der Vermittlungszentrale teilen sich auch FTTH-Kunden die Gesamtbandbreite des Backbones eines Anbieters mit den anderen Teilnehmern. Netzunabhängig spricht man hier von der Überbuchung von Bandbreite. Da nicht jeder Kunde eines Providers gleichzeitig surft und auch nicht immer die volle Bandbreite ausnutzt, muss man im Backbone auch nicht die Gesamtkapazität zur Verfügung stellen. Zudem werden auch nicht alle Datenpakete eines Teilnehmers immer in die weite Welt des Internet geschickt.

Ist Bandbreite wirklich alles?

Jahrelang war Bandbreite das Werbemerkmal schlechthin. Immer höher, schneller und weiter sollte es gehen. Nun haben wir aber – zumindest fast überall – mehr als genug Bandbreite, die von kaum einem Endkunden auch wirklich ausgenutzt wird. Die Internet Service Provider (ISP) haben die Kunden falsch erzogen. Oder wer kauft sich ein Auto nur nach der maximalen Höchstgeschwindigkeit? Letztlich kann man auch mit einem Kleinstwagen 200 Stundenkilometer fahren, aber der Weg zum Ziel ist nicht so sicher oder bequem wie mit einer Mittelklasse-Limousine. Dennoch entscheiden heute im Privatkundensegment immer häufiger der genutzte Dienst und die vorhandenen Bundles. Wer hat die meisten TV-Sender, wo kann ich meine Lieblings-Fussballmannschaft sehen, wer bietet mir noch die Mobiltelefonie für meine ganze Familie an? Auch bei den Privatkunden gibt es Ausnahmen, intensive Gamer sind eher von niedrigen Latenzzeiten abhängig als von hoher Bandbreite. Aber auch die Kommunikationsrichtung ändert sich. Da früher vor allem konsumiert wurde, lag der Fokus auf der Download-Bandbreite. Durch die zunehmende Nutzung von Cloud-Diensten wird aber auch der Upload immer wichtiger. Wer seine Bilder in die Cloud stellt, sei es auf Facebook oder Instagram, möchte möglichst schnell ein Ergebnis sehen. Nutzer, die zu Hause ein eigenes NAS betreiben, möchten schnell auf dessen Daten zugreifen können. Daher geht auch bei Privatkunden der Trend hin zu symmetrischen Bandbreiten.

Verfügbarkeit gewinnt weiter an Bedeutung

Schnell sind heute alle Angebote. Aber als Geschäftskunde muss man anfangen umzudenken. Gerade durch die Ablösung der herkömmlichen Telefonie durch Voice over IP (VoIP) bis spätestens 2017 wird der Internetanschluss zum Kommunikationsanschluss und daher noch wichtiger als bisher. Fällt das Internet aus, kann man auch nicht mehr telefonieren. Daher wird die Verfügbarkeit eines Anschlusses zunehmend an Bedeutung gewinnen. Eine höhere Verfügbarkeit des Dienstes kann auf mehrere Arten erzielt werden. Durch eine getrennte Wegeführung der Kabel kann das Risiko eines Kabelunterbruchs minimiert werden. Eine doppelte Gebäude-Einführung ist aber oft teuer, da diese separat bezahlt werden muss. Auch durch den Einsatz eines Zweitanbieters kann eine redundante Anbindung erzielt werden, Koaxialkabel und Kupferkabel sind oft in unterschiedlichen Trassee geführt, und auch die Stadtwerke nutzen für FTTH eigene Rohranlagen. Letztlich kann auch eine Absicherung über Mobilfunk einen Kabelunterbruch absichern. Da die Kabelwege aber immer besser dokumentiert werden, hat sich die Anzahl der Kabelunterbrüche in den letzten Jahren stark reduziert. Deutlich öfter kommt es zu Unterbrüchen in den elektrischen Komponenten, wie zum Beispiel dem Ausfall eines Access Switches.
Genau hier bietet sich die Chance für alternative ISP. Anbieter mit eigenen Netzen werden immer die eigene Infrastruktur und keinesfalls die Infrastruktur eines Mitbewerbers nutzen und diesem so Zugang zu ihrem Kunden ermöglichen. Für einen neutralen Netzanbieter hingegen ist es unerheblich, ob der Kunde Anbieter A oder B bevorzugt. Er kann einfach sicherstellen, dass die Zweitanbindung über andere Medien und/oder Technologien erfolgt und dadurch auch Ausfälle auf ein absolutes Minimum reduzieren. Die Nachfrage nach mehrfach abgesicherten Internet-­Anschlüssen (z.B. FTTH + DSL + Kabelnetz) hat in den letzten Monaten denn auch stark zugenommen.

Internet ist nicht gleich Internet

Neben Bandbreite und Verfügbarkeit gibt es jedoch noch ein Vielzahl weiterer Qualitätskriterien rund um einen Internetanschluss. Welche davon für einen Geschäftskunden relevant sind, richtet sich nicht zuletzt nach der Geschäftstätigkeit des Unternehmens. Mögliche Auswahlkriterien für Geschäftskunden sind:

Garantierte Bandbreite: Garantiert der Anbieter den Datentransport bis zur Internet-Wolke in seinem Backbone oder muss die Bandbreite mit anderen Teilnehmern geteilt werden? Steht die Bandbreite auch in Spitzenzeiten zur Verfügung oder kommt es dann zu vielen Paketverlusten?
Peerings: Wie gut ist ein Anbieter mit dem Rest der Welt verbunden? Kommt man zum Beispiel direkt auf die Internet­angebote eines Partners in Deutschland, oder geht ein Datenpaket erst in die USA (wird dort gescannt) und routet dann erst weiter nach Deutschland oder zurück in die Schweiz?
Quality of Service: Garantiert ein Anbieter eine priorisierte Übertragung spezieller Dienste innerhalb des Anschlusses? Kann man sicherstellen, dass immer genügend Bandbreite für Telefonie reserviert ist, oder kann man nicht mehr telefonieren, wenn alle Mitarbeiter wieder mal Federer gegen Wawrinka anschauen?

Support-Zeiten: Wann ist ein Anbieter im Störungsfall für den Kunden aktiv? Arbeitet der Anbieter auch in der Nacht und am Wochenende oder muss man warten, weil am Standort des Anbieters gerade ein lokaler Feiertag ist?
Service Level Agreement: Welche Parameter, wie zum Beispiel Latenzzeiten oder die maximale Dauer einer Störungsbehebung, werden garantiert und was erhält man als Gegenleistung, wenn diese Werte nicht eingehalten werden?
Aktiv oder Reaktiv: Erkennt der Anbieter eine Störung von selbst und beginnt auch ohne die Intervention des Kunden mit der Störungsbehebung, oder wartet der Anbieter, bis eine Störung gemeldet wird?
Endgeräte: Stellt der Anbieter dem Kunden ein Endgerät wie einen Router oder eine Firewall zur Verfügung? Wie schnell ist so ein Endgerät im Störungsfall ersetzt? Ist es ein qualitativ hochwertiges Produkt oder Massenware aus dem Discounter?
Managed oder nicht: Wird das Endgerät vom Anbieter überwacht? Spielt er selbständig neue Updates ein, insbesondere bei Sicherheitslücken?

Die Erfahrung zeigt, dass FTTH-Netze vor allem für Privatkunden betrieben werden. Wartungsarbeiten werden demzufolge gerne auf jene Zeiten verlegt, in denen Privatkunden nicht online sind. Oft sind dies aber genau die Zeiten, in denen Geschäftskunden aktiv sind. Daher sollte ein ISP für hochwertige Internetangebote im Idealfall andere Glasfasernetze nutzen, die parallel zu FTTH für Private aufgebaut werden und durch SLA abgedeckt sind, die sich nach den Bedürfnissen von Geschäftskunden richten.



Wie es im Markt weiter geht

Langfristig werden kleinere ISP nicht in allen Marktsegmenten erfolgreich tätig sein können. Privatkunden erwarten höchste Bandbreiten, wann immer diese benötigt werden. Am Ende surfen dann aber ohnehin alle am Abend, im Winter mehr als im Sommer. Als ISP muss beziehungsweise müsste man das Netz daher auf diese Spitzenzeiten auslegen, den Rest des Tages dümpelt es allerdings vor sich hin. Da solche Netze dann aber teuer werden, greift man doch lieber zum Mittel der Überbuchung.
Daneben muss man als ISP auch noch topmoderne TV-Lösungen anbieten, Video on Demand zur Verfügung stellen und am besten noch Mobilfunk für die ganze Familie anbieten. Da bereits jeder Haushalt einen Internetanschluss oder einen Handy-Vertrag besitzt, ist dieses Geschäft in einem Verdrängungsmarkt äusserst werbeintensiv und steht unter hohem Kostendruck. Spätestens als vor rund einem Jahr der Anbieter Init7 ein 1/1-Gbit/s-Angebot für 777 Franken im Jahr lancierte, war allen klar: Bandbreite als Unterscheidungsmerkmal hat endgültig ausgedient. Daher werden sich im Privatkundensegment am Ende wohl nur die Grossanbieter mit entsprechender Marktmacht und Finanzkraft durchsetzen. Für kleinere ISP wird es im Privatkundenmarkt schwierig werden, sofern sie nicht einen speziellen USP, wie zum Beispiel die Preisführerschaft, bieten.

Ein sinnvoller Weg für einen alternativen ISP ist sicherlich der Fokus auf Geschäftskunden und das Anbieten von gemangten Diensten. Qualität kann ein Unterscheidungsmerkmal sein, dazu gehört höchste Verfügbarkeit durch unterschiedlichste Technologien, gelebte SLA, grösstmögliche Flexibilität, garantierte Bandbreiten ohne Überbuchung im Backbone und Top Peerings. Letztlich spiegelt sich das aber im Preis der Angebote wieder, und noch ist der Preis ein wichtiges Entscheidungskriterium für Kunden. Entsprechend ist dieser Weg ein steiniger. Aber: Letztendlich muss sich jedes Unternehmen fragen, ob und wie lange es sich einen Ausfall des Kommunikationsanschlusses für seine Geschäftstätigkeit leisten kann.


Michael Fiel ist bei Cyberlink für die Geschäftsentwicklung, das Marketing und den Vertrieb verantwortlich. In den letzten 15 Jahren war er in verschiedenen Positionen als Berater und Linienverantwortlicher für die verschiedensten Marktteilnehmer (Provider, Stadtwerke, Telekomanbieter, Kabelnetzbetreiber…) tätig und hat massgeblich am Aufbau von FTTH-Netzen und der Weiterentwicklung von HFC-Netzen in der ganzen Schweiz und Liechtenstein mitgewirkt.


Artikel kommentieren
Kommentare werden vor der Freischaltung durch die Redaktion geprüft.

Anti-Spam-Frage: Was für Schuhe trug der gestiefelte Kater?
GOLD SPONSOREN
SPONSOREN & PARTNER