Edge Computing - Rechenpower jenseits der Cloud
Quelle: Dell Technologies/Piqsels

Edge Computing - Rechenpower jenseits der Cloud

Edge Computing erlebt derzeit einen regelrechten Schub. Um das Potenzial auszuschöpfen, bedarf es einer Strategie, welche die Integration der Edge-Systeme in die bestehende Infrastruktur berücksichtigt und auf einer konsistenten Verwendung der Daten aufbaut.

Artikel erschienen in Swiss IT Magazine 2021/04

     

Waschmaschinen melden, wenn der Waschmittelvorrat zur Neige geht und lösen direkt eine Bestellung aus. Autonome Fahrzeuge sind vernetzt und tauschen Daten für einen sicheren Verkehrsfluss aus. Handwerker haben die Möglichkeit, defekte Geräte über Augmented-Reality-Anwendungen visuell mit dem Originalzustand zu vergleichen und Probleme in kürzester Zeit zu beheben. Hinter diesen Szenarien stecken neue Technologien wie das Internet der Dinge (IoT), Robotik, intelligente Messsysteme oder Augmented respektive Virtual Reality, die grosse Datenmengen benötigen und erzeugen, um althergebrachte Prozesse zu optimieren beziehungsweise zu automatisieren.


Um diese Prozesse innerhalb von Millisekunden anstossen zu können, ist eine kontinuierlich steigende Anzahl solcher Anwendungen auf eine Datenauswertung in Echtzeit angewiesen. Rechenzentren, die über 100 Kilometer oder noch weiter voneinander entfernt liegen, sind für solche Auswertungen deshalb nicht immer geeignet; die Datenübermittlung nimmt zu viel Zeit in Anspruch. Die Datenverarbeitung muss folglich näher an die Geräte rücken, was dank Edge Computing möglich ist. Das Marktforschungsunternehmen Gartner geht davon aus, dass bis 2025 75 Prozent der von Unternehmen generierten Daten ausserhalb des traditionellen, zentralisierten Rechenzentrums oder der Cloud anfallen und verarbeitet werden.

Edge Computing im Alltag

In gewisser Weise existiert das Edge Computing bereits seit Jahrzehnten – beispielsweise in Form von industriellen Steuerungssystemen. Früher fanden Berechnung und Steuerung allerdings nicht gemeinsam direkt an der Maschine statt. Das Edge Computing, wie wir es heute kennen, schafft daher neue Möglichkeiten für die Speicherung, Analyse, Prozessleistung und Cloud-Konnektivität. Gerade die Nachfrage nach geringen Latenzzeiten verschafft der Technologie einen bisher noch nie dagewesenen Schub.

Einer der Anwendungsfälle, die das Potenzial des Edge Computing besonders gut verdeutlichen, ist der Einzelhandel. Einkaufen als soziale Aktivität, die die Menschen in die Läden führt, wird zwar weiterhin bestehen bleiben, die Coronapandemie hat aber unter anderem dafür gesorgt, dass der hybride Mix zwischen Offline- und Online-Einkäufen stark zugenommen hat. Gekoppelt mit den Erwartungen der Konsumentinnen und Konsumenten an eine hohe Verfügbarkeit beziehungsweise schnelle Lieferung der gewünschten Produkte kann eine Vernetzung mittels Edge-Datencentern von einzelnen Filialen, regionalen Lagern und der Zentrale für eine reibungslose Customer Journey sorgen. Denn Edge Computing gewährleistet die Auswertung der lokalen Daten in Echtzeit und steigert durch die Überwachung der Lagerbestände die Verfügbarkeit vor Ort.


Ein weiteres Anwendungsbeispiel kommt aus der Industrie und der Produktion: Anlagen und Produktionsequipment werden immer häufiger mit intelligenten Sensoren ausgestattet, die lokale Umgebungs- und Zustandsdaten sammeln, aufbereiten und lokal verarbeiten, um daraufhin zielgerechtete Aktionen durchzuführen. Sogar in der Landwirtschaft kommen diese neuen Technologien zum Einsatz, zum Beispiel werden durch Umgebungssensoren Zustand und Qualität des Mutterbodens konstant analysiert und, als Resultat beispielsweise eines zu trockenen Bodens, eine künstliche Bewässerung aktiviert.

Rechenleistung und Bandbreite werden vorausgesetzt

Für die Umsetzung solcher Anwendungen ist sowohl eine hohe lokale Rechenleistung als auch eine Steigerung der verfügbaren Bandbreiten für die Datenübertragung über grössere Distanzen hinweg von Nöten. Hierauf reagieren die Telekommunikationsanbieter unter anderem mit dem Bau von Mikrotürmen, um eine breite Palette an 5G-Netzwerkdiensten voranzutreiben. Diese Mikrotürme sind das Äquivalent zu kleinen Rechenzentren, die hyperkonvergente Computerplattformen beherbergen. In letzteren werden alle nötigen System-Komponenten wie CPU, Speicher und Netzwerkverbindung auf möglichst kleinem Raum und in einem möglichst kleinen Gehäuse untergebracht. Auf diese Weise verringert sich der Abstand zwischen dem Verarbeitungs- und dem Verbrauchspunkt innerhalb des Netzwerks. Dadurch kann eine lokale Datenverarbeitung in Echtzeit realisiert, sprich grössere Workloads mit hoher Geschwindigkeit verarbeitet werden.


Mit der passenden Wahl der Infrastruktur für die Anwendung wird die benötigte Rechenleistung und Bandbreite als Basis für die Nutzung von Edge Computing sichergestellt. Um dessen volles Potenzial auszuschöpfen, bedarf es aber zusätzlich einer klaren Datenmanagement-Strategie.

Datenkonsistenz ist zwingend

Nur wenn Daten kongruent erfasst, bedarfsgerecht übertragen, gespeichert und analysiert werden, lohnt sich der Einsatz von Edge Computing. Denn nicht alle Daten an der Edge bedürfen der Speicherung. So ist bei gewissen Anwendungen nur eine Veränderung des Normalzustands interessant, beispielsweise eine Temperaturschwankung. Dieses Ereignis löst programmgesteuert eine Reihe automatisierter Prozesse aus, die ihrerseits Daten erzeugen, die wiederum in die entsprechenden Analysemodule eingespeist werden. Diese Module liegen an der Edge, um die damit zusammenhängenden Prozesse in Echtzeit zu optimieren, im lokalen Rechenzentrum oder in der Cloud als Teil eines grösseren Datenpools, der historischen Analysen dient.

Die Herausforderung besteht darin, Ordnung in die riesige Menge unstrukturierter Daten zu bringen. Die Qualität der gesammelten Daten hat einen direkten Einfluss auf die Zuverlässigkeit der Anwendungen und die nachgelagerten Prozesse. Es gilt in einem ersten Schritt, die existierende Vielzahl an Datensilos aufzuheben, um eine konsistente Nutzung der Daten zu realisieren. Eine umfassende Planung, um die Edge-Computing-Plattformen sinnvoll in bestehende lokale Rechenzentren und Clouds zu integrieren, ist daher unerlässlich. Als Bonus lassen sich damit gleichzeitig die Gesamtkosten für den Betrieb der verschiedenen Plattformen deutlich reduzieren.


Eine weitere Herausforderung des Edge Computing ist die Unterschiedlichkeit der Anwendungsfälle. Während die einen, beispielsweise autonome Fahrzeuge, sehr ressourcen- und datenintensiv sind, umfassen andere wie Wetterstationen lediglich das Sammeln von ­Telemetriedaten. Die Datenmanagement-Strategie muss diese Unterschiedlichkeit in die Betrachtung miteinbeziehen. Der Mix aus Edge, Cloud und Rechenzentrum muss deshalb für jedes Unternehmen individuell zusammengestellt werden – es gibt nicht die eine Standardlösung.

Stark fragmentiertes Ökosystem

Bei allen Vorteilen, die die Edge-Technologie bietet, bringt die Implementierung eine gewisse Komplexität mit sich. Die Ermittlung der aktuellen Bedürfnisse ist nur ein erster Schritt. Mit Blick auf eine nachhaltige Wettbewerbsfähigkeit muss die Implementierungsstrategie auch zukünftige Anforderungen berücksichtigen. Dies erlaubt es dem Unternehmen, die Weiterentwicklung von internen und externen Bedürfnissen rasch zu antizipieren und die Infrastruktur zu skalieren.

Dafür gilt es die Frage zu klären, welche Infrastruktur an der Edge zum Tragen kommen soll. Zum einen muss sie je nach Umgebung eine gewisse Widerstandsfähigkeit, beispielsweise hinsichtlich Temperaturschwankungen, Staub oder Erschütterungen aufweisen. Zum anderen müssen die Systeme zunehmend softwarezentriert aufgebaut sein. Und letztlich darf nicht vergessen werden, dass durch die zusätzlichen Datenpunkte das Sicherheitsrisiko steigt. Entsprechend müssen Hard- und Software an der Edge geschützt sein.


Zusammengenommen bilden die Komponenten, die die Umsetzung des Edge Computing ermöglichen, ein komplexes und stark fragmentiertes Ökosystem. An diesem Ökosystem sind unterschiedliche Parteien aus allen Bereichen beteiligt. Unternehmen, die Edge Computing implementieren möchten, benötigen daher ein vielseitiges Know-how – oder einen externen Umsetzungspartner, der in der Lage ist, Daten, Prozesse und Infrastrukturen ganzheitlich zusammenzuführen.

Der Autor

Als Field CTO bei Dell Technologies begleitet Otto Dück die Schweizer Kunden und Partner in beratender Funktion bei der Ausarbeitung einer geeigneten Strategie wie auch bei der Umsetzung ihrer herausfordernden IT-Projekte. Zudem bildet er als CTO Ambassador das Sprachrohr der Kunden in das Global CTO Office von Dell Technologies und nimmt in dieser Rolle aktiv Einfluss auf künftige Produktstrategien.


Artikel kommentieren
Kommentare werden vor der Freischaltung durch die Redaktion geprüft.

Anti-Spam-Frage: Wieviele Zwerge traf Schneewittchen im Wald?
GOLD SPONSOREN
SPONSOREN & PARTNER