Edge Computing - Rechenpower jenseits der Cloud

Edge Computing - Rechenpower jenseits der Cloud

Artikel erschienen in IT Magazine 2021/04

Rechenleistung und Bandbreite werden vorausgesetzt

Für die Umsetzung solcher Anwendungen ist sowohl eine hohe lokale Rechenleistung als auch eine Steigerung der verfügbaren Bandbreiten für die Datenübertragung über grössere Distanzen hinweg von Nöten. Hierauf reagieren die Telekommunikationsanbieter unter anderem mit dem Bau von Mikrotürmen, um eine breite Palette an 5G-Netzwerkdiensten voranzutreiben. Diese Mikrotürme sind das Äquivalent zu kleinen Rechenzentren, die hyperkonvergente Computerplattformen beherbergen. In letzteren werden alle nötigen System-Komponenten wie CPU, Speicher und Netzwerkverbindung auf möglichst kleinem Raum und in einem möglichst kleinen Gehäuse untergebracht. Auf diese Weise verringert sich der Abstand zwischen dem Verarbeitungs- und dem Verbrauchspunkt innerhalb des Netzwerks. Dadurch kann eine lokale Datenverarbeitung in Echtzeit realisiert, sprich grössere Workloads mit hoher Geschwindigkeit verarbeitet werden.

Mit der passenden Wahl der Infrastruktur für die Anwendung wird die benötigte Rechenleistung und Bandbreite als Basis für die Nutzung von Edge Computing sichergestellt. Um dessen volles Potenzial auszuschöpfen, bedarf es aber zusätzlich einer klaren Datenmanagement-Strategie.

Datenkonsistenz ist zwingend

Beim Edge Computing ändern sich mit zunehmender Entfernung zum Kern der IT-Infrastruktur die Bedürfnisse an die Hardware und an die Datenübertragung. (Quelle: Dell Technologies)
Nur wenn Daten kongruent erfasst, bedarfsgerecht übertragen, gespeichert und analysiert werden, lohnt sich der Einsatz von Edge Computing. Denn nicht alle Daten an der Edge bedürfen der Speicherung. So ist bei gewissen Anwendungen nur eine Veränderung des Normalzustands interessant, beispielsweise eine Temperaturschwankung. Dieses Ereignis löst programmgesteuert eine Reihe automatisierter Prozesse aus, die ihrerseits Daten erzeugen, die wiederum in die entsprechenden Analysemodule eingespeist werden. Diese Module liegen an der Edge, um die damit zusammenhängenden Prozesse in Echtzeit zu optimieren, im lokalen Rechenzentrum oder in der Cloud als Teil eines grösseren Datenpools, der historischen Analysen dient.

Die Herausforderung besteht darin, Ordnung in die riesige Menge unstrukturierter Daten zu bringen. Die Qualität der gesammelten Daten hat einen direkten Einfluss auf die Zuverlässigkeit der Anwendungen und die nachgelagerten Prozesse. Es gilt in einem ersten Schritt, die existierende Vielzahl an Datensilos aufzuheben, um eine konsistente Nutzung der Daten zu realisieren. Eine umfassende Planung, um die Edge-Computing-Plattformen sinnvoll in bestehende lokale Rechenzentren und Clouds zu integrieren, ist daher unerlässlich. Als Bonus lassen sich damit gleichzeitig die Gesamtkosten für den Betrieb der verschiedenen Plattformen deutlich reduzieren.

Eine weitere Herausforderung des Edge Computing ist die Unterschiedlichkeit der Anwendungsfälle. Während die einen, beispielsweise autonome Fahrzeuge, sehr ressourcen- und datenintensiv sind, umfassen andere wie Wetterstationen lediglich das Sammeln von ­Telemetriedaten. Die Datenmanagement-Strategie muss diese Unterschiedlichkeit in die Betrachtung miteinbeziehen. Der Mix aus Edge, Cloud und Rechenzentrum muss deshalb für jedes Unternehmen individuell zusammengestellt werden – es gibt nicht die eine Standardlösung.

Neuen Kommentar erfassen

Anti-Spam-Frage Wieviele Fliegen erledigte das tapfere Schneiderlein auf einen Streich?
Antwort
Name
E-Mail
SPONSOREN & PARTNER