Das Jahrzehnt der Daten
Quelle: SITM

Das Jahrzehnt der Daten

Dell Technologies betreibt in Austin im US-Bundesstaat Texas eine ganze Reihe von Forschungseinrichtungen, die sich mit den Technologien von morgen auseinandersetzen. Ein Augenschein vor Ort.

Artikel erschienen in Swiss IT Magazine 2019/12

     

Das US-amerikanische Technologieunternehmen Dell bezeichnet die kommende Dekade in seiner Strategie-Roadmap als The Data Decade, also das Jahrzehnt der Daten. Freilich ist dieser Ausdruck alles andere als neu und wurde schon für das bald auslaufende Jahrzehnt verwendet. Dennoch würde wohl kaum jemand die Vorhersage infrage stellen, dass die Menge der stündlich und täglich anfallenden Daten in den kommenden Jahren weiter stark wachsen wird. Ein Grund dafür wird gemeinhin in der zunehmenden Bedeutung des Edge Computing verortet. Immer mehr vernetzte Geräte werden immer mehr Daten produzieren. Man wird diese miteinander verknüpfen und auswerten wollen, um daraus Erkenntnisse zu gewinnen und um sie zu monetarisieren. Dies stellt die IT-Industrie wie auch die Gesellschaft vor grosse Herausforderungen, denen man heute noch nicht gewachsen ist. IT-Unternehmen auf der ganzen Welt liefern sich deshalb ein Rennen um die Datenhoheit.


Michael Dell, CEO von Dell Technologies, ist der festen Überzeugung, dass Daten der Schlüssel sind, um eine ganze Reihe von Problemen auf unserem Planeten zu lösen. Gleichzeitig verspricht das tiefe Verständnis dieser Daten und ihrer Verwendung auch grosse Gewinne. Das Unternehmen betreibt deshalb auf einem weitläufigen Campus in der texanischen Hauptstadt Austin mehrere Forschungslabore, in denen die Technologien von morgen erdacht, entwickelt und erprobt werden. "Swiss IT Magazine" konnte sechs dieser Einrichtungen in Augenschein nehmen.

Servertechnologien von morgen

Eines dieser Labs wurde auf den Namen Futuresville getauft und untersteht dem Unternehmensbereich Server & Infrastructure Systems und dem Büro des CTO von Dell Technologies. Hier entstehen Servertechnologien, die erst drei bis fünf Jahre später zur Marktreife gelangen. Das Lab kann auf eine ganze Reihe von Entwicklungen zurückblicken und war unter anderem an der Ausarbeitung der Spezifikation für den NVMe-Standard beteiligt, ausserdem bringt es sich aktiv in das Gen-Z-Konsortium ein. Derzeit arbeiten die Ingenieure dieser Abteilung an mehreren grossen Projekten, mit denen Serverinfrastrukturen entscheidend vorangebracht werden sollen. Composable Infrastructure etwa steht für Server-Disaggregation beziehungsweise den Versuch, Server zu entwickeln, die sich je nach Bedarf virtuell und modular zusammenstellen lassen, erklärt Bill Dawkins, Vice President und Fellow der Abteilung Server & Infrastructure Systems. Dabei werden die Hardware-Ressourcen in grossen Pools gesammelt und lassen sich von dort aus über eine Management Software dynamisch allozieren. Ziele einer solchen Architektur sind unter anderem die effizientere Bereitstellung von Hardware sowie die Senkung der Energiekosten für den Betrieb der Server-Infrastruktur.


Mit Visual Analytics wiederum versuchen die Spezialisten von Dell, die Darstellung der Telemetriedaten der Soft- und Hardware in Servern zu verbessern. Die Herausforderung besteht darin, die stark wachsende Datenflut, die Server produzieren, einfacher fassbar und verwertbar zu machen, sowohl für die Kunden als auch für den Hersteller selbst, der sich davon verspricht, die eigene Technologie weiter verbessern zu können. Die Visualisierung von Big Data soll letztlich den IT-Administratoren als Entscheidungsgrundlage für den Einsatz ihrer Hardware-Ressourcen dienen, so Senior Distinguished Engineer Jon Hass. Getestet werden deshalb auch neue Ansätze wie die Visualisierung im virtuellen Raum mittels VR-Headsets.

High Performance Computing und AI

Garima Kochhar, Engineer im High Performance Computing Team, führt durch das HPC/AI Lab. Ihre Schilderungen sind nur über Headset vernehmbar, denn die vielen Server, die hier Reihe an Reihe stehen, produzieren einen tosenden Lärm. Und auch Abwärme – in der langen Halle ist es stickig heiss. Wie Kochhar erklärt, ist das Abführen dieser Verlustenergie eine der vielen Herausforderungen, die ihr Team beschäftigen. Ein Kollege der Ingenieurin zeigt eine Serverplatine, deren CPU mit Wasser gekühlt wird. Ein ganzes Rack ist mit solchen Einheiten ausgestattet. Hier werden die Vor- und Nachteile einer Flüssigkühlung untersucht. Laut Kochhar besteht einer der grössten Vorteile im Gegensatz zur Luftkühlung darin, dass die Server-Einheiten in kleineren Abständen zueinander in das Rack montiert werden können. Dies steigere die Effizienz der Server und spare ausserdem Platz.

Unweit von dieser Test-Station steht ein Cluster, der komplett mit CPUs von AMD ausgerüstet ist. Eine wichtige Aufgabe des Labs ist es nämlich auch, verschiedene Chips in Bezug auf ihre Rechenleistung zu untersuchen. So mag es kaum erstaunen, dass im Lab auch Server stehen, die für komplexe KI-Berechnungen ausschliesslich mit GPUs ausgestattet sind. Und nicht zuletzt werden auch verschiedene Storage-Systeme nebeneinander betrieben und miteinander verglichen.


Die meisten Server im Lab bearbeiten AI Workloads. Eingesetzt werde die künstliche Intelligenz unter anderem für die Erkennung von Objekten oder für Simulationen, so Kochhar. So könne beispielsweise ein Windkanal simuliert werden, in dem die Aerodynamik von Triebwerken oder Formel-1-Wagen getestet werden könne. Aber auch in der Krebsforschung kommt KI zum Einsatz. Hier geht es laut Kochhar darum, Studienresultate schneller auszuwerten. Was noch bis vor kurzem vier Wochen gedauert habe, schaffe die KI heute in vier Stunden. Ein Highlight des Labs ist ohne Zweifel Zenith. Dells Supercomputer mit 26’720 Cores steht auf der Liste der schnellsten Rechner der Welt aktuell auf Rang 483.

Rechen-Power für die Edge

Beim Edge Computing, also der dezentralen Datenverarbeitung am Rand eines Netzwerks, denken viele an mobile Endgeräte. Dass aber mitunter auch mobile Server und kleine, mobile Rechenzentren benötigt werden, um die anfallenden Daten zu verarbeiten, wird oft ausgeklammert. Das Edge Innovation Lab entwickelt seit mehreren Jahren Server und Rechenzentren, die in Aussenbereichen eingesetzt werden können. Hierfür bauen sie derzeit auf dem Gelände des Campus eine Testanlage, in der demnächst die neuesten Kreationen des Labs evaluiert werden sollen. Ingenieur Mark Bailey nennt als mögliche Einsatzgebiete für die modularen Server-Einheiten, die in speziell geschützten Stahlcontainern untergebracht sind und zu Rechenzentren zusammengeschlossen werden können, etwa Unternehmen, die zu wenig Platz für einen Server haben, oder Grossprojekte in entlegenen Gegenden.

Datenmengen werden grösser, Antennen kleiner

Auch im Wireless-Bereich forscht Dell in mehrere Richtungen. Ein Schwerpunkt ist aktuell der Mobilfunkstandard 5G. Hierfür nutzt das Team unter anderem eine Simulationskammer, in der die Empfangsqualität der Geräte getestet wird. Auch spezielle, mit Sensoren ausgestattete Dummies kommen zum Einsatz, die messen, wie sich beispielsweise das Arbeiten mit einem Gerät auf dem Schoss auf den Empfang auswirkt. Im Wireless Lab werden auch die Antennen entwickelt, die in Notebooks zum Einsatz kommen. Wie ein Ingenieur erklärt, sei hier das Problem, dass Notebooks und insbesondere die Rahmen um das Display immer dünner würden, also genau der Bereich des Gerätes, wo normalerweise die Antenne für den Wireless-Empfang eingebaut ist. So müssten die Antennen pro Geräte-Generation um rund die Hälfte schrumpfen, was wiederum die Empfangsqualität beeinträchtigen könne. Deshalb würden diese in neueren Geräten in der Basis untergebracht. Für die Produktion der Antennen stelle dies eine grosse Herausforderung dar. Aus diesem Grund sei man bei Dell dazu übergegangen, diese Bauteile mit einer neuartigen Metall-Tinte zu drucken.

Hardware für extreme Bedingungen

Im Rugged Lab von Dell hat das Team um Anthony Bundrant die Aufgabe, besonders robuste Hardware zu entwickeln, die unter extremen Bedingungen eingesetzt werden kann. Hierfür verbringen die Spezialisten einen Grossteil ihrer Zeit damit, die Geräte und ihre Komponenten an ihre Leistungsgrenzen zu bringen, und auch darüber hinaus. „We break things“, sagt Bundrant lachend. Die Tests, denen die Produkte der Rugged-Serie unterzogen werden, sind dabei wesentlich strenger, als die Spezifikationen der verschiedenen Schutzarten und -Klassen vorschreiben. Verwendet werden die Geräte vornehmlich von Blaulichtorganisationen wie der Polizei und der Feuerwehr sowie dem Militär.


Erstaunlich sei, so Bundrant, dass die grösste Gefahr für die Komponenten nicht etwa von Stürzen herrühre, sondern von den konstanten Vibrationen in den Fahrzeugen. Und auch die Hitze sei nicht zu unterschätzen. In der Fahrerkabine eines Feuerwehrfahrzeugs werde es in Texas im Sommer bis zu 63 Grad warm. Die Herausforderung besteht gemäss dem Leiter des Labs darin, Kosten, Gewicht, Volumen des Gerätes und Entwicklungszeit gegeneinander abzuwägen. Ebenfalls spannend: Für die Einsatzkräfte ist die Hintergrundbeleuchtung der Tastatur enorm wichtig. Sie soll weiss sein für den Einsatz bei Tag, bei Nacht hingegen rot. Die entsprechende Technologie kommt aus dem Consumer-Bereich, genauer von Alienware, der Gaming-Marke von Dell. Umgekehrt flössen die Erkenntnisse und Entwicklungen aus dem Rugged Lab auch in andere Unternehmensbereiche, so Bundrant.

Wiederverwertung und Nachhaltigkeit

Die Klimaveränderungen gehen auch an einem Konzern wie Dell nicht spurlos vorbei, Nachhaltigkeit wird heute quasi erwartet. Das Design Sustainability Lab kümmert sich unter anderem um die Wiederverwertung von Materialien für die Produktion neuer Produkte und Verpackungen. Wie Scott O’Connell, Leiter der Abteilung Environmental Affairs & Global Producer Responsibility, erklärt, bestehen Verpackungen heute zu 93 Prozent aus recyceltem Karton. Auch wiederverwertetes Plastik wird zunehmend genutzt. Dieses stammt zu 25 Prozent aus dem Meer und zu 75 Prozent aus dem Recycling. Vornehmlich aus der Luftfahrtindustrie stammt hingegen der Kohlenstoff, den Dell vermehrt in wiederaufbereiteter Form für seine Notebooks nutzt. Dieser bietet gleich mehrere Vorteile: Die Kosten für das Recycling liegen bedeutend tiefer als diejenigen für die Neuproduktion und ausserdem ist recyceltes Carbon leichter und beständiger als neu produziertes, was die Entwicklung dünnerer und leichterer Bauteile ermöglicht. (luc)


Artikel kommentieren
Kommentare werden vor der Freischaltung durch die Redaktion geprüft.

Anti-Spam-Frage: Wieviele Fliegen erledigte das tapfere Schneiderlein auf einen Streich?
GOLD SPONSOREN
SPONSOREN & PARTNER