Das Jahrzehnt der Daten

Das Jahrzehnt der Daten

(Quelle: SITM)
7. Dezember 2019 - Dell Technologies betreibt in Austin im US-Bundesstaat Texas eine ganze Reihe von Forschungseinrichtungen, die sich mit den Technologien von morgen auseinandersetzen. Ein Augenschein vor Ort.
Artikel erschienen in IT Magazine 2019/12
Das US-amerikanische Technologieunternehmen Dell bezeichnet die kommende Dekade in seiner Strategie-Roadmap als The Data Decade, also das Jahrzehnt der Daten. Freilich ist dieser Ausdruck alles andere als neu und wurde schon für das bald auslaufende Jahrzehnt verwendet. Dennoch würde wohl kaum jemand die Vorhersage infrage stellen, dass die Menge der stündlich und täglich anfallenden Daten in den kommenden Jahren weiter stark wachsen wird. Ein Grund dafür wird gemeinhin in der zunehmenden Bedeutung des Edge Computing verortet. Immer mehr vernetzte Geräte werden immer mehr Daten produzieren. Man wird diese miteinander verknüpfen und auswerten wollen, um daraus Erkenntnisse zu gewinnen und um sie zu monetarisieren. Dies stellt die IT-Industrie wie auch die Gesellschaft vor grosse Herausforderungen, denen man heute noch nicht gewachsen ist. IT-Unternehmen auf der ganzen Welt liefern sich deshalb ein Rennen um die Datenhoheit.

Michael Dell, CEO von Dell Technologies, ist der festen Überzeugung, dass Daten der Schlüssel sind, um eine ganze Reihe von Problemen auf unserem Planeten zu lösen. Gleichzeitig verspricht das tiefe Verständnis dieser Daten und ihrer Verwendung auch grosse Gewinne. Das Unternehmen betreibt deshalb auf einem weitläufigen Campus in der texanischen Hauptstadt Austin mehrere Forschungslabore, in denen die Technologien von morgen erdacht, entwickelt und erprobt werden. "Swiss IT Magazine" konnte sechs dieser Einrichtungen in Augenschein nehmen.
Im Futuresville Lab, das dem Büro des CTO von Dell unterstellt ist, werden Server-Architekturen entwickelt, die erst in drei bis fünf Jahren zur Marktreife gelangen.
Garima Kochhar präsentiert in Dells HPC/AI Lab eine Server-Platine, deren Prozessor mit Wasser gekühlt wird. Dies ermöglicht eine kompaktere Bauweise der Server und steigert deren Effizienz.
An der Edge kommen nicht nur mobile Geräte zum Einsatz. Dell Entwickelt seit Jahren auch Server-Einheiten in speziellen Stahlcontainern, die sich bei Bedarf zu mobilen Rechenzentren zusammenschliessen lassen.
Die Notebooks werden immer kleiner und dünner. Eine Herausforderung für das Wireless Lab, das unter anderem die Antennen entwickelt, die in den Geräten zum Einsatz kommen.
Im Rugged Lab entstehen besonders widerstandsfähige Geräte, die beispielsweise von Blaulichtorganisationen wie der Feuerwehr oder der Polizei sowie dem Militär genutzt werden.
Vornehmlich aus der Luftfahrtindustrie stammt das Carbon, das Dell recycelt und für die Produktion verschiedener Produkte nutzt. Es ist günstiger, leichter und auch beständiger als neu produziertes Carbon.


Servertechnologien von morgen

Eines dieser Labs wurde auf den Namen Futuresville getauft und untersteht dem Unternehmensbereich Server & Infrastructure Systems und dem Büro des CTO von Dell Technologies. Hier entstehen Servertechnologien, die erst drei bis fünf Jahre später zur Marktreife gelangen. Das Lab kann auf eine ganze Reihe von Entwicklungen zurückblicken und war unter anderem an der Ausarbeitung der Spezifikation für den NVMe-Standard beteiligt, ausserdem bringt es sich aktiv in das Gen-Z-Konsortium ein. Derzeit arbeiten die Ingenieure dieser Abteilung an mehreren grossen Projekten, mit denen Serverinfrastrukturen entscheidend vorangebracht werden sollen. Composable Infrastructure etwa steht für Server-Disaggregation beziehungsweise den Versuch, Server zu entwickeln, die sich je nach Bedarf virtuell und modular zusammenstellen lassen, erklärt Bill Dawkins, Vice President und Fellow der Abteilung Server & Infrastructure Systems. Dabei werden die Hardware-Ressourcen in grossen Pools gesammelt und lassen sich von dort aus über eine Management Software dynamisch allozieren. Ziele einer solchen Architektur sind unter anderem die effizientere Bereitstellung von Hardware sowie die Senkung der Energiekosten für den Betrieb der Server-Infrastruktur.

Mit Visual Analytics wiederum versuchen die Spezialisten von Dell, die Darstellung der Telemetriedaten der Soft- und Hardware in Servern zu verbessern. Die Herausforderung besteht darin, die stark wachsende Datenflut, die Server produzieren, einfacher fassbar und verwertbar zu machen, sowohl für die Kunden als auch für den Hersteller selbst, der sich davon verspricht, die eigene Technologie weiter verbessern zu können. Die Visualisierung von Big Data soll letztlich den IT-Administratoren als Entscheidungsgrundlage für den Einsatz ihrer Hardware-Ressourcen dienen, so Senior Distinguished Engineer Jon Hass. Getestet werden deshalb auch neue Ansätze wie die Visualisierung im virtuellen Raum mittels VR-Headsets.
 
Seite 1 von 4

Neuen Kommentar erfassen

Anti-Spam-Frage Wieviele Fliegen erledigte das tapfere Schneiderlein auf einen Streich?
Antwort
Name
E-Mail
SPONSOREN & PARTNER