Der Datenflut Herr werden
Quelle: Pixabay,geralt
ADVERTORIAL

Der Datenflut Herr werden

Schneller, besser, präziser – KI-Modelle revolutionieren zunehmend Analyse- und Auswertungsprozesse in sämtlichen Bereichen. Während die dafür benötigte riesige Datenmenge oft bereits in stillen Reserven parat liegt, scheitert es meist am richtigen Datenmanagement. Denn nur mit entsprechender IT-Architektur lässt sich das volle Potenzial von künstlicher Intelligenz ausschöpfen.
15. Dezember 2021

     

Heute fallen jede Sekunde enorme Mengen an Daten an. Ein Schatz, der wesentlich vielfältiger genutzt werden kann, als es meist der Fall ist. Etwa in der Industrie zur Prozessautomation, im Gesundheitswesen für beschleunigte Kontaktpersonen-Nachverfolgung, in der Pharmazie, um Impfstoffe oder Medikamente schneller zu entwickeln oder auch im Alltag, um das Leben für Menschen mit Einschränkungen zu erleichtern. Unterstützung leistet hier künstliche Intelligenz (KI), oder Englisch AI, die mit Hilfe und Auswertung riesiger Datenmengen erlernt, eigenständig Probleme zu bearbeiten und menschenähnliche Entscheidungen treffen zu können. Beim Dateninput handelt es sich typischerweise um Fotos, Text, Zahlen, Videos oder Audiodateien. Mit wachsender Datenmenge verbessert sich naturgemäss die Qualität der Vorhersage.

Grenzen des menschlichen Gehirns

Dort wo das menschliche Gehirn aufgrund der schieren Datenmenge nicht mehr mitkommt, punktet KI. Man denke allein an die Forschung am menschlichen Genom: 3 Milliarden Basenpaare gilt es zu analysieren, um beispielsweise in der Krebsdiagnostik Polymorphismen und somatische Mutationen herauszufiltern. Oder die Entwicklung von Medikamenten: mit KI-Methoden hat man in Ontario, USA, Tausende von Medikamenten gescannt, um in der Behandlung von Covid schneller voranzukommen. Mit der gleichen Methode wurde die komplette biomedizinische Literatur zum Thema Covid recherchiert und verschlagwortet. Forscher weltweit wurden so auf den aktuellen Stand gebracht. Ohne KI wäre das ein Prozess, der Jahre dauern würde. In einem Unternehmen der Finanzbranche wäre ein Mathematiker schnell überfordert, müsste er täglich alle Transaktionen im Kreditkartengeschäft durchforsten, um Auffälligkeiten zu entdecken. KI kann währenddessen sogar aus den Mustern eigenständig Rückschlüsse auf betrügerische Aktivitäten ziehen. Ebenso enorm ist die Rechenleistung KI-basierter Assistenzsysteme für Sehbehinderte, die laufend komplexe Umgebungen erkennen und in Sprache umwandeln.
Keine KI ohne geeignete IT-Infrastruktur
Grundlegende Voraussetzung für die vielfältigen Möglichkeiten der KI sind allerdings die verfügbare Datenmenge, auf deren Basis eine Entscheidung getroffen werden kann. Erst wenn genügend Informationen zu einem Sachverhalt verfügbar sind, können KI-Mechanismen lernen, zu differenzieren und mittels intelligenter Auswertung Ergebnisse oder auch Handlungsempfehlungen zu formulieren. Bei riesigen Datenmengen werden die richtige Hardware sowie IT-Architektur essenziell, um die anfallenden Datenmengen und Zugriffe bewältigen und entsprechend verwalten zu können. Das bedeutet im Umkehrschluss, dass ohne das richtige Datenmanagement keine gewinnbringende Nutzung von KI-Modellen möglich ist. Wenn das die eigenen Unternehmenskapazitäten oder das Know-How übersteigt, bieten sich Services von externen Dienstleistern an, um die Verwaltung der Daten möglichst effizient zu gestalten.
Gerade in der Anlernphase eines Neuronalen Netzes – sei es für das Medikamenten-Screening oder die Kreditkarten-Transaktionen oder für Text-Sprach-Anwendungen – müssen die Entwickler viele Terabytes an Daten segmentieren, ihre Modelle trainieren und gegen andere Modelle testen. Dabei benötigen sie häufig Zugriff auf alle Daten gleichzeitig. Das sind in der Regel ein paar Dutzend Terabytes, also mehr, als im RAM oder in einem lokalen Cache eines normalen Computers Platz hat. Ein generatives Modell kann es erforderlich machen, dass eine Datei statt nur einmal, hunderte Male gelesen wird. Oft arbeiten mehrere Teams an demselben Modell und müssen gleichzeitig auf dieselben Daten zugreifen. Oft handelt es sich um sehr kleine Dateien, auf die so schnell wie möglich zugegriffen werden muss. Das verlangt zum Beispiel Flexibilität und Echtzeitzugriff – also Höchstleistungen der Speichersysteme, denn die Ansprüche an Netzwerke, I/O-Bandbreite, I/O-Geschwindigkeiten und Data-Feeds sind enorm. Die Speichermedien und I/O-Systeme für das Lesen und Schreiben der Daten bilden in der Entwicklung von Machine-Learning-Systemen einen Flaschenhals, den es zu überwinden gilt.
Diese Aufgabe zu lösen, haben sich IT-Spezialisten wie NetApp vorgenommen. So hat der globale Cloud- und Daten-orientierte Softwareanbieter speziell für die DGX Supercomputer von NVIDIA die KI-Architektur NetApp ONTAP AI entwickelt. Es vereinfacht und beschleunigt den Weg von Daten zwischen ihrem Entstehungsort und dem Rechenzentrum für Deep-Learning (DL)-Prozesse. In Kombination mit einem der schnellsten Cloud-integrierbaren Flash-Speichersysteme, NetApps AFF A800, erreicht das System in einem 24-Node-Cluster eine Latenz von weniger als 200 Mikrosekunden und einen Durchsatz von bis zu 300 GB/s. Die DGX von NVIDIA liefert im Vergleich zu einem üblichen Prozessor mit 3 teraFLOPS die 56-fache Leistung. Ein DL-Modell, dessen Kalkulation normalerweise 6,25 Tage benötigt, kann nun 75-mal schneller berechnet werden. Nur so kann es gelingen, mit einer KI-Lösung oder einem DL-Projekt einen realen Mehrwert zu generieren, sei es für das Aufdecken von betrügerischen Kreditkarten-Transaktionen, in der Entwicklung von Medikamenten oder dem Automatisieren von industriellen Prozessen.

https://www.netapp.com/de/artificial-intelligence/

GOLD SPONSOREN
SPONSOREN & PARTNER