KI macht grosse Schritte
Quelle: IBM Research

KI macht grosse Schritte

Die Forschung im Bereich der künstlichen Intelligenz ist in den letzten Jahren mit schnellen Schritten vorangekommen. Jetzt nähert sich KI der Funktionsweise des menschlichen Gehirns an und gewinnt weiter an Bedeutung.

Artikel erschienen in Swiss IT Magazine 2021/12

     

Man stelle sich vor, dieser Artikel wäre von einer Maschine geschrieben worden. Ein Mensch hätte nur den Titel oder die einleitende Frage vorgegeben. Wenn wir bereit sind, KI-gesteuerte Autos für uns fahren zu lassen, dann sollten wir nicht überrascht sein, wenn KI auch beim Schreiben von Artikeln mit dem Menschen mithalten oder uns dereinst sogar übertreffen könnte, oder?

Durch die rasante Entwicklung auf dem Gebiet der künstlichen Intelligenz in den letzten zehn Jahren ist sie heute nicht mehr aus unserem Alltag wegzudenken. Der Startschuss dieser Entwicklung fiel allerdings schon wesentlich früher. 1958 schuf Frank Rosenblatt das erste künstliche neuronale Netz. Es konnte lernen, indem es iterativ die Gewichte der Eingaben verstärkte, die für das Erreichen eines gewünschten Ergebnisses wichtig waren, während es die anderen verringerte. «Ein IBM 704 – ein 5 Tonnen schwerer Computer von der Grösse eines Zimmers – wurde mit einer Reihe von Lochkarten gefüttert. Nach 50 Versuchen brachte der Computer sich selbst bei, links markierte Karten von rechts markierten Karten zu unterscheiden», so Rosenblatt. Dies war die Demonstration des einschichtigen Perzeptrons, oder, wie sein Schöpfer sagte, «die erste Maschine, die in der Lage war, eine originelle Idee zu haben».


Aber die KI brauchte ihre Zeit, um zu reifen. Mehrere Schlüsselkomponenten mussten erst auf breiter Basis verfügbar werden. Darunter etwa grosse Datenmengen als Treibstoff für die KI. Big Data brachte eine praktisch kostenlose Versorgung mit strukturierten und unstrukturierten Daten mit sich. Mit GPUs (Graphics Processing Units) wurden leistungsstarke Rechenmaschinen entwickelt, die diese Inhalte effizient verarbeiten können. Beides zusammen verlieh der KI einen veritablen Entwicklungsschub.

Verantwortungsvolle Entwicklung von KI

Dies wird besonders deutlich, wenn man sich die ersten neuronalen Netze ansieht, die mit der Bilddatenbank Imagenet trainiert wurden: 2012 waren solche Netze durch 60 Millionen Parameter definiert und erreichten bei der Klassifizierung von Bildern in verschiedene Klassen eine Top-5-Genauigkeit von 84,6 Prozent. Mittlerweile haben die besten Modelle 480 Millionen Parameter und erreichen eine Top-5-Genauigkeit von 98,8 Prozent – besser als Menschen. Für anspruchsvollere Aufgaben in der Verarbeitung natürlicher Sprache, wie zum Beispiel für die Vorhersage oder Zusammenfassung von Texten, gibt es inzwischen gigantische Modelle mit 1 Billion Parametern oder mehr.


Dies bringt auch Herausforderungen mit sich, beispielsweise bezüglich Bias, Robustheit oder Erklärbarkeit, die in den Fokus von Experten gerückt sind. Denn eines ist klar: Um das Potenzial von KI für Industrie und Gesellschaft zukünftig auszuschöpfen, darf KI keine Black Box sein. Es braucht die Zusammenarbeit von Industrie, Politik und Wissenschaft, um die Rahmenbedingungen für die verantwortungsvolle Entwicklung und Anwendung von KI zu definieren. IBM hat sich als erstes Technologieunternehmen grundlegenden Prinzipien für eine vertrauenswürdige KI verschrieben und frühzeitig seine Forschung und Entwicklung danach ausgerichtet. Tools und Best Practices für die Entwicklung vertrauenswürdiger KI aus der IBM-Forschung macht das Unternehmen regelmässig frei zugänglich und für alle nutzbar.

Die nächsten Schritte

Mit Blick auf die technische Weiterentwicklung von KI besteht die wohl grösste Herausforderung in der Anzahl der Berechnungen und dem Speicherplatz, die sowohl in der anfänglichen Trainingsphase als auch in der viel häufigeren Inferenzphase benötigt werden, wenn Vorhersagen oder Klassifizierungen wiederholt vorgenommen werden. Ein bekannter Weg zur Senkung des Energieverbrauchs ist eine Reduktion der Präzision während des Trainings oder der Inferenz, die jedoch die resultierende Genauigkeit nicht beeinträchtigen darf, was diesen Ansatz wiederum limitiert.


Eine Klasse neuartiger KI-Hardware-Engines schlägt einen anderen Weg zur Senkung des Energieverbrauchs ein, indem sie das energieintensive Verschieben von Daten zwischen Speicher und Prozessor minimieren. Das traditionelle Paradigma, das als von-Neumann-Computing bekannt ist, beruht auf dem Verschieben von Daten in und aus dem Speicher, um Operationen in einer bestimmten Prozessoreinheit durchzuführen. Dieses Verschieben ist der eigentliche Energiefresser und verbraucht weit mehr als die Rechenoperationen selbst. Bei KI-Hardware werden Daten physisch in der Nähe der Verarbeitungseinheiten gehalten oder sogar Speicher und Verarbeitung kombiniert. Letzteres ist das so genannte In-Memory-Computing. Dabei wird durch die physische Kreuzschienenanordnung von memristiven Bauteilen, die die Gewichte des neuronalen Netzes enthalten und durch Anlegen einer Spannung an jede Zeile, die einem Eingang eines Neurons entspricht, die gewichtete Summe aller Eingänge praktisch sofort aus dem resultierenden Strom abgelesen, der aus jeder Spalte kommt. Es handelt sich um eine direkte Anwendung der Ohmschen und Kirchhoffschen Schaltungsgesetze. IBM Research – inbesondere auch am IBM-Labor in Rüschlikon – treibt die Entwicklung von derartigen AI-Prozessoren massgeblich voran und gehört auf diesem Gebiet zur Weltspitze. Jüngst erzielte das Team einen weiteren Meilenstein mit dem Prototyp eines analogen In-Memory-Rechenkerns, der einen Array nichtflüchtiger, memristiver Bauelemente verwendet und schon als reiner Forschungsprototyp eine weit überlegene Leistungseffizienz und -dichte im Vergleich zu heute verfügbaren hochoptimierten GPUs aufweist.

Annäherung an das menschliche Gehirn

Darüber hinaus gibt es zwei weitere Stossrichtungen, die Aufmerksamkeit verdienen. Beide zielen darauf ab, sich der Funktionsweise oder den Fähigkeiten unseres eigenen Gehirns anzunähern. Die erste Richtung, die so genannten Spiking Neural Networks, wendet sich gegen die zunehmende Komplexität künstlicher neuronaler Netze und verfolgt stattdessen einen biologisch plausibleren Weg mit einfacheren Konzepten, die von den jüngsten Fortschritten in der Neurobiologie inspiriert sind. Dies umfasst beispielsweise die Fähigkeit, Informationen in Form von Spikes ereignisbasiert und asynchron zu übertragen, die kontinuierliche Anpassungsfähigkeit mit lokalem und Online-Lernen (die im Gegensatz zur etablierten Backpropagation-Methode steht) sowie die Fähigkeit, kurz- und langfristige synaptische Plastizität von Verbindungen zwischen Neuronen zu modellieren.

Die zweite Forschungsrichtung ist die neurosymbolische KI, die neuronale Netze, die Daten statistisch klassifizieren, mit dem so genannten symbolischen regelbasierten Ansatz der KI kombiniert. So können die jeweiligen Unzulänglichkeiten der beiden Ansätze behoben werden. Tiefe neuronale Netze sind etwa nicht in der Lage, ihre Eingaben in verschiedene Konzepte zu zerlegen (in den Neurowissenschaften als Bindungsproblem bekannt), während der symbolische Ansatz keine Eingaben in Form von unstrukturierten Daten akzeptiert (bekannt als Problem der Symbolerdung).


Insgesamt zielen beide Forschungsrichtungen darauf ab, eine intelligentere KI zu schaffen: Tatsächlich gibt es bereits Ergebnisse, die zeigen, dass sie Menschen beim Lösen von bestimmten IQ-Testaufgaben übertreffen können, wie zum Beispiel bei den bekannten progressiven Raven-Matrizen, die eine gewisse Kreativität erfordern, um die anhand von Beispielen gezeigte verborgene Logik zu entdecken. Wäre dies die Art von Kreativität, die man braucht, um etwa inspirierte und originelle Artikel zu schreiben? Sie kommt dieser zumindest näher.

Accelerated Discovery

Von grossem Interesse für die Industrie ist die Frage, wie Unternehmen KI nutzen können, um ihre F&E- und Innovationsprozesse zu beschleunigen. Zunächst ist es wichtig, zu erkennen, dass die wissenschaftliche Methode, die wir über Jahrhunderte entwickelt haben, sich in Forschung und Entwicklung bewährt hat. Sie ist aber langsam und kostspielig. Angesichts der komplexen Problemstellungen und deren Dringlichkeit, von neuen Pestiziden für eine ökologischere Landwirtschaft über nachhaltigere Materialien und eine umweltfreundlichere Herstellung bis hin zur raschen Entwicklung neuer medizinischer Wirkstoffe, stehen Unternehmen vor einem Engpass. Hier kann KI, insbesondere in Kombination mit Supercomputing, Hybrid Cloud und bald auch Quantum Computing, eine massive Beschleunigung des wissenschaftlichen Prozesses auslösen. Dieser Accelerated Discovery genannte Ansatz ist keine Zukunftsmusik. Er bildet einen Forschungsschwerpunkt von IBM Research und die Entwicklung entsprechender Tools, Anwendungen und deren Integration über die Cloud ist mittlerweile bereits weit fortgeschritten. So konnten Teams bei IBM Research in einer Pilotstudie demonstrieren, wie sie Kandidaten für neue nachhaltigere Materialien in der Halbleiterfertigung mit 10-fach geringerem Zeit- und Kostenaufwand entdecken konnten.


In Zusammenarbeit mit Industriepartnern werden die Möglichkeiten von Accelerated Discovery nun auch in anderen Industrien erschlossen, etwa der Pharma- oder Chemieindustrie. Für Unternehmen ist die Auseinandersetzung mit dem Thema von zentraler Zukunftsbedeutung. Es ist nicht die KI allein, sondern die Integration und Verknüpfung der verschiedenen Rechenressourcen und -fähigkeiten mit KI, die zum kritischen Erfolgsfaktor werden dürften.

Der Autor

Robert Haas leitet seit 2018 bei IBM Research die weltweite Systemforschung für Hybrid Cloud und künstliche Intelligenz. Nach seinem Abschluss an der EPFL und der Université de Nice-Sophia-Antipolis (Frankreich) begann er 1996 seine Karriere im Bereich der Netzwerke bei IBM Research in Yorktown. Danach trat er in das Zürcher Labor ein, promovierte an der ETH, entwickelte den neuen KMIP-Standard für Sicherheit und schloss seinen MBA an der Universität Warwick (UK) ab, bevor er in die USA zurückkehrte und im Team für Unternehmensstrategie in Armonk arbeitete. Dort leitete er den Übergang von Storage zur Cloud ein und wurde CTO für Storage Systems in Europa. Er ist ein weltweit anerkannter Experte mit mehr als 50 Publikationen und Patenten.



Artikel kommentieren
Kommentare werden vor der Freischaltung durch die Redaktion geprüft.

Anti-Spam-Frage: Aus welcher Stadt stammten die Bremer Stadtmusikanten?
GOLD SPONSOREN
SPONSOREN & PARTNER