Qualcomm boostet Inference Processing
Quelle: Qualcomm

Qualcomm boostet Inference Processing

Mit Cloud AI 100 kündigt Qualcomm eine Hardwarelösung für die Inferenzverarbeitung an, die mehr als zehnmal so viel Leistung pro Watt bringen soll als vergleichbare Lösungen.
10. April 2019

     

Qualcomm hat einen Beschleuniger für bestimmte KI-Funktionen angekündigt. Das Produkt Namens Cloud AI 100 soll das Inference-Processing im Vergleich zu bestehenden, in der Meldung jedoch nicht näher genannten Lösungen mehr als zehnfach beschleunigen und kommt in Form einer PCI-Erweiterungskarte daher. Konkret vergleicht der Hersteller die Leistung mit seinen aktuellen Smartphone-SoCs: Cloud AI 100 soll punkto KI über 50 mal mehr Leistung bieten als ein Snapdragon 855.


Als Steckkarte ist Cloud AI 100 nicht primär auf niedrigen Energiebedarf ausgelegt, sondern auf möglichst hohe Effizienz und Skalierbarkeit. Das Produkt ist demnach vor allem auf die Betreiber von Cloud-Services in grossen Rechenzentren ausgerichtet und dürfte mit Hardware von Nvidia, Intel und Google konkurrieren. Beim Inference-Processing handelt es sich um die Generierung von Schlussfolgerungen auf Basis von antrainierten, auf Performance optimierten Modellen. (ubi)




Artikel kommentieren
Kommentare werden vor der Freischaltung durch die Redaktion geprüft.

Anti-Spam-Frage: Wieviele Fliegen erledigte das tapfere Schneiderlein auf einen Streich?
GOLD SPONSOREN
SPONSOREN & PARTNER