Qualcomm boostet Inference Processing

von Urs Binder

10. April 2019 - Mit Cloud AI 100 kündigt Qualcomm eine Hardwarelösung für die Inferenzverarbeitung an, die mehr als zehnmal so viel Leistung pro Watt bringen soll als vergleichbare Lösungen.

Qualcomm hat einen Beschleuniger für bestimmte KI-Funktionen angekündigt. Das Produkt Namens Cloud AI 100 soll das Inference-Processing im Vergleich zu bestehenden, in der Meldung jedoch nicht näher genannten Lösungen mehr als zehnfach beschleunigen und kommt in Form einer PCI-Erweiterungskarte daher. Konkret vergleicht der Hersteller die Leistung mit seinen aktuellen Smartphone-SoCs: Cloud AI 100 soll punkto KI über 50 mal mehr Leistung bieten als ein Snapdragon 855.

Als Steckkarte ist Cloud AI 100 nicht primär auf niedrigen Energiebedarf ausgelegt, sondern auf möglichst hohe Effizienz und Skalierbarkeit. Das Produkt ist demnach vor allem auf die Betreiber von Cloud-Services in grossen Rechenzentren ausgerichtet und dürfte mit Hardware von Nvidia, Intel und Google konkurrieren. Beim Inference-Processing handelt es sich um die Generierung von Schlussfolgerungen auf Basis von antrainierten, auf Performance optimierten Modellen.

Copyright by Swiss IT Media GmbH / 2024