Anlässlich der diesjährigen Cloud-Next-Konferenz hat
Google die mittlerweile bereits achte Generation seiner KI-Chips namens Tensor Processing Unit, kurz TPU, vorgestellt. Wie der Technologieriese in einem
Blog-Beitrag erklärt, wurde das TPU-Linup um die beiden Chip-Modelle TPU 8t und TPU 8i erweitert. Während der TPU 8t speziell für das Training von KI-Modellen entwickelt wurde, dient das Modell 8i der Ausführung von KI-Aufgaben.
Der TPU 8t, von Google als Training Powerhouse bezeichnet, soll die Modellentwicklung von Monaten auf Wochen verkürzen. Grösstmöglicher Rechendurchsatz und gemeinsame Speichernutzung sollen es möglich machen, dass pro Pod die dreifache Rechenleistung der Vorgängergeneration ermöglicht wird. Hinzu kommt eine massive Skalierbarkeit: Ein einzelner 8t-Superpod soll sich auf 9600 Chips mit zwei Petabyte gemeinsam genutztem Speicher skalieren lassen.
Der TPU 8i wurde derweil entwickelt, um komplexe, iterative Arbeitsabläufe diverser Agenten zu bewältigen. So kombiniert der Chip 288 GB High-Bandwidth-Memory mit 384 MB On-Chip SRAM, dreimal mehr als das Vorgängermodell. Unter dem Strich verspricht Google eine um 80 Prozent bessere Performance pro Dollar als bei früheren Generationen.
Beide Chips sollen im weiteren Jahresverlauf allgemein verfügbar werden und können dann im Rahmen von Googles Cloud-basiertem Supercomputing-System AI Hypercomputer genutzt werden.
(rd)