Nvidia kündigt Vera-CPU für agentische KI an
Nvidia erweitert sein Prozessor-Portfolio um eine neue CPU-Generation: Vera. Der Prozessor ist speziell für sogenannte agentische KI-Workloads ausgelegt und soll klassische CPU-Engpässe in KI-Infrastrukturen adressieren.
Mit der neuen CPU-Generation Vera positioniert sich NVIDIA noch stärker als Komplettanbieter für Rechenzentrums-Infrastrukturen. Die CPU übernimmt dabei nicht nur klassische Rechenaufgaben, sondern soll gezielt die Orchestrierung von Datenbewegung, Speicherzugriffen und Workflows innerhalb beschleunigter Systeme übernehmen.
Im Fokus stehen sogenannte agentische KI-Systeme. Diese gehen über klassische Inferenz hinaus und führen mehrstufige, autonome Aufgaben aus. Entsprechend steigt der Bedarf an effizienter Steuerung zwischen CPU, GPU und Speicher.
Erste Vera-Systeme sollen im Laufe des Jahres 2026 an ausgewählte Partner und Hyperscaler ausgeliefert werden. Eine breitere Verfügbarkeit von auf der Rubin-Plattform basierenden Infrastrukturen wird für die zweite Jahreshälfte 2026 erwartet. Ein flächendeckender Einsatz in Rechenzentren dürfte sich jedoch erst 2027 abzeichnen.
Architektur auf hohe Single-Core-Leistung ausgelegt
Technisch basiert Vera auf einer eigenen Arm-Architektur (Olympus-Kerne) und ist laut Nvidia auf besonders hohe Single-Thread-Performance ausgelegt.
Der Hersteller spricht von:
- bis zu 50 Prozent mehr Leistung gegenüber klassischen CPUs
- etwa doppelt so hoher Energieeffizienz
Auch externe Berichte bestätigen den Fokus auf Single-Core-Leistung und Effizienz, insbesondere für KI-nahe Workloads wie Skripting, Datenanalyse oder Kompilierung.
Bestandteil der neuen Vera-Rubin-Plattform
Die CPU ist Teil der neuen Vera Rubin-Plattform, mit der Nvidia seine KI-Infrastruktur als ganzheitlichen Stack positioniert. Dazu gehören neben der CPU auch neue GPUs, DPUs sowie komplette Rack-Systeme.
Ein zentrales Element sind skalierbare Rack-Designs mit bis zu 256 CPUs, die flüssigkeitsgekühlt betrieben werden und auf hohe Parallelität ausgelegt sind.
Vera als Antwort auf steigende Anforderungen bei KI-Inferenz
Hintergrund der Entwicklung ist der wachsende Bedarf an Inferenz-Leistung. Während GPUs die eigentliche KI-Berechnung übernehmen, werden CPUs zunehmend zum Flaschenhals, etwa bei Datenbereitstellung oder Steuerlogik.
Nvidia adressiert dies, indem Vera eng mit anderen Komponenten wie DPUs und Storage-Architekturen verzahnt wird. Ziel ist es, Latenzen zu reduzieren und die GPU-Auslastung zu verbessern.
Nvidia baut CPU-Strategie aus
Mit Vera treibt Nvidia seine CPU-Strategie weiter voran und positioniert sich stärker im Wettbewerb mit klassischen x86-Anbietern. Anders als klassische Server-CPUs ist Vera jedoch klar auf KI-Infrastrukturen zugeschnitten.
Die Entwicklung zeigt, dass sich Rechenzentrumsarchitekturen zunehmend hin zu spezialisierten, eng integrierten Systemen entwickeln. CPU, GPU, Netzwerk und Storage wachsen funktional zusammen – mit klarer Ausrichtung auf KI-Workloads.