Nvidia kündigt Vera-CPU für agentische KI an

Nvidia kündigt Vera-CPU für agentische KI anNvidia erweitert sein Prozessor-Portfolio um eine neue CPU-Generation: Vera. Der Prozessor ist speziell für sogenannte agentische KI-Workloads ausgelegt und soll klassische CPU-Engpässe in KI-Infrastrukturen adressieren.

Mit der neuen CPU-Generation Vera positioniert sich NVIDIA noch stärker als Komplettanbieter für Rechenzentrums-Infrastrukturen. Die CPU übernimmt dabei nicht nur klassische Rechenaufgaben, sondern soll gezielt die Orchestrierung von Datenbewegung, Speicherzugriffen und Workflows innerhalb beschleunigter Systeme übernehmen.

Im Fokus stehen sogenannte agentische KI-Systeme. Diese gehen über klassische Inferenz hinaus und führen mehrstufige, autonome Aufgaben aus. Entsprechend steigt der Bedarf an effizienter Steuerung zwischen CPU, GPU und Speicher.

Erste Vera-Systeme sollen im Laufe des Jahres 2026 an ausgewählte Partner und Hyperscaler ausgeliefert werden. Eine breitere Verfügbarkeit von auf der Rubin-Plattform basierenden Infrastrukturen wird für die zweite Jahreshälfte 2026 erwartet. Ein flächendeckender Einsatz in Rechenzentren dürfte sich jedoch erst 2027 abzeichnen.

Anzeige

Architektur auf hohe Single-Core-Leistung ausgelegt

Technisch basiert Vera auf einer eigenen Arm-Architektur (Olympus-Kerne) und ist laut Nvidia auf besonders hohe Single-Thread-Performance ausgelegt.

Der Hersteller spricht von:

  • bis zu 50 Prozent mehr Leistung gegenüber klassischen CPUs
  • etwa doppelt so hoher Energieeffizienz

Auch externe Berichte bestätigen den Fokus auf Single-Core-Leistung und Effizienz, insbesondere für KI-nahe Workloads wie Skripting, Datenanalyse oder Kompilierung.

Bestandteil der neuen Vera-Rubin-Plattform

Die CPU ist Teil der neuen Vera Rubin-Plattform, mit der Nvidia seine KI-Infrastruktur als ganzheitlichen Stack positioniert. Dazu gehören neben der CPU auch neue GPUs, DPUs sowie komplette Rack-Systeme.

Ein zentrales Element sind skalierbare Rack-Designs mit bis zu 256 CPUs, die flüssigkeitsgekühlt betrieben werden und auf hohe Parallelität ausgelegt sind.

Vera als Antwort auf steigende Anforderungen bei KI-Inferenz

Hintergrund der Entwicklung ist der wachsende Bedarf an Inferenz-Leistung. Während GPUs die eigentliche KI-Berechnung übernehmen, werden CPUs zunehmend zum Flaschenhals, etwa bei Datenbereitstellung oder Steuerlogik.

Nvidia adressiert dies, indem Vera eng mit anderen Komponenten wie DPUs und Storage-Architekturen verzahnt wird. Ziel ist es, Latenzen zu reduzieren und die GPU-Auslastung zu verbessern.

Nvidia baut CPU-Strategie aus

Mit Vera treibt Nvidia seine CPU-Strategie weiter voran und positioniert sich stärker im Wettbewerb mit klassischen x86-Anbietern. Anders als klassische Server-CPUs ist Vera jedoch klar auf KI-Infrastrukturen zugeschnitten.

Die Entwicklung zeigt, dass sich Rechenzentrumsarchitekturen zunehmend hin zu spezialisierten, eng integrierten Systemen entwickeln. CPU, GPU, Netzwerk und Storage wachsen funktional zusammen – mit klarer Ausrichtung auf KI-Workloads.

Weiterführende Links: