Cloudian und AWS bringen KI-Inferenz an die Edge
Cloudian bringt die HyperScale AI Data Platform auf AWS Local Zones und verlegt KI-Inferenz an die Edge. S3-kompatibler Speicher trifft auf GPU-Ressourcen. Laut Anbieter sind Latenzen im einstelligen Millisekundenbereich, Bereitstellung in Stunden und RAG für Unternehmensdokumente möglich.
Cloudian stellt die Cloudian HyperScale AI Data Platform auf AWS Local Zones vor. Die Lösung kombiniert S3-kompatiblen Enterprise-Speicher mit GPU-beschleunigter AWS-Infrastruktur und soll KI-Inferenz in Echtzeit ermöglichen. Dies funktioniert dann direkt an der Edge, ohne eigene Rechenzentren und ohne Vorabinvestitionen.
AWS Local Zones stellen Rechen-, Speicher- und Netzwerk-Ressourcen in unmittelbarer Nähe zu Ballungszentren und Industrie-Clustern bereit. Auf dieser Basis bietet Cloudian Unternehmen Zugriff auf eine Pay-as-you-go-KI-Infrastruktur, die nach eigener Aussage innerhalb weniger Stunden bereitgestellt werden kann.
Enterprise Document RAG: Zugriff auf internes Wissen
Der erste Anwendungsfall der neuen Plattform adressiert Enterprise Document RAG (Retrieval-Augmented Generation). Jahrzehntelang gespeichertes Unternehmenswissen wird über eine vertraute Chatbot-Oberfläche unmittelbar nutzbar.
»Unternehmen müssen sich nicht länger zwischen Performance, Datensouveränität und Wirtschaftlichkeit entscheiden«, betont Neil Stobart, CTO bei Cloudian. »Durch die Kombination unseres leistungsstarken, S3-kompatiblen Speichers mit der GPU-basierten Edge-Infrastruktur von AWS ermöglichen wir Echtzeit-RAG-Anwendungen mit minimaler Latenz – ganz ohne Kapitalaufwand.«
GPU-beschleunigte Leistung ohne Infrastrukturinvestition
Die Cloudian HyperScale AI Data Platform nutzt GPU-gestützte Server mit bis zu acht NVIDIA Hopper GPUs, 640 GB GPU-Speicher, AMD EPYC-Prozessoren der 3. Generation und einer Netzwerkbandbreite bis zu 3.200 Gbit/s.
»Erfolg mit Enterprise-KI an der Edge erfordert die Kombination aus Hochleistungs-Compute und -Storage genau dort, wo die Daten liegen«, erklärt Justin Boitano, Vice President Enterprise AI Products bei NVIDIA. »Die Integration der Cloudian HyperScale AI Data Platform mit Nvidia-beschleunigtem Computing auf AWS Local Zones erlaubt es Unternehmen, intelligente RAG-Anwendungen unmittelbar an ihren Daten zu betreiben.«
Zentrale Funktionen:
- KI-Inferenz an der Edge mit Latenzen im einstelligen Millisekundenbereich
- S3-kompatibler Speicher für volle Interoperabilität
- Integrierte Vektordatenbank für automatische Indexierung multimodaler Inhalte
- Lokale Datenverarbeitung bei Wahrung der Datensouveränität
- Nutzungsbasiertes Preismodell ohne Capex
- Bereitstellung in Stunden statt Monaten
Mit der Cloudian HyperScale AI Data Platform auf AWS Local Zones erhalten Unternehmen jeder Größe die Möglichkeit, KI-gestützte Workloads dort auszuführen, wo ihre Daten entstehen – laut Anbieter schnell, sicher und wirtschaftlich.
Datensouveränität: Compliance- und US-Cloud-Act-Risiken
Für deutsche Unternehmen bleibt Datensouveränität ein Knackpunkt: Da Cloudian auf AWS setzt, können Daten bei US-Anbietern grundsätzlich dem US-Cloud-Act unterliegen, der US-Behörden Zugriff auch auf im Ausland gespeicherte Daten von US-Unternehmen ermöglicht. Der Speicherort allein ist damit nicht ausschlaggebend.
Echte Souveränität erfordert technische und organisatorische Entkopplung: kundenseitig kontrollierte Verschlüsselung mit vollständiger, außerhalb des Anbieterkontrollbereichs liegender Schlüsselhoheit, klare Trennung von Daten und Betrieb, streng genehmigter Just-in-Time-Support, minimierte und auf die EU begrenzte Telemetrie sowie überprüfbare Kontrollen durch unabhängige Audits. Interessenten sollten prüfen, ob das Angebot mit ihren Compliance-Richtlinien kollidiert und welche zusätzlichen Schutzmaßnahmen notwendig sind.