RNT Yeren Local AI: Generative KI fürs eigene Rechenzentrum
Mit Yeren Local AI bietet RNT eine Appliance für den lokalen Betrieb generativer KI an. Sie kombiniert Server-Hardware mit einer KI-Plattform für Suche, Assistenten und die Auswertung interner Daten. Die Lösung richtet sich an Unternehmen und IT-Dienstleister, die KI im eigenen Rechenzentrum nutzen wollen, ohne sensible Informationen dauerhaft an Cloud-Dienste zu übertragen.
RNT Rausch und Co-mind.ai positionieren Yeren Local AI als schlüsselfertige On-Premises-KI-Appliance für Unternehmen, Managed-Service-Provider und Organisationen in regulierten Branchen. Die Lösung kombiniert Hardware von RNT Rausch mit der Secure-AI-Plattform von Co-Mind.ai und soll laut Anbieter in Europa entwickelt und gefertigt werden. Ziel sei ein lokal betreibbares KI-System, das generative KI, Retrieval-Augmented Generation, Datenanbindung und Zugriffskontrolle in einer kontrollierten IT-Umgebung zusammenführt.
Im Kern adressiert das Produkt weniger die Wahl eines bestimmten Sprachmodells als die Frage, wie interne Daten sicher und nachvollziehbar für KI-Anwendungen nutzbar werden. Damit richtet sich Yeren Local AI an Organisationen, die interne Wissensbestände, Dokumente, Tickets, E-Mails oder Prozessdaten mit generativer KI erschließen wollen, ohne diese Informationen dauerhaft an Public-Cloud-Dienste oder externe API-Endpunkte zu übertragen.
Die Appliance adressiert Datenhoheit statt nur Modellleistung
Die zentrale Problemstellung liegt in der Verbindung von KI-Nutzung und kontrolliertem Datenbetrieb. Viele Unternehmen sehen produktive Anwendungsfälle für generative KI, benötigen dafür aber eine Architektur für Datenanbindung, Rollenmodell, Modellbetrieb, Protokollierung und Governance. Yeren Local AI soll diese Einstiegshürde senken, indem Hardware, KI-Plattform, lokale Inferenz, Wissensdatenbanken und Integrationsbausteine als Appliance gebündelt werden.
Der Ansatz ist vor allem für regulierte Branchen relevant. Dazu zählen laut Anbieter Gesundheitswesen, Finanzsektor, Rechtswesen, Bildung, Industrie und öffentliche Verwaltung. Für Managed-Service-Provider ist die Mandantenfähigkeit wichtig, weil darüber private KI-Services für mehrere Kundenumgebungen bereitgestellt werden können. Der Nutzen hängt jedoch stark davon ab, wie sauber Datenbestände vorbereitet, klassifiziert, berechtigt und angebunden werden.
Hardware und Co-Mind-Plattform bilden den technischen Kern
Technisch ist Yeren Local AI weder ein einzelnes Large Language Model noch eine reine RAG-Software. Es handelt sich um eine Appliance-Lösung, die Rechenhardware, lokale KI-Laufzeitumgebung, Co-Mind Secure AI Platform, Datenkonnektoren, Vektordatenbank-Funktionalität, Zugriffskontrolle und Anwendungsbausteine kombiniert. Laut Anbieter sollen Unternehmen damit fortgeschrittene Modelle lokal betreiben, sensible Daten schützen und eigene KI-Agenten entwickeln können.
Zu den Funktionen gehören Chat-Assistenten, Smart-Search über Wissensdatenbanken, rollen- und organisationsbasierte Zugriffskontrolle, Datenkonnektoren für strukturierte und unstrukturierte Daten, eine Full-Stack-RAG-Pipeline, eine Inferenz-Engine und Werkzeuge zum Aufbau eigener KI-Agenten. Unterstützt werden sollen verschiedene Open-Source-Modelle, darunter DeepSeek, Llama, Mistral und Qwen. Für Umgebungen, in denen lokale Modelle nicht ausreichen oder bestimmte Funktionen benötigt werden, soll sich auch ein abgesicherter Zugriff auf kommerzielle Modelle einbinden lassen.
RAG, Smart-Search und KI-Agenten sind die zentralen Funktionen
Die Funktionsseite des Produkts ist auf typische Enterprise-KI-Szenarien ausgerichtet. Dazu gehören interne Wissensassistenten, Chatbots, Ticket- und E-Mail-Klassifizierung, automatisierte Dokumentation, private Meeting-Notizen, Vertriebsassistenz, Workflow-Automatisierung, Predictive Maintenance und Systemoptimierung. Yeren Local AI ist damit nicht als isolierter Chatbot angelegt, sondern als Plattform für datenbezogene KI-Workflows.
Besonders relevant ist die RAG-Funktionalität. Sie ermöglicht es, interne Quellen über Such- und Kontextmechanismen in KI-Antworten einzubeziehen, ohne das zugrunde liegende Sprachmodell mit allen Unternehmensdaten neu trainieren zu müssen. Für die Qualität solcher Systeme bleiben Datenqualität, Berechtigungskonzepte, Indexierung, Aktualisierungszyklen und Prompt-Design entscheidend. Eine lokale Appliance schafft dafür die technische Basis, ersetzt aber nicht die fachliche Aufbereitung der Daten.
Sicherheit und Governance gehören zum Pflichtprogramm
Der lokale Betrieb ist ein wichtiger Sicherheitsvorteil, ersetzt aber kein vollständiges Governance-Konzept. Für die technische Bewertung sind Mandantentrennung, Rollen- und Rechtemodelle, Protokollierung, Audit-Trails, Datenverschlüsselung, Modellzugriffe, Update-Prozesse und Patch-Management entscheidend. Laut Anbieter stehen Datenhoheit, DSGVO-Konformität, lokaler Betrieb und Zugriffskontrolle im Mittelpunkt der Lösung.
Für speicher- und datenmanagementnahe Umgebungen ist außerdem relevant, wie die Plattform mit Datenlebenszyklen umgeht. Dazu zählen die Sicherung von Vektordatenbanken, Modellständen, Konfigurationen, Prompts, Agenten, Konnektoren und Berechtigungseinstellungen. Auch Restore-Verfahren, Versionierung, Löschkonzepte und nachvollziehbare Indexstände gehören in die technische Bewertung.
Integration entscheidet über den praktischen Nutzen
Der Mehrwert von Yeren Local AI entsteht erst durch die Anbindung realer Unternehmensdaten. Die Lösung soll Konnektoren für strukturierte und unstrukturierte Quellen bereitstellen. Für Rechenzentrums- und Datenmanagement-Umgebungen sind dabei vor allem Fileshares, Collaboration-Plattformen, Dokumentenmanagementsysteme, E-Mail-Archive, Ticket-Systeme, Datenbanken, S3-kompatibler Objektspeicher und API-Schnittstellen relevant.
Ebenso wichtig ist die Einbindung in bestehende Betriebsprozesse. Dazu gehören Virtualisierung, Containerisierung, Monitoring, Hochverfügbarkeit, Backup-Integration, Authentifizierung über bestehende Verzeichnisdienste und Schnittstellen zu SIEM- oder ITSM-Systemen. Diese Punkte entscheiden darüber, ob die Appliance als isoliertes KI-System oder als Bestandteil einer vorhandenen Rechenzentrumsarchitektur betrieben wird.
Starterpaket als Beispielkonfiguration
Das KI-System ist in vier Standardkonfigurationen erhältlich, die unterschiedliche Anforderungen an Leistung, Kapazität und Budget abdecken sollen. Welche Variante passt, hängt vom Workload ab, etwa von Modellgröße, Kontextlänge, parallelen Nutzern, RAG-Index, GPU-Speicher, Storage-I/O und Netzwerkanbindung.
- Local AI Medium ist für Concurrent Model Inferencing bei moderater Auslastung ausgelegt. Die Konfiguration adressiert mittlere bis große LLMs und soll laut Anbieter rund 50 gleichzeitige Nutzer unterstützen.
- Local AI Premium ist für High Throughput Inferencing, produktive Multimodell-Umgebungen und große LLMs vorgesehen. Diese Ausbaustufe soll etwa 150 gleichzeitige Nutzer bedienen.
- Local AI Platinum richtet sich an besonders anspruchsvolle Umgebungen mit High-Throughput-Inferencing, multimodaler Inferenz und GPU-Beschleunigung. Das Modell ist für große sowie multimodale LLMs mit Bild- und Sprachverarbeitung ausgelegt und soll mehr als 500 gleichzeitige Nutzer unterstützen.
Als Beispielkonfiguration nennt RNT ein Starterpaket mit NVIDIA DGX Spark Mini AI-Workstation, zwölfmonatiger Lizenz der Co-Mind Secure AI Platform, einem KI-Workshop-Tag, einem Manntag für Software-Entwicklung bzw. API-Anpassung sowie einer Trade-in-Option beim späteren Wechsel auf ein größeres Yeren-Local-AI-Modell. Der Preis beginnt laut Anbieter bei rund 15.000 Euro netto. Aufgrund der Marktlage muss allerdings mit Tagespreisen je nach Verfügbarkeit kalkuliert werden.
Das Starterpaket nutzt Nvidias Grace-Blackwell-Architektur, einen 20-Core-Arm-Prozessor, 128 GByte Unified-Memory, NVMe-Storage, Wi-Fi 7, 10GbE und ConnectX-7. Nvidia gibt die Unterstützung von KI-Modellen bis 200 Milliarden Parameter an, bei zwei verbundenen Systemen bis 405 Milliarden Parameter.
Leistung, Skalierung und Kosten bleiben Workload-abhängig
Für die Leistungsbewertung reichen Modellgröße und Hardwaredaten allein nicht aus. Entscheidend sind Modellarchitektur, Quantisierung, Kontextlänge, gleichzeitige Nutzer, RAG-Indexgröße, GPU-Speicher, Storage-I/O, Netzwerkpfade und Antwortqualitätsanforderungen. Ein interner Wissensassistent benötigt eine andere Auslegung als ein mandantenfähiger KI-Service oder ein produktiver Agentenbetrieb mit hoher Parallelität.
Wirtschaftlich ist der lokale Betrieb vor allem dort interessant, wo sensible Daten nicht in externe KI-Dienste fließen sollen oder API-Kosten schwer kalkulierbar sind. Gleichzeitig entstehen eigene Aufwände für Betrieb, Monitoring, Updates, Security, Datenpflege, Modellmanagement und fachliche Qualitätssicherung. Die Lizenzierung sollte nach Nutzern, Mandanten, Knoten, Modellen, Datenvolumen, Agenten, Laufzeit und Support-Umfang bewertet werden.
Stärken: Souveräne KI mit Appliance-Ansatz
Die zentrale Stärke von Yeren Local AI liegt in der Positionierung als europäische Private-AI-Lösung für kontrollierte IT-Umgebungen. Die Kombination aus lokaler Hardware, Co-Mind-Plattform, RAG-Funktionalität, Zugriffskontrolle, Modellbetrieb und Mandantenfähigkeit adressiert Anforderungen von Unternehmen, die generative KI produktiv nutzen wollen, Public-Cloud-KI aber aus Compliance- oder Risikogründen nur eingeschränkt einsetzen können.
Für Managed-Service-Provider ist die Appliance besonders interessant, weil sie den Aufbau eigener KI-Dienste auf kontrollierter Infrastruktur ermöglicht. Multi-Tenancy, lokale Datenverarbeitung und planbarere Betriebskonzepte können helfen, KI-Angebote differenzierter zu kalkulieren als rein API-basierte Services. Voraussetzung ist, dass Mandantentrennung, Betriebsmodell, Support-Prozesse und Skalierungsgrenzen technisch sauber umgesetzt werden.
Fazit: Kontrollierter Einstieg in Private AI
Yeren Local AI ist ein interessanter Ansatz für Unternehmen und Serviceprovider, die generative KI unter eigener Kontrolle betreiben wollen. Die Lösung kombiniert Appliance-Hardware, lokale Inferenz, RAG-Funktionen, Wissensdatenbanken, Smart-Search, Datenkonnektoren, Zugriffskontrolle und KI-Agenten zu einem Paket, das insbesondere Datenschutz-, Compliance- und Souveränitäts-Anforderungen adressiert.
Die Lösung dürfte vor allem dort passen, wo interne Datenbestände für KI-Anwendungen nutzbar gemacht werden sollen, ohne sie dauerhaft an Public-Cloud-Dienste oder externe KI-APIs zu übergeben. Für die Auswahl sind konkrete Tests mit eigenen Daten, typischen Workloads, realistischen Nutzerzahlen und vorhandenen Betriebsprozessen entscheidend. Dabei zählen Antwortqualität, Latenz, Skalierung, Rechteprüfung, Mandantentrennung, Backup und Restore, Monitoring, Update-Prozesse, Lizenzmodell, Support-Umfang und Gesamtbetriebskosten. Ein Fachbereichs-Assistent stellt andere Anforderungen als ein mandantenfähiger KI-Service für mehrere Kundenumgebungen.
Hersteller und Anbieter:
RNT Rausch GmbH
Im Stöck 4a, 76275 Ettlingen
Tel.: +49 7243 5929-0
E-Mail: info@rnt.de
Direkter Link zum Produkt: Yeren Local AI
Preis: ab ca. 15.000 Euro netto
- Appliance-Lösung aus RNT-Hardware und Co-Mind Secure AI Platform
- Lokaler Betrieb im Rechenzentrum oder in kontrollierten IT-Umgebungen
- Ausrichtung auf Datenhoheit, DSGVO-Anforderungen und Private-AI-Szenarien
- Alle Modelle mit mindestens zwei Nvidia-GPUs
- Alle regulären Appliance-Modelle kommen als schlüsselfertige Hard- und Software-Komplettlösungen aus deutscher Fertigung in Freiburg oder Ettlingen
- Drei reguläre Appliance-Modelle: Local AI Medium, Local AI Premium und Local AI Platinum, ergänzt um ein Starterpaket
- Funktionen für Chat-Assistenten, Smart-Search, Wissensdatenbanken, Full-Stack-RAG-Pipeline, Inferenz-Engine und KI-Agenten
- Rollen- und organisationsbasierte Zugriffskontrolle
- Multi-Tenancy für Managed-Service-Provider und private KI-Services
- Datenkonnektoren für strukturierte und unstrukturierte Quellen
- Unterstützung für Open-Source-Modelle wie Llama, Mistral, Qwen und Deepseek
- Einsatzfelder: interne Wissensassistenten, Chatbots, Ticket- und E-Mail-Klassifizierung, Dokumentationsautomatisierung, private Meeting-Notizen, Predictive-Maintenance und Workflow-Automatisierung
- Kundenspezifische Hardware-Plattformen möglich, falls die Standardgrößen nicht zum Anwendungsszenario passen