OVHcloud AI Endpoints für Demokratisierung von KI-Modellen
OVHcloud stellt heute AI Endpoints vor, eine serverlose Lösung, die es Entwicklern ermöglicht, ihren Anwendungen auf einfache Weise hochwertige KI-Funktionen hinzuzufügen. Mit über 40 Open-Source-Modellen und generativen KI-Modellen, die Anwendungsfälle wie Chatbots, Text-to-Speech oder Programmierunterstützung abdecken, erleichtert AI Endpoints die Demokratisierung der KI für Firmen jeder Größe.
AI Endpoints bietet einfachen Zugang zu Open-Source-KI-Modellen, die in einer vertrauenswürdigen Cloud-Umgebung gehostet werden, ohne dass die zugrundeliegende Infrastruktur verwaltet werden muss oder Fachkenntnisse im Bereich maschinelles Lernen erforderlich sind.
Geschäftsanwendungen einfach durch KI aufwerten
OVHcloud AI Endpoints ermöglicht es Entwicklern, KI-Funktionen vor dem Einsatz in Anwendungen, internen Tools oder Geschäftsprozessen in einer Sandbox-Umgebung zu testen. Anwendungsfälle umfassen:
- Integration von LLMs in Anwendungen: Einfaches Hinzufügen von Konversationen durch KI-Agenten. Mit Echtzeit-Interaktionen in natürlicher Sprache hilft AI Endpoints, die Benutzerinteraktion zu verbessern oder den Kundenservice in großem Umfang zu automatisieren.
- Textextraktion: Fortschrittliche Modelle für maschinelles Lernen extrahieren, interpretieren und organisieren automatisch unstrukturierte Daten und spielen eine Schlüsselrolle in ETL-Pipelines (Extract, Transform, Load) zur Verbesserung der betrieblichen Effizienz.
- Sprache in Ihre App bringen: Über APIs wandelt AI Endpoints gesprochene Sprache in Text und umgekehrt um und ermöglicht so interaktive sprachbasierte Transkriptionen.
- Programmierunterstützung: Mit Tools wie Continue können Entwickler private KI-Unterstützung in Echtzeit direkt in ihre IDEs integrieren. Code-Vorschläge, Fehlererkennung und Aufgabenautomatisierung verbessern sowohl die Produktivität als auch die Codequalität.
Eine serverlose Plattform, die den Bedarf von Unternehmen an strategischer Autonomie erfüllt
Die souveräne Cloud-Infrastruktur von OVHcloud gibt Entwicklern die Gewissheit, dass ihre Daten in Europa gehostet und vor außereuropäischen Regulierungen geschützt werden, was sowohl technische als auch strategische Autonomie bietet.
Die Cloud ist zentral für KI, und AI Endpoints läuft auf der energieeffizienten Infrastruktur von OVHcloud mit wassergekühlten Servern in umweltfreundlichen Rechenzentren. Dies trägt dazu bei, die Umweltauswirkungen von KI-Workloads zu reduzieren, ohne die Leistung zu beeinträchtigen.
AI Endpoints fördert die vollständige Modelltransparenz durch Open-Weight-KI-Modelle. Dies stellt sicher, dass Unternehmen die gleichen Modelle auf ihrer Infrastruktur implementieren oder sie auf anderen Cloud-Diensten bereitstellen können, während sie die Kontrolle über die Daten behalten.
„Wir freuen uns, AI Endpoints auf den Markt zu bringen und sind überwältigt von dem positiven Feedback, das wir von unserer Community erhalten haben. Durch die Unterstützung der vielfältigsten und gefragtesten Open-Source-LLM-Modelle trägt AI Endpoints zur Demokratisierung der KI bei, indem es Entwicklern ermöglicht, die modernsten Modelle zu ihren Anwendungen hinzuzufügen. Mit unserer Lösung können sie dies ganz einfach in einer vertrauenswürdigen Cloud-Umgebung tun und sich dabei auf die souveräne Infrastruktur von OVHcloud verlassen", sagt Yaniv Fdida, Chief Product and Technology Officer, OVHcloud.
Verfügbarkeit: KI in einem Pay-as-you-go-Modell
Nach einer Preview-Phase wurde die Plattform gründlich und unter Berücksichtigung von Kundenfeedback entwickelt und getestet. Darunter eine Reihe stark nachgefragter Funktionen wie die Unterstützung stabiler Open-Source-Modelle, eine größere Auswahl und ein verfeinertes API-Schlüsselmanagement. Mit mehr als 40 hochmodernen Open-Source-KI-Modellen deckt AI Endpoints ab:
- LLMs: Llama 3.3 70B, Mixtral 8x7B, …
- SLMs: Mistral Nemo, Llama 3.1 8B, …
- Code: Qwen 2.5 Coder 32B, Codestral Mamba
- Reasoning: DeepSeek-R1 (distilled Llama)
- Multimodal: Qwen 2.5 VL 72B, …
- Image generation: SDXL
- Speech: ASR (speech-to-text), TTS (text-to-speech)
AI Endpoints ist ab sofort in APAC, Kanada und Europa verfügbar und wird vom Rechenzentrum Gravelines aus bereitgestellt. Mit einem Pay-as-you-go-Modell variiert die Preisgestaltung von OVHcloud AI Endpoints je nach Modell und verwendet die Anzahl der verbrauchten Token pro Minute als Einheit.