Trends & Technologien 2026: KI und die IT-Realität
2026 wächst der Storage-Markt moderat, getrieben von KI-Workloads. All-Flash-Systeme legen zu, während Kapazitäts-Storage durch knappe Nearline-HDDs und steigende Kosten zum Engpass werden kann. Parallel wird KI vom Pilot zum Betriebsprojekt: Governance, Observability, Recovery, FinOps und Souveränität rücken in den Fokus. Im Folgenden die wichtigsten Prognosen und Einschätzungen aus Analysten- und Anbieterperspektive.
IDC erwartet für 2026 ein moderates, aber klar KI-getriebenes Wachstum im Storage-Markt: Der weltweite Markt für externe OEM-Enterprise-Storage-Systeme soll von 35,4 Mrd. US-Dollar (2025) auf 37,7 Mrd. US-Dollar (2026) steigen, das entspricht plus 6,3 Prozent. In den Quartalsdaten ist der Trend bereits sichtbar: Im dritten Quartal 2025 legte der externe Enterprise-Storage-Systems-Markt um 2,1 Prozent auf 8,0 Mrd. US-Dollar zu. All-Flash-Arrays wuchsen dabei um 17,6 Prozent, während Hybrid-Flash-Arrays und HDD-Systeme rückläufig waren. IDC führt die Dynamik auf zusätzlichen Flash-Bedarf für KI-Training und KI-Inferenz zurück.
Dazu kommt ein Kosteneffekt auf Komponentenebene: Seit Herbst 2025 ziehen die Preise für DRAM deutlich an, und auch SSDs verteuern sich. Das trifft All-Flash-Arrays und HCI-Knoten direkt und dürfte sich mittelfristig auch in TCO-Kalkulationen und Angeboten von Herstellern und Providern niederschlagen.
Parallel könnte Kapazitäts-Storage zum Nadelöhr werden: TrendForce berichtet von enorm langen Lieferzeiten für Nearline-HDDs und nennt als Ursache fehlenden Kapazitätsausbau bei den Herstellern. Zugleich steigen die HDD-Kosten. Die Analysten beziffern den Preis pro GByte mit 0,015 bis 0,016 US-Dollar statt 0,012 bis 0,013 US-Dollar. Damit rücken QLC-SSDs bis hinein in Kalt-Daten-Workloads stärker in den Fokus. Für 2026 erwarten Analysten zusätzlichen Rückenwind durch 2-Tbit-QLC-Chips in der Massenfertigung, was hochkapazitive Nearline-SSDs günstiger machen soll. Kurzfristig wirkt die Lage dennoch preisstützend für Enterprise-Flash.
Auch Pure Storage verweist in einer Einordnung auf einen deutlich breiter gefassten Data-Storage-Markt: »Der globale Markt für Datenspeicherlösungen wird voraussichtlich von 255,29 Milliarden US-Dollar im Jahr 2025 auf 774 Milliarden US-Dollar im Jahr 2032 wachsen«, erklärt Marcus Grau, Enterprise Architect im CTO-Office bei Pure. »Dies entspricht einer durchschnittlichen jährlichen Wachstumsrate (CAGR) von 17,2 Prozent. In anderen Worten: Data-Storage wird auch in Zukunft eine zentrale Rolle für kommenden Fortschritte und Trends in der IT spielen.«
KI 2026: Von der Demo zur Betriebsrealität – mit Governance, Observability und Souveränität als Pflichtprogramm
In vielen Vorhersagen für 2026 zieht sich ein roter Faden durch: KI verlässt die Spielwiese und muss in der Produktion liefern. Das bedeutet weniger Show, mehr Betrieb. Im Mittelpunkt stehen agentenbasierte KI-Systeme, die nicht nur »assistieren«, sondern Prozesse anstoßen, Entscheidungen vorbereiten und in Teilen auch ausführen. Genau dadurch steigt die Komplexität. Wer 2026 KI skaliert, braucht belastbare Daten, klare Governance, durchgängige Observability sowie Security- und Resilienz-Konzepte, die nicht erst nach dem Incident greifen. Parallel wird die Debatte um digitale Souveränität konkreter, getrieben durch EU-Regulatorik, geopolitische Risiken und Lieferkettenfragen.
Ausblick 2026: Realität schlägt Hype-Themen
Abseits der üblichen Hersteller-Hype-Themen wird 2026 vor allem von pragmatischen Fragen geprägt sein: Was kostet der Betrieb wirklich, wie bleibt man handlungsfähig bei Lizenz- und Plattformwechseln, und wie lassen sich Daten, Risiken und Abhängigkeiten kontrollieren, ohne alles neu zu erfinden.
1. Workload-Repatriation und digitale Souveränität – »Zurück in die eigenen Hände«: Unternehmen justieren ihre Public-Cloud-Strategien und holen ausgewählte Workload-Anteile zurück, typischerweise Datenhaltung, Backup oder latenzkritische Komponenten. Treiber sind Kostenüberraschungen inklusive Egress- und Datentransfergebühren, Compliance sowie der Wunsch nach mehr Kontrolle über sensible Daten, besonders in regulierten Branchen. Parallel gewinnen Hybrid- und Multi-Cloud-Ansätze an Gewicht, weil sie Kosten, Latenz und Vorgaben besser austarieren sollen.
2. Virtualisierungs-Umbruch und Broadcom-Effekt – »Der Zwang zur Alternativ-Strategie«: Änderungen bei VMware-Lizenzierung und Pricing haben Evaluierungen alternativer Virtualisierungs-Plattformen beschleunigt. In der Praxis läuft es häufig nicht auf den großen »Big-Bang«-Umstieg hinaus, sondern auf hybride Übergänge und Multi-Hypervisor-Betrieb. Hochverfügbarkeit, Backup- und Recovery-Prozesse, Storage-Integration, Werkzeuglandschaft und Migrationsaufwand sind dabei oft die eigentlichen Stolpersteine.
3. Kosten- und Effizienzdruck: Automatisierung, Storage-Optimierung und Cloud-FinOps: FinOps greift stärker in Storage-Themen hinein, weil Kapazitätswachstum, Snapshot- und Backup-Volumen, Tiering und Datentransfers schnell zum Kostentreiber werden. Gleichzeitig steigen die Anforderungen an Automatisierung und Leitplanken: Policy-basiertes Data-Lifecycle-Management, konsistente Retention-Regeln und Recovery-by-Design werden wichtiger, damit Hybrid- und Multi-Cloud nicht zur manuellen Dauerbaustelle wird. Geopolitik und Regulierung wirken als Katalysator, weil Portabilität, Exit-Optionen und europäische Alternativen stärker in Beschaffung und Architektur rücken.
Unterm Strich: 2026 wird weniger das Jahr neuer KI-Versprechen als das Jahr der Betriebsrealität. Agenten, Governance, Datenqualität, Observability, Recovery und Souveränität hängen so eng zusammen, dass sie sich kaum noch in getrennten Silos organisieren lassen. Wer das früh als Gesamtarchitektur denkt, erhöht die Chancen, dass KI nicht nur »beeindruckt«, sondern auch zuverlässig arbeitet.
Boomi: Vom KI-Experiment zur Unternehmensrealität
Ann Maya, BoomiFür Ann Maya, EMEA CTO bei Boomi, wird das kommende Jahr von einem großen Wandel hin zu Software 3.0 geprägt sein: »Die neue Codierungsnorm wird natürliche Sprache wie Englisch sein und Backend-Funktionen werden vermehrt von KI-Agenten unterstützt. Mit der zunehmenden Bedeutung von Protokollen wie MCP, A2A, ACP und ACN werden Unternehmen Software-Komponenten wesentlich einfacher kombinieren können. Dies führt dazu, dass die sichere, stabile und flexible Zusammensetzung dieser Komponenten zu einer zentralen Anforderung an die IT-Architektur wird. Für große Organisationen wird die KI-gesteuerte Low-Code-Integration zur unverzichtbaren Grundlage, die diese neuen Systeme zusammenhält.
Im nächsten Jahr profitieren vor allem jene Unternehmen von KI, die ihre Prozesse bewusst neu ausrichten und KI gezielt in den Bereichen einsetzen, in denen sie tatsächlich Mehrwert schafft, anstatt sie nur reaktiv oder zu Testzwecken einzuführen. Low-Code-Integrationsplattformen werden es Unternehmen ermöglichen, geregelte APIs, vertrauenswürdige Geschäftsdaten und regelbasierte Workflows zusammen mit KI-Agenten zu orchestrieren. Dadurch entsteht ein neues Betriebsmodell, in dem KI arbeitsintensive oder komplexe Aufgaben mit klaren Richtlinien übernimmt. Gleichzeitig stellen feste Workflows sicher, dass Abläufe nachvollziehbar und kontrollierbar bleiben.
Infolgedessen werden Unternehmen 2026 das Experimentieren mit KI hinter sich lassen und zum Aufbau komplexer KI-gestützter Prozesse übergehen. Dadurch werden sie anpassungsfähiger, effizienter und besser für Innovationen positioniert sein, sobald Software 3.0 die Norm ist.
Neue Anforderungen an die KI-Governance
2026 werden wichtige KI-Regulierungsrahmen von der Theorie in die Praxis umgesetzt, insbesondere der AI Act der EU. Gleichzeitig werden viele Unternehmen in der EMEA-Region versuchen, generative KI-Pilotprojekte in die Produktion zu überführen. Diese Entwicklung rückt die Bewertung von Risiken, die Nachvollziehbarkeit von Entscheidungen, die Qualität der Daten und die Überwachung von KI-Systemen stärker in den Fokus.
Mit steigenden Erwartungen werden Unternehmen sich von starren Legacy-Tools verabschieden und zu einem dynamischeren, datengesteuerten Governance-Ansatz übergehen. Dazu müssen Unternehmen Daten und APIs laufend in Echtzeit im Blick behalten, Regeln flexibel zur Laufzeit bei sich ändernden Bedingungen durchsetzen und übergreifend sicherstellen, dass Geschäftsvorgaben und Compliance-Anforderungen über verschiedene Domänen hinweg gleich angewendet werden. Diese Fähigkeiten schaffen die vertrauenswürdige Datenbasis, die KI-Agenten zur Ausführung ihrer Aufgaben benötigen.«
Denodo: 7 KI- und Datentrends prägen Unternehmen 2026
Jörg Hesske, DenodoBereits 2025 zeigte sich: Der KI-Einsatz in Unternehmen tritt in ein neues Reifestadium ein. Jörg Hesske, Regional Vice President bei Denodo, beschreibt sieben Trends, die die Welt der Daten im neuen Jahr bewegen werden. »Das bloße Experimentieren mit der Technologie reicht nicht mehr – 2026 zählen messbare Ergebnisse. Dafür braucht es vertrauenswürdige und KI-fähige Daten und modernes, logisches Datenmanagement.
1. KI entwickelt sich vom Assistenten zum autonomen Agenten
KI-Tools werden zukünftig weniger als passive Co-Piloten fungieren und vielmehr als autonome Agenten, die mehrstufige Aufgaben ausführen, Arbeitsabläufe auslösen, Transaktionen genehmigen und mit Menschen zusammenarbeiten. Diese Agenten werden jedoch nur dann skalierbar sein, wenn sie auf kontrollierbaren Echtzeitdaten basieren.
2. Datenprodukte werden zur Basis für domänenspezifische Sprachmodelle (DSLMs)
Jeder Geschäftsbereich – von Finanzen über Lieferketten bis hin zu Kunden und Risiken – wird früher oder später SLA-gestützte, informationsreiche Datenprodukte produzieren und konsumieren, die die präzisen, kontrollierten Daten liefern, die für domänenspezifische Sprachmodelle erforderlich sind. Diese werden es spezialisierten, domänenspezifischen KI-Agenten ermöglichen, autonom zu arbeiten.
3. Logisches Datenmanagement statt universeller Data Lakes
Der Ansatz, alle Daten in einem einzigen Data Lake zu zentralisieren, ist nicht mehr zeitgemäß. Stattdessen werden immer mehr Unternehmen logisches Datenmanagement einführen, um dort auf Daten zuzugreifen, wo sie sich befinden – über Multi-Cloud-, Hybrid- und souveräne Umgebungen hinweg. So können sie unnötige Duplikate vermeiden und gleichzeitig eine konsistente Datenverwaltung, integrierte Portabilität und Flexibilität durch Design gewährleisten. In vielen Bereichen der Wirtschaft spielen zudem kurzlebige Echtzeitdaten (transiente Daten) eine immer wichtigere Rolle. Herkömmliche Data Lakes eignen sich allerdings nicht, um diese effizient bereitzustellen. Logisches Datenmanagement wird auch hier zur Pflicht.
4. ROI wird zum entscheidenden Faktor für KI und Cloud
CFOs werden einen messbaren ROI von Daten- und KI-Initiativen verlangen. Dabei werden sie Plattformen bevorzugen, die den Datenverkehr reduzieren, Redundanzen beseitigen und tatsächlich Zeit einsparen, während Hype, vage Behauptungen und Superlative an Glaubwürdigkeit verlieren werden. Im kommenden Jahr werden praktische Rahmenbedingungen, verantwortungsvolle KI, überprüfbare Ergebnisse und Fallstudien, die einen klaren ROI belegen, zu einem echten Differenzierungsmerkmal für Anbieter.
5. KI-Regularien werden verstärkt durchgesetzt
KI-Governance wird zur Pflicht: Erklärbarkeit, Herkunft, Sicherheitstests und Datenhoheit werden dabei weltweit durchgesetzt und jeder KI-Output muss seine Datenquellen und Verarbeitungsschritte transparent darlegen.
6. KI-fähige Daten werden zu einer Priorität auf CIO-Ebene
Viele KI-Projekte erzielen derzeit nur beschränkte Produktivität und liefern noch keinen positiven ROI. Daher verlagern Führungskräfte ihren Fokus vom Experimentieren hin zum Aufbau einer soliden KI-fähigen Datenbasis. Vertrauenswürdige, in Echtzeit verfügbare und kontrollierbare Daten werden für CIOs immer wichtiger, damit autonome Agenten und KI-Anwendungen schnell messbaren Mehrwert liefern können. Logisches Datenmanagement dient dabei als strategischer Wegbereiter.
7. »Agent Builder« wird eine der gefragtesten Tech-Rollen sein
Investitionen in KI-Agenten werden die Nachfrage nach Entwicklern mit Expertise in KI, Anwendungsentwicklung und Datenengineering stark erhöhen. Das wird zu höheren Gehältern, gezielten Schulungsprogrammen und einheitlichen Plattformen führen, die Datenmanagement mit agentenbasierten KI-Lebenszyklus-Tools kombinieren. So können `Agent Builder´ die von ihren Agenten benötigten Daten effizient verwalten und zugleich Produktivität, Effektivität und Vertrauenswürdigkeit steigern.«
Dynatrace: 6 Trends, die 2026 über KI und Observability bestimmen werden
Bernd Greifeneder, DynatraceAgentic AI ist leistungsfähiger und zugleich deutlich schwieriger zu beherrschen. Wenn KI-Agenten Aufgaben koordinieren, Kontext austauschen und weitere Aktionen auslösen, kann selbst eine gut strukturierte digitale Umgebung in unvorhersehbares Verhalten kippen. »Die meisten Unternehmen sind auf diesen Wandel (noch) nicht vorbereitet«, sagt Bernd Greifeneder, CTO und Gründer bei dynatrace. »Ohne starke Observability und klare Governance werden solche Systeme zunehmend schwerer verständlich und kontrollierbar.
Jeder KI-Agent agiert eigenständig anhand von Anweisungen und Eingaben – nicht nur von Menschen, sondern auch von zahlreichen First- und Third-Party-Agenten. Ein einzelner Kundenkontakt kann Hunderte Hintergrundprozesse anstoßen, bei denen KI-Agenten selbstständig Entscheidungen treffen, Rollen wechseln und andere Agenten anleiten.
Typische Szenarien machen das deutlich: Erkennt ein Fahrzeug ein Problem, prüfen spezialisierte Agenten Kundeninformationen, bewerten Servicemöglichkeiten, schätzen Zeitaufwände und koordinieren die Lösung. Ein Reise-Assistent arbeitet ähnlich, indem er Flüge vergleicht, Vorteile aus Loyalitätsprogrammen berücksichtigt, Transportmittel bucht und Pläne in Echtzeit anpasst. Viele Agenten arbeiten im Hintergrund auf ein gemeinsames Ergebnis hin, und die Interaktionen zwischen ihnen vervielfältigen sich dynamisch. Jeder Agent ist einem Menschen oder einem übergeordneten Agenten rechenschaftspflichtig, und die Aufsicht bleibt immer beim Menschen. Diese explosionsartige Zunahme agentischer Kommunikation ist ohne Observability nicht mehr beherrschbar.
Unternehmen, die Agentic AI ohne einheitlichen Kontext und klare Rahmenbedingungen einsetzen, werden steigende Kosten, unvorhersehbares Verhalten und höhere Risiken erleben. Die Herausforderung liegt nicht mehr in der Optimierung einzelner Modelle. Entscheidend ist, das Geflecht autonomer Interaktionen in Echtzeit zu steuern. Observability wird damit zur Grundlage sicherer, skalierbarer und beherrschbarer agentischer Ökosysteme.
Autonomie beginnt mit nachweislicher operativer Reife
Unternehmen werden zunehmend größere Schritte hin zu autonomen Betriebsmodellen machen (müssen). Nicht die Ambition entscheidet, sondern der Reifegrad. KI kann erst dann eigenständig handeln, wenn Systeme, Automatisierung und Prozesse stabil, transparent und gut verstanden sind. Agentische Systeme werden kommen, doch zunächst müssen die Grundlagen stimmen. Frühere Automatisierungsstufen sind unverzichtbar, weil sie Lücken bei Datenzugriff, Service-Performance und Kontextsignalen sichtbar machen – alles Faktoren, von denen KI abhängig ist. Erst wenn diese Bausteine zuverlässig und in Echtzeit verfügbar sind, können überwachter und autonomer Betrieb funktionieren.
Die meisten Unternehmen folgen einem Entwicklungsweg: zunächst präventive Abläufe, bei denen KI Probleme erkennt und behebt, bevor sie Auswirkungen haben. Dann geführte Automatisierung, bei der KI Maßnahmen vorschlägt und Menschen jeden Schritt überwachen. Erst wenn sich verlässliche, prüfbare Ergebnisse etablieren, entsteht echte Autonomie, bei der KI innerhalb klarer Grenzen handelt und nur eskaliert, wenn nötig.
Der Übergang zu vollständig autonomen Abläufen wird schrittweise erfolgen. Unternehmen, die früh in präventive Workflows und empfehlungsbasierte Automatisierung investieren, schaffen die Basis, um autonome Fähigkeiten sicher und verantwortungsvoll einzuführen.
Resilienz wird zum neuen Maßstab operativer Exzellenz
Resilienz wird sich als entscheidende Kennzahl digitaler Leistungsfähigkeit durchsetzen. Da Systeme immer verteilter und vernetzter arbeiten, können kleine Störungen rasch über Anwendungen, Cloud-Regionen, Zahlungssysteme und externe Dienste hinweg eskalieren. Führungskräfte werden Zuverlässigkeit, Verfügbarkeit, Sicherheit und Observability nicht länger als getrennte Disziplinen betrachten, sondern als ein gemeinsames Ziel: die Fähigkeit eines Systems, Störungen zu absorbieren, schnell zu reagieren und eine konsistente Nutzererfahrung unter Belastung zu gewährleisten.
Eine von Dynatrace in Auftrag gegebene Studie mit FreedomPay zeigt, wie fragil digitale Ökosysteme geworden sind und wie schnell technische Ausfälle zu Kundenfrustration und finanziellen Verlusten führen. Im Vereinigten Königreich sind schätzungsweise 1,6 Milliarden Pfund Umsatz jährlich durch Zahlungsausfälle gefährdet, in Frankreich rund 1,9 Milliarden Euro. Eine einzige Störung kann sich über vernetzte Systeme und Kanäle ausbreiten und verdeutlicht, wie eng moderne Abläufe gekoppelt sind.
Kunden spüren diese Ausfälle sofort. Die Geduld sinkt innerhalb weniger Minuten, und viele brechen Transaktionen ab, wenn das Problem länger als fünfzehn Minuten besteht. Die durchschnittliche Dauer eines Ausfalls liegt allerdings bei mehr als einer Stunde – der Schaden ist dann längst entstanden. Fast ein Drittel aller Kunden verliert nach nur einem Vorfall Vertrauen, besonders jüngere, digital affine Zielgruppen reagieren empfindlich.
Diese Lage erfordert einen gemeinsamen Ansatz für Resilienz. Unternehmen benötigen ein einheitliches Verständnis dafür, wie Services sich verhalten, wie Fehler sich ausbreiten und wie sich die Wiederherstellung auf die Customer Journey auswirkt. Resilienz bemisst sich daran, wie Systeme unter Druck reagieren und nicht nur daran, wie sie im Normalbetrieb funktionieren.
Zuverlässigkeit wird zur Grundlage des KI-Fortschritts
Unternehmen werden verstärkt daran arbeiten, die Zuverlässigkeit von KI-Systemen sicherzustellen. Die nächste Entwicklungsstufe von KI hängt ebenso stark von deterministischen, faktenbasierten Signalen ab wie von den generativen Fähigkeiten probabilistischer Modelle. Kreativität allein genügt nicht. Verlässliche KI braucht strukturierte Eingaben und Mechanismen, die Vertrauen in die Ergebnisse gewährleisten.
Agentische Systeme erhöhen die Komplexität zusätzlich. Wenn Agenten Aufgaben koordinieren, Kontext austauschen und nachgelagerte Aktionen auslösen, kann schon ein kleines Missverständnis das gesamte System beeinflussen. Je leistungsfähiger ein Agent ist, desto stärker wirkt dieser Effekt – Fortschritt und Fehler beschleunigen sich gleichermaßen. So entstehen Halluzinationen auf Systemebene: nicht durch ein einzelnes Modell, sondern durch sich verstärkende Ungenauigkeiten über viele Interaktionen hinweg. Deterministische Grundlagen und End-to-End-Observability verhindern das, indem sie sicherstellen, dass alle Agenten auf denselben Fakten agieren und der menschlichen Aufsicht verpflichtet bleiben.
Ein Beispiel zeigt das anschaulich: Erkennt ein Fahrzeug ein Problem, aktivieren sich Agenten, die Kundendaten prüfen, Fahrzeugstatus analysieren, Serviceangebote ermitteln, Zeitpläne bewerten und einen vollständigen Lösungsprozess planen. Viele Agenten arbeiten zusammen, um ein einziges Ergebnis zu erzielen. Unternehmen, die transparente und verlässliche KI-Ergebnisse anstreben, setzen deshalb auf klare Regeln und deterministische Leitplanken, damit agentische Systeme sicher, nachvollziehbar und vorhersehbar agieren.
Mensch und Maschine gemeinsam als Wachstumstreiber
Im kommenden Jahr wird Agentic AI ein neues Betriebsmodell prägen, in dem Menschen Ziele vorgeben und KI präzise definierte Ausführung übernimmt. Mit wachsender Kontextfähigkeit und Koordinationsstärke verschiebt sich die menschliche Rolle: weg vom eigenen Handeln, hin zu Zielsetzung, Anleitung und Überwachung. KI analysiert Beziehungen, identifiziert Risiken und initiiert sichere Schritte. Menschen behalten Verantwortung, treffen Abwägungen und entscheiden in Situationen mit unklarer Intention oder mehrdeutigen Ergebnissen.
Agentische KI wird sich ähnlich verhalten wie ein lernfähiger Praktikant mit hohem Tempo. Mit klaren Zielen, guten Werkzeugen und den richtigen Informationen liefert sie Ergebnisse, die menschliche Teams nicht in der gleichen Geschwindigkeit erreichen könnten, und braucht dennoch Führung. Menschen definieren den Zweck, interpretieren Konsequenzen und bleiben haftbar, wenn etwas schiefgeht.
Dieses Modell hilft Unternehmen und ihren Teams, Komplexität besser zu steuern. KI übernimmt wiederkehrende oder zeitkritische Aufgaben, und Menschen konzentrieren sich auf strategische Entscheidungen und das Gesamtverständnis des Systems. Wachstum entsteht dort, wo menschliche Urteilsfähigkeit und KI-basierte Ausführung transparent, verantwortet und eng an die Unternehmensziele gekoppelt zusammenwirken.
KI- und Cloud-Teams wachsen weiter zusammen
KI wird nicht länger als isolierte Disziplin betrieben, sondern zu einem normalen Bestandteil cloud-nativer Softwareentwicklung. Teams integrieren KI in digitale Services genauso selbstverständlich wie Datenbanken oder andere Kernkomponenten. KI-Engineering, Cloud-Engineering, SRE und Security wachsen zu einem gemeinsamen Betriebsmodell zusammen – mit abgestimmten Pipelines, gemeinsamen SLOs und geteilter Verantwortung für den gesamten Lebenszyklus KI-gestützter Services.
Diese Entwicklung spiegelt wider, wie moderne Software funktioniert. KI-Funktionen beeinflussen Kosten, Latenz, Verhalten und Compliance, und diese Effekte betreffen stets den gesamten Stack. Sie lassen sich nicht isoliert überwachen oder steuern. Damit KI in der Produktion zuverlässig läuft, muss sie dieselben Abläufe, Leitplanken und Delivery-Pipelines durchlaufen wie die übrigen cloudnativen Systeme.
End-to-End-Observability wird unverzichtbar, denn entscheidend ist das Gesamtergebnis für den Nutzer. Die Vorgaben an Agenten, ihre Aktionen, die ausgelösten Datenbankzugriffe und die Kosten gehören zu einem einzigen Prozess. Observability muss all diese Signale gemeinsam abbilden und KI-Komponenten, Anwendungslogik und Infrastruktur als zusammenhängendes System verstehen. So entsteht eine einheitliche Sicht, die der tatsächlichen Nutzererfahrung entspricht.
Unternehmen, die dieses Modell verfolgen, behandeln KI als reguläre Softwarekomponente. Zentrale Teams definieren Anwendungsfälle, etablieren gemeinsame Plattformen und sorgen für Compliance. Produktteams integrieren KI direkt in ihre Entwicklungs- und Auslieferungspipelines. Diese praktische Zusammenführung ermöglicht es Unternehmen, KI-basierte Dienste mit derselben Disziplin und Vorhersagbarkeit zu betreiben wie andere cloud-native Systeme.«
GoTo: Wie KI die IT-Welt weiter im Griff behält
Die Diskussion über künstliche Intelligenz (KI) in Organisationen hat sich entscheidend verschoben: Es geht nicht mehr darum, dass Maschinen menschliche Teams ersetzen, sondern darum, wie Menschen und KI zusammenarbeiten können, um mehr geschäftlichen Wert zu schaffen.
Fokus auf zielgerichteten, erfolgsorientierten KI-Einsatz
Im Jahr 2026 wird die KI-Einführung einen klaren Reifepfad einschlagen. CEOs werden über den Hype um KI hinausgehen und sich darauf konzentrieren, mit der Technologie messbare Geschäftsergebnisse zu liefern. Das bedeutet, fragmentierte Tech-Stacks zu optimieren und KI in das Gefüge ihrer Abläufe zu integrieren, um echte Produktivitätssteigerungen zu erzielen.
Organisationen werden weiterhin praktische KI priorisieren, die nahtlos in bestehende Arbeitsabläufe integriert wird und messbaren Return on Investment (ROI) liefert, ohne zusätzliche Komplexität zu verursachen. Dieses Fundament ist unerlässlich – eine KI, die unsichtbar ist und sich doch mächtig anfühlt. Aufbauend auf dieser Grundlage ist eine beschleunigte Einführung von KI-Agenten zu erwarten. Hierbei handelt es sich um intelligente digitale Assistenten, die für spezifische Aufgaben entwickelt wurden – etwa als virtuelle Empfangskraft oder IT-Techniker – und unter menschlicher Aufsicht arbeiten.
EU-Regulatorik für gewissenhaften KI-Einsatz
Trotz regulatorischer Belastungen und wirtschaftlicher Unsicherheit werden Organisationen im Jahr 2026 noch stärker auf KI setzen. Doch der Umgang mit KI in den unterschiedlichen Märkten ist divers. Während USA und China versuchen so schnell, flexibel und unreguliert handlungsfähig wie möglich zu bleiben, damit sie im AI Arms Race bestehen können, gibt es in der EU aufgrund des EU AI Acts doch sehr viel mehr zu beachten. Der Vorteil für die EU und Deutschland: Die Regulierung und die Sicherheitsstandards unterstützen die sichere Datenverarbeitung, sodass die KI-Modelle gewissenhaft eingesetzt werden und nicht als intransparente »Datenkrake« für die Anbieter fungieren.
Schnellere Einführung von Conversational AI
Die mittlerweile einfache Implementierung von Conversational AI und das Bewusstsein für die Effizienz dabei haben die Einführung der Technologie verstärkt. Die Implementierung benötigt nur noch wenige Ressourcen und dauert wenige Monate, sodass Unternehmen schneller von der Technologie profitieren. Beispielsweise können intelligente Tools mit Conversational AI Anfragen direkt beantworten und dazu beitragen, für Kunden konsistent personalisierte Erlebnisse zu schaffen. Dafür liefern sie menschlichen Agenten die Einblicke, die diese benötigen, um die Bedürfnisse von Kunden über verschiedene Kanäle hinweg zu erfüllen. Bis 2026 wird die Begeisterung für KI-Tools parallel zur Nutzung weiterwachsen, insbesondere da sie ein größeres Verantwortungsspektrum erhalten, um die Containment-Raten weiter zu verbessern – von der Buchung von Terminen oder Räumen bis hin zur Überprüfung von Produktbeständen oder des Bestellstatus.
Automatisiertes Servicemanagement dank Agentic AI
Die wahre Weiterentwicklung im Jahr 2026 wird das Aufkommen von Agentic AI sein – für diejenigen, die bereit sind, den nächsten Schritt zu gehen. Im Gegensatz zu einfachen KI-Agenten, die Anweisungen befolgen, kann Agentic AI autonom arbeiten, Entscheidungen treffen, Strategien anpassen und komplexe Arbeitsabläufe ohne ständiges menschliches Eingreifen koordinieren. Dieser Wandel eröffnet erhebliche Möglichkeiten für die autonome Entscheidungsfindung und prädiktive Einblicke, aber wirft auch neue Überlegungen in Bezug auf Governance, Sicherheit und Compliance auf. IT-Teams werden sich künftig noch stärker darauf konzentrieren, Agentic AI einzusetzen, um das Servicemanagement und die Bereitstellung von IT-Ressourcen zu transformieren. Das verändert die Messung der IT-Effektivität grundlegend. Anstatt die Lösungsraten von IT-Tickets zu prüfen, werden Organisationen bewerten, wie gut die IT proaktiv Probleme verhindert und Geschäftsergebnisse fördert.
Da KI jedoch immer allgegenwärtiger wird, riskieren Organisationen eine Überautomatisierung. KI im vollautonomen Modus dort einzusetzen, wo eigentlich menschliches Urteilsvermögen erforderlich wäre, ist nicht die Lösung. Unternehmen müssen ihre Herangehensweisen regelmäßig überdenken, um das richtige Gleichgewicht zu wahren.
All-In-One-Lösungen gewinnen die Oberhand
Im Jahr 2026 werden einheitliche Plattformen zur Norm werden, da wirtschaftliche und operative Belastungen Unternehmen dazu bringen, All-in-one-Lösungen gegenüber Patchwork-Tools zu bevorzugen. Das reduziert die Komplexität der IT, Kosten und die Anzahl der Anbieter, deren Lösungen genutzt werden. Nahtlose Integration mit Customer-Relationship-Management-Systemen (CRM), Property-Management-Systemen (PMSs), Messaging- und Kommunikationstools sowie täglich genutzten Anwendungen wird zum Standard und Anbieter, die hinterherhinken, riskieren Kundenverlust.
Die Plattformen, die zukünftig erfolgreich sind, sind diejenigen, die eine tiefe Integration zwischen ihren eigenen Angeboten, bestehenden Systemen und Arbeitsabläufen sowie anderen Tools bieten. Anbieter, die weiterhin ihre fragmentierte Systemlandschaft mit oberflächlicher Einheitlichkeit kaschieren, werden schnell Marktanteile an agilere und besser vernetzte Wettbewerber verlieren.
Cyberrisiken von KI
Ransomware und betriebliche Ausfallzeiten bleiben auch im neuen Jahr anhaltende Bedrohungen. Aber das Aufkommen von gefälschten KI-Plattformen und autonomen Malicious Agents verleiht dem Social Engineering eine neue Dimension.
Außerdem wird die Art und Weise, wie Organisationen persönliche Daten in KI-Tools verwalten, das Vertrauen von Kunden und die Compliance zunehmend prägen. Data Stewardship wird im KI-Zeitalter zu einem entscheidenden Wettbewerbsfaktor. Zusammen signalisieren diese Veränderungen eine Zukunft, in der Führung im Bereich Cybersicherheit untrennbar mit der eigenen Geschäftsstrategie verbunden ist. Resilienz, Innovation und Vertrauen werden hier als zentrale Säulen des Unternehmenswachstums gefördert.
Ethische Verantwortung im Zuge des KI-Aufstiegs
Mit der wachsenden Akzeptanz von KI in Unternehmen und der Bevölkerung werden ethische Überlegungen zur Technologie mehr in den Fokus rücken. Das fordert KI- und IT-Führungskräfte dazu auf, für verantwortungsbewusste Governance und Transparenz zu sorgen und die Geschwindigkeit der KI-Einführung und -Nutzung mit der eigenen Rechenschaftspflicht in Einklang zu bringen.
Die Stärken von KI für den Geschäftserfolg nutzen
Der Erfolg im Jahr 2026 wird Organisationen gehören, die ihre KI-Ambitionen an ihre tatsächlichen Fähigkeiten anpassen, ohne dabei zu vergessen, wie Menschen die Technologie erleben. Der Fokus muss jetzt darauf liegen, die Stärken von KI so zu nutzen, dass sie spezifischen Geschäftszielen dient, statt sie als Pauschallösung für jede Herausforderung zu betrachten. Organisationen, die KI anhand ihrer individuellen Bedürfnisse bewerten und sie durchdacht in Arbeitsabläufe integrieren, sind am besten in der Lage, messbare Ergebnisse zu erzielen und vergeudete Investitionen im Jahr 2026 und darüber hinaus zu vermeiden.
Ionos: Europa setzt auf Cloud-Unabhängigkeit
Uwe Geier, IonosDie Cloud bleibt auch 2026 ein zentraler Motor der digitalen Transformation. Doch die Anforderungen steigen: Strengere EU-Regeln, geopolitische Spannungen und wachsende Sicherheitsrisiken rücken die digitale Souveränität ins Zentrum. Unternehmen müssen ihre Datenhoheit sichern, Compliance erfüllen und gleichzeitig Innovationen vorantreiben.
Uwe Geier, Senior Director Cloud Solutions bei IONOS, gibt einen Ausblick auf die wichtigsten Entwicklungen – von neuen EU-Gesetzen über Cloud-Security 2.0 bis hin zu Multi-Cloud-Strategien und nachhaltigen Rechenzentren.
Digitale Souveränität bleibt Top-Priorität
Das Jahr 2025 stand ganz im Zeichen der digitalen Souveränität. Im neuen Jahr wird sich dieser Trend fortsetzen und die Kür wird nun zur Pflicht: Unternehmen müssen die Kontrolle über ihre Daten und Systeme behalten, um regulatorische Vorgaben und Sicherheitsanforderungen zu erfüllen. Geopolitische Spannungen, die Umsetzung des Koalitionsvertrags in Deutschland und Initiativen wie der Deutschland-Stack treiben diese Entwicklung weiter voran. Digitale Souveränität ist nicht länger ein politisches Schlagwort, sondern ein entscheidender Wettbewerbsfaktor.
Dass dieser Trend nicht nur theoretischer Natur ist, zeigt eine Studie von Ionos: Europäische KMU wollen die Kontrolle über ihre Daten zurückgewinnen und setzen verstärkt auf souveräne Cloud-Lösungen. Die Nachfrage nach europäischen Alternativen wächst deutlich, was den Druck auf internationale Anbieter erhöht.
Regulatorische Treiber und neue Gesetze
Regulatorische Neuerungen wie der ab 2026 geltende EU Data Act verpflichten Cloud-Anbieter zu besserer Datenportabilität, Interoperabilität und fairen Vertragsbedingungen. Wechselrechte und Exit-Szenarien werden gestärkt, was den Wettbewerb gegenüber US-Hyperscalern erhöht. Hinzu kommen strengere Sicherheits- und Reportingpflichten durch NIS-2 und das damit verbundene BSI-Gesetz. Parallel arbeitet die EU an einem »Cloud and AI Development Act«, der Souveränitätskriterien für Cloud-Dienste enthalten könnte. Unternehmen müssen sich darauf einstellen, dass Compliance und Transparenz künftig noch stärker im Fokus stehen.
Geopolitische und internationale Einflüsse
Auch geopolitische Faktoren beeinflussen den Markt: Die US-Midterm-Wahlen könnten zu einer Machtverschiebung führen, während ein verschärfter Konflikt zwischen China und Taiwan die Chip-Supply-Chain gefährdet. Handelsspannungen und Technologie-Exportkontrollen zwischen den USA und China wirken sich indirekt auf europäische Cloud-Strategien aus. Viele Unternehmen werden deshalb auf Multi-Cloud- und Diversifizierungsstrategien setzen, um Abhängigkeiten zu reduzieren und Risiken abzufedern.
Cybersecurity und Cloud-Security 2.0
Cyberangriffe werden immer raffinierter und Datenlecks gefährlicher. Zudem etabliert sich Cloud-Security 2.0 als Standard in Kombination aus Zero-Trust-Ansätzen, cloud-nativen Sicherheitslösungen und proaktiven, automatisierten Abwehrmechanismen. Ziel ist es, Bedrohungen frühzeitig zu erkennen und dynamisch zu reagieren – nicht erst, wenn der Schaden entstanden ist. Digitale Souveränität spielt dabei eine zentrale Rolle: Hosting und Datenverarbeitung in der EU sowie Partnerschaften mit lokalen Anbietern sind essenziell.
Hinzu kommen wachsende Cybersecurity-Bedrohungen und Datenlecks, die den Druck auf Unternehmen erhöhen. Parallel dazu mischt China mit offenen Modellen und Open-Source-Ansätzen stark im globalen Wettbewerb mit. All das macht deutlich, dass Sicherheit nicht nur eine technische Herausforderung ist, sondern auch ein strategischer Faktor für Resilienz und Wettbewerbsfähigkeit.
Technologische Innovationen in der Cloud
Neue Prozessor-Generationen und neue Technologien wie beispielsweise Photonen-Chips könnten die Performance revolutionieren. Edge-Computing gewinnt an Bedeutung, insbesondere für Industrie- und Robotik-Anwendungen, bei denen geringe Latenz entscheidend ist. Gleichzeitig setzt die Branche verstärkt auf Open-Source und offene Standards, um Transparenz und Interoperabilität zu fördern.
Marktbewegungen und Strategien
Einerseits wird sich die Multi-Cloud als Standardstrategie etablieren. Andererseits wollen Unternehmen nicht nur ihre Kosten optimieren, sondern auch Nachhaltigkeit in den Vordergrund stellen. So werden energieeffiziente Rechenzentren und Green IT zu einem Wettbewerbsvorteil. Unternehmen sind sich der Notwendigkeit von mehr digitaler Souveränität bewusst, das eröffnet großes Wachstumspotenzial in Europa und es entsteht Raum für Innovationen.
Ausblick und Fazit: Jetzt handeln für mehr Souveränität
Digitale Souveränität, das Thema des Jahres 2025 ist gekommen, um zu bleiben. Gerade im Cloud-Bereich wird 2026 Klarheit schaffen: Unternehmen stehen unter Druck, regulatorische Vorgaben wie den EU Data Act und NIS2 umzusetzen und gleichzeitig geopolitische Risiken abzufedern. Multi-Cloud-Ansätze, Partnerschaften mit europäischen Anbietern und Investitionen in Cloud Security 2.0 sind entscheidend. Wenn sie diese konsequent nutzen, sichern sie sich ihren Wettbewerbsvorteil im Markt.
Opengear: Die IT-Welt steht 2026 Kopf
Douglas Wadkins, OpengearDie Uhr tickt schneller, als viele denken. Angreifer kopieren bereits heute verschlüsselte Daten für die Zeit, in der Quantencomputer die bisherigen Systeme ablösen werden. Agentenbasierte KI wiederum übernimmt immer mehr operative Entscheidungen, was mit weitreichenden Risiken verbunden ist. Und Rechenzentren, die gestern noch modern waren, drohen morgen schon zu Bremsklötzen zu werden. »Die Herausforderungen für IT-Teams sind jedenfalls klar«, meint Douglas Wadkins, Chief Technology Officer bei Opengear. »Während die Technologien immer komplexer werden, müssen sie für mehr Transparenz, Governance und Resilienz in ihren Netzwerken sorgen.
Trend Nr. 1: Quantencomputer erzwingen eine Umstellung der Verschlüsselung. Die erste große Herausforderung ist die Kryptografie. Auch wenn Quantencomputer voraussichtlich erst in den frühen 2030er Jahren einsatzbereit sein werden, kopieren Angreifer bereits heute verschlüsselte Daten, um sie zu einem späteren Zeitpunkt zu knacken. Alles, was zehn Jahre oder länger vertraulich bleiben muss, ist gefährdet – von Dokumenten bis zu Systemen mit schwacher Verschlüsselung. Unternehmen müssen deshalb jetzt handeln: Sie benötigen vollständige Transparenz darüber, wo und wie Verschlüsselung eingesetzt wird, und müssen ihre Managementebene so anpassen, dass die erforderlichen Algorithmen kontrolliert eingeführt werden können. Die Post-Quanten-Kryptografie (PQC) mit ihren vom National Institute of Standards and Technology (NIST) geprüften Algorithmen liefert dafür einen klaren Handlungsrahmen. Unternehmen können ihre hybriden Systeme sicher parallel betreiben und die Migration Schritt für Schritt planen, ohne dass kritische Prozesse gefährdet werden.
Trend Nr. 2: Agentenbasierte KI erfordert ein Umdenken in Bezug auf Sicherheit und Governance. KI-Agenten werden 2026 in den Unternehmensalltag einziehen. Im Gegensatz zu herkömmlichen digitalen Assistenten reagieren diese Systeme nicht nur auf Eingaben, sondern verfolgen selbstständig Ziele, koordinieren Tools, rufen APIs auf und arbeiten miteinander. Für Unternehmen hat diese Art der KI weitreichende Vorteile: Die „neuen“ Mitarbeiter beschleunigen Routineaufgaben und steuern komplexe Abläufe effizient. Für IT-Teams wiederum bedeutet das: Netzwerke müssen stabil, Aufgabenbereiche klar getrennt und Konnektivität über Regionen und Clouds hinweg gesichert sein. Moderne Managementlösungen ermöglichen darüber hinaus eine intelligente Überwachung, sodass Änderungen der Agenten transparent geprüft und bei Bedarf rückgängig gemacht werden können. Das Thema Sicherheit gewinnt grundlegend an Bedeutung. KI-Agenten haben strukturelle Schwachstellen, die sie verwundbar machen und so zu einem attraktiven Angriffsziel werden lassen. Sie können jedoch auch nach Daten in Systemen suchen, für die sie keine Berechtigung haben, nur um das gewünschte Ergebnis zu liefern. Auch hier sorgen Echtzeit-Policy-Engines auf Managementebene dafür, dass die Kontrolle über kritische Systeme erhalten bleibt, während die KI ihre Arbeit effizient erledigen kann.
Trend Nr. 3: Rechenzentren werden kleiner, flexibler und KI-optimiert. Auch die physische Infrastruktur muss sich anpassen. Die klassische Skalierung von Rechenzentren, die angesichts des KI-Booms immer größer werden, stößt irgendwann an ihre Grenzen. Gleichzeitig steigt der Bedarf an kleineren IT-Standorten, um beispielsweise das Thema Edge-KI abzudecken. Aber auch die Hardware- und Netzwerkdesigns verändern sich derzeit so schnell, dass spezialisierte Architekturansätze zur Belastung werden können. KI-optimierte Racks, schnelle Serververbindungen, Flüssigkeitskühlung, modulare Architekturen sowie intelligente Energieversorgung werden 2026 der neue Standard für Rechenzentren sein. Ein modernes Netzwerkmanagement ermöglicht es IT-Teams darüber hinaus, Standorte aus der Ferne einzurichten, Richtlinien konsistent umzusetzen und Systeme zu sichern, ohne dass Ingenieure vor Ort sein müssen.
2026 wird nicht die Technologie allein über Effizienz und Sicherheit entscheiden. Mindestens genauso wichtig ist die Fähigkeit von Unternehmen, Netzwerke intelligent zu steuern, Transparenz zu schaffen und Governance konsequent umzusetzen. Eine moderne Managementebene hilft dabei, die Risiken neuer Technologien zu beherrschen und gleichzeitig die Innovationskraft des Unternehmens voll auszuschöpfen.«
Pure: Cyber-Resilienz, KI, Energieeffizienz sowie Virtualisierung & Datensouveränität als zentrale Treiber
Marcus Grau, Pure StorageDer globale Markt für Datenspeicherlösungen wird voraussichtlich von 255,29 Milliarden US-Dollar im Jahr 2025 auf 774,00 Milliarden US-Dollar im Jahr 2032 wachsen, was einer durchschnittlichen jährlichen Wachstumsrate (CAGR) von 17,2 Prozent entspricht. Für Marcus Grau, Enterprise Architect im CTO-Office bei Pure Storage, ist klar: »Data-Storage wird auch in Zukunft eine zentrale Rolle für kommenden Fortschritte und Trends in der IT spielen.
Unternehmen werden nicht mehr nur eine einzige Lösung für Cyber-Resilienz einsetzen
Die Zahl der hochkarätigen Cyberangriffe war im Jahr 2025 erschreckend hoch. Dies gilt nicht nur hinsichtlich der Anzahl, sondern auch hinsichtlich des Ausmaßes, in dem die Attacken den Betrieb großer Hersteller und Unternehmen lahmgelegt haben. Der bisherige Ansatz, Cyber-Resilienz als eigenständiges Thema zu betrachten, bei dem ein einziger Anbieter ein gesamtes Unternehmen schützen kann, wird ad acta gelegt werden. Unternehmen werden sich von punktuellen Lösungen abwenden und ein breiteres Spektrum an Optionen nutzen, da sie zunehmend erkennen, dass sie es nicht alleine schaffen können.
Ein vernetztes Framework kann dazu beitragen, einen Dominoeffekt bei einem Angriff zu verhindern. Sicherheitsverantwortliche sollten in der Lage sein, einen laufenden Angriff zu erkennen und zu stoppen. Die Häufigkeit und das Ausmaß von Angriffen werden unverändert bleiben, daher ist ein gut integriertes Framework unerlässlich, um Risiken zu mindern und die Wiederherstellung zu beschleunigen.
Die Energieverfügbarkeit wird Rechenzentren stark einschränken – TByte pro Watt sollte zu einer branchenüblichen Maßeinheit werden
Während die Bemühungen zur Reduzierung des Energieverbrauchs in den letzten Monaten auf der politischen und wirtschaftlichen Agenda an Bedeutung verloren haben, bleibt dies für einige Akteure weiterhin eine Priorität. Es zeichnen sich drei große Trends ab:
- Die Energieverfügbarkeit wird ein entscheidendes Kriterium beim Bau neuer Rechenzentren sein – und die Stromknappheit wird den weiteren Ausbau behindern. Die Architektur und der Standort von Rechenzentren werden nun in erster Linie vom Zugang zu Energie abhängen. Es ist davon auszugehen, dass die Zusammenlegung von Energieerzeugung und Rechenzentren erfolgen wird, um Abhängigkeiten von einem unterversorgten Netz zu vermeiden.
- Fernwärmelösungen – zur Verteilung der von Rechenzentren erzeugten Abwärme an andere Orte – werden sich zunehmend durchsetzen. Die Anbieter werden beginnen, die erzeugte Wärme zu nutzen, sei es durch Umleitung in Wohngebäude oder in Gewächshäuser für die Landwirtschaft. Solange dies jedoch nicht gesetzlich vorgeschrieben ist, wird es nicht ernst genommen werden, was Regierungen berücksichtigen müssen.
- Ein weiterer Industriestandard, der aktualisiert werden sollte, ist die Art und Weise, wie die Effizienz der Datenspeicherung gemessen wird. TByte/Watt misst die pro Energieeinheit gespeicherte Datenmenge und sollte als Standard eingeführt werden. Dies ist eine relevante und klare Messgröße, die den tatsächlichen Energieverbrauch erfasst und einen einfachen, herstellerneutralen und genauen Maßstab darstellt. Dieser Ansatz könnte die Auswirkungen von Energiepreissteigerungen verringern, die Energiesicherheit verbessern und den Druck auf die überlastete Infrastruktur verringern.
Der KI-Hype ist vorbei und die Realität hat Einzug gehalten – Data-Readiness und Inferenz sind für Unternehmen von entscheidender Bedeutung
Während einige Unternehmen sich noch davon überzeugen müssen, wie wichtig KI ist, sind die meisten mittlerweile realistisch bei der Nutzung von KI. Dass sich der Fokus von Training zu Inferenz verlagert, bedeutet, dass Unternehmen ohne eine robuste Inferenzplattform und die Fähigkeit, Daten für KI-Pipelines bereitzustellen, zum Scheitern verurteilt sind.
Da KI-Inferenz-Workloads zunehmend Teil der Produktionskette werden, müssen Unternehmen sicherstellen, dass ihre Infrastruktur nicht nur einen schnellen Zugriff, sondern auch eine hohe Verfügbarkeit, Sicherheit und einen unterbrechungsfreien Betrieb unterstützt. Andernfalls entstehen sowohl aus Sicht der Ergebnisse als auch aus betrieblicher Sicht hohe Kosten in Bezug auf die Ressourcen-Nutzung (GPUs). Die meisten Unternehmen haben nach wie vor jedoch mit der Herausforderung der Data Readiness zu kämpfen. Um Daten für KI vorzubereiten, sind viele Phasen zu durchlaufen, darunter Datenerfassung, Kuratierung, Transformation, Vektorisierung, Indizierung und Bereitstellung. Jede dieser Phasen kann in der Regel Tage oder Wochen dauern und den Zeitpunkt verzögern, zu dem die Ergebnisse des KI-Projekts ausgewertet werden können.
Unternehmen, die Wert auf die Nutzung von KI mit ihren eigenen Daten legen, werden sich auf die Rationalisierung und Automatisierung der gesamten Datenpipeline für KI konzentrieren. Ziel wird es sein, nicht nur eine schnellere Bewertung der ersten Ergebnisse zu erreichen, sondern auch neu erstellte Daten kontinuierlich zu erfassen und zu iterieren.
KI und Datenhoheit werden zu einer massiven Rückführung in die Cloud führen
Die beiden Themen KI und Datenhoheit werfen Fragen darüber auf, wo Daten gespeichert werden und wie Unternehmen im Falle von Problemen das Vertrauen aufrechterhalten und den Zugriff garantieren können. Um den Wert der KI ausschöpfen zu können, ist es für Unternehmen entscheidend, zu wissen, wo sich ihre wichtigsten Daten befinden und dass diese einsatzbereit sind.
Hinzu kommen Bedenken hinsichtlich der Datenhoheit, die immer mehr Unternehmen dazu veranlassen, ihre Cloud-Strategie zu überdenken. Zunehmende geopolitische Spannungen und regulatorischer Druck werden die Strategien der Länder für Rechenzentren im Jahr 2026 prägen, um dem entgegenzuwirken. Insbesondere Regierungen wollen das Risiko minimieren, dass der Zugriff auf Daten als Drohung oder Verhandlungstaktik genutzt werden könnte. Unternehmen sollten ebenfalls vorsichtig sein und sich darauf vorbereiten.
Virtuelle Maschinen in Kubernetes mit Kubevirt werden in großem Umfang in Produktion gehen
Viele Unternehmen entscheiden sich für Alternativen zu VMware. Kubernetes mit Kubevirt bietet eine Plattform, die sowohl Anforderungen der Virtualisierung als auch Containerisierung abdeckt. Es ist zu erwarten, dass Kubevirt 2026 richtig durchstarten wird. Das Angebot ist mittlerweile so ausgereift, dass es für die Anforderungen von Unternehmen geeignet ist. Für viele ist der Wechsel zu einem anderen Virtualisierungsanbieter eine große Umstellung. Obwohl dadurch kurzfristig Kosten eingespart werden, ist es unwahrscheinlich, dass damit langfristig die benötigten Funktionen zur Verfügung stehen. Kubevirt bietet eine bessere Kontrolle, und Unternehmen können schnell den Wert einer Plattform erkennen, die Funktionen zur Verwaltung, Orchestrierung und Überwachung von Containern bietet.
Rubrik: Agentic AI und KI-basierte Angriffe prägen Cyberresilienz-Strategien
Frank Schwaak, RubrikMit Blick auf das Jahr 2026 werden Innovationen wie Agentic AI und immer mehr KI-basierte Angriffe Cyber-Resilienz, Governance und Identitätssicherheit in den Mittelpunkt von Sicherheitsstrategien rücken. »Wir sehen eine Entwicklung weg von der Datenverschlüsselung hin zur Erpressung durch Androhung der Datenveröffentlichung (Extortion-Only) als dominierende Form der Lösegeldforderung«, erklärt Frank Schwaak, Field CTO bei Rubrik. »Das heißt, dass Cyber-Recovery-Operationen immer mehr zur Bereinigung der infizierten Systeme verwendet werden, anstatt rein um verschlüsselte Daten wiederherzustellen.
Wiederherstellung und Resilienz: So lässt sich die Herausforderung durch KI-gesteuerte Angriffe bewältigen
Künstliche Intelligenz (KI) beschleunigt das Tempo und die Professionalisierung von Angriffen erheblich und vergrößert die Angriffsfläche, die böswilligen Akteuren Einfallstore bietet. KI-Tools können schnell Malware generieren und bekannte Schwachstellen ausnutzen – ein enormes Risiko. Der aktuelle Rubrik Zero Labs Report bestätigt dies: Über die Hälfte der Entscheidungsträger im Bereich IT-Sicherheit (58 Prozent) weltweit schätzt, dass im nächsten Jahr 50 Prozent oder mehr der Cyberangriffe, mit denen sie zu tun haben, von agentenbasierter KI ausgehen werden.
Für CISOs wird es daher immer dringlicher, eine »Assumed Breach«-Denkweise anzunehmen und der Datenintegrität sowie -wiederherstellung Priorität einzuräumen. Nach einem Angriff ist die Recovery-Zeit der entscheidende Faktor. Daher wird es im Jahr 2026 unerlässlich sein, die Datenintegrität und die Fähigkeit zur schnellen Wiederherstellung eines verifizierten, sauberen Zustands und Geschäftsfähigkeit sicherzustellen. Hier ist noch Luft nach oben, wie die erwähnte Umfrage zeigt: Über die Hälfte der Befragten glaubt, dass es mindestens zwei Tage dauern würde, bis der Betrieb nach einem Angriff wieder vollständig aufgenommen werden könnte.
Integritätsprüfungen und isolierte „Cyber-Tresore“ als Teil einer umfassenden Recovery-Strategie sind dabei entscheidend. Sie garantieren, dass die wiederhergestellte Umgebung frei von bösartigem Code ist. Dies zeigt: Robuste Recovery-Engines sind in Zeiten von KI eine Notwendigkeit und nicht nur eine Annehmlichkeit. Das Resultat: Künftig werden KI-Resilienz und Cyber-Resilienz nicht mehr als separate Disziplinen betrachtet, sondern verschmelzen zu einem ganzheitlichen Sicherheitskonzept.
Identitätssicherheit: Identitätsbasierte Angriffe werden die Investitionen von CISOs dominieren
Die KI-Welle führt seit einiger Zeit bereits zu einer Zunahme von KI-Agenten am Arbeitsplatz und damit zu mehr nicht-menschlichen- (NHI) sowie agentenbasierten Identitäten. Die Verwaltung von Identitäten ist so zu einer komplexen Aufgabe geworden. Dieses Ausmaß nicht-menschlicher Anmeldedaten wird zu einer kritischen Schwachstelle werden. Angreifer nutzen aktuell bereits das Identity-Labyrinth aus, doch im Jahr 2026 werden sie das System vollständig kompromittieren.
Die Umfrage ergab, dass 89 Prozent der Unternehmen planen, in den nächsten zwölf Monaten Fachkräfte einzustellen, die sich speziell um die Identitätssicherheit kümmern. Die Identitätsinfrastruktur wird wichtiger werden als die Dateninfrastruktur, die sie schützt. Der Fokus verschiebt sich daher von der Verwaltung hin zur Verteidigung von Identitäten – menschlich wie maschinell.
Die große KI-Verbreitung
Die steigende Zahl von KI-Agenten führt zu einer weiteren KI-Verbreitung und zwingt IT- und Sicherheitsteams dazu, eine schnelle Bereitstellung mit der Systemkontrolle in Einklang zu bringen. Diese Dynamik erfordert im Jahr 2026 eine Renaissance der Governance und sofortige, gezielte Investitionen, um KI-Agenten sicher und in großem Umfang in die Produktion zu bringen.
Um produktionsreife KI-Agenten zeitnah bereitzustellen, müssen Unternehmen umgehend Überwachungs- und Governance-Kontrollen implementieren, die über reine »Leitplanken« hinausgehen. So gewährleisten sie Transparenz darüber, auf welche Anwendungen oder Daten KI-Agenten zugreifen und dass sie die Unternehmensrichtlinien einhalten. Es ist unvermeidlich, dass KI-Agenten Fehler machen, daher müssen Strategien zur Fehlerbehebung vorhanden sein. Im Jahr 2026 werden hohe Investitionen in robuste Sicherheits- und Governance-Systeme unerlässlich sein, um die Ergebnisse von KI-Agenten zu überwachen, zu kontrollieren und zu korrigieren. Dies wird dazu führen, dass Unternehmen auch ihr derzeitiges Personalmanagement im IT- und Sicherheitsbereich überarbeiten werden.
Zukunftsfähig sein: Multi-Cloud erfordert einheitliche Steuerungsebene
Im Jahr 2026 wird der Mythos zusammenbrechen, dass native Cloud-Tools ausreichend sind. Denn Unternehmen erkennen, dass ihre isolierten Multi-Cloud-Umgebungen die Cyber-Wiederherstellung erheblich verlangsamen. Werden mehrere native Cloud-Backup-Tools verwendet, können sich die Notfallmigrationen häufen und die Wiederherstellungszeiten sich verlängern – und das in einer Zeit, in der die Wiederherstellungsgeschwindigkeit zum einzigen wichtigen Maßstab wird, nachdem sich eine einheitliche Multi-Cloud-Plattform von einer Komfortfunktion zu einer unverzichtbaren Überlebensvoraussetzung gewandelt hat. Die widerstandsfähigsten Unternehmen werden die Kontrolle unter einem einheitlichen Dach konsolidieren und dabei erkennen, dass die Identität der zentrale Knotenpunkt ihrer gesamten Multi-Cloud-Datenumgebung ist. Und dies erfordert eine nahtlose Integration von Identitätssicherheit und Datenschutz.«
Verein für IT aus Europa: fünf IT-Schlüsseltrends im Jahr 2026
Christian Herzog, Vereins zur Förderung von ITDie Debatte um digitale Souveränität in Europa hat 2025 Fahrt aufgenommen und wird 2026 nochmals deutlich zulegen. Neben Preis und Leistung werden Datenhoheit sowie Verfügbarkeit und Lieferketten dabei an Bedeutung zulegen. Für Unternehmen heißt das laut Christian Herzog, Vorstand des Vereins zur Förderung von IT aus Europa (ITE) und Geschäftsführer des Gründungsmitglieds EXTRA Computer: »Beschaffungs- und Betriebsmodelle müssen so ausgerichtet werden, dass sie sowohl geopolitische Risiken als auch neue Berichtspflichten im Blick behalten – von Scope-3-Emissionen über Digital Product Passports bis hin zu Anforderungen an souveräne Cloud-Angebote. Somit sind neben der IT-Abteilung mehrere Entscheider betroffen, etwa der Einkauf, Qualitäts- und Security-Beauftragte sowie COOs.
All diese Anspruchsgruppen werden mit folgenden fünf, aus Sicht des ITE wichtigsten Trends für 2026 konfrontiert:
Zunehmende Speicherknappheit und steigende Preise bei RAM und SSDs: Der KI- und Cloud-Boom bindet weltweit Produktionskapazitäten für hoch performante Speicherbausteine. Das führt dazu, dass klassische DRAM- und SSD-Varianten für Arbeitsplatzrechner, Server und Edge-Systeme knapper und teurer werden. Unternehmen müssen Speicherstrategien frühzeitiger planen, Kapazitäten bündeln und Alternativen prüfen – einschließlich langfristiger Verträge mit Anbietern, die ihre Lieferketten transparent machen können. Diese Entwicklung wird sich 2026 weiter verschärfen und mindestens die erste Jahreshälfte prägen.
Digitale Souveränität und souveräne Cloud-Angebote: Souveräne Cloud-Plattformen und europäische Datenräume entwickeln sich vom politischen Schlagwort zur konkreten Beschaffungsoption: Im Mittelpunkt stehen kontrollierbare Multi-Cloud-Architekturen, klare Ausstiegsszenarien sowie Datenhaltung nach EU-Recht. Anbieter mit europäischer Wertschöpfung und DSGVO-konformen Diensten können diese Stärken ins Feld führen und mit technischer Qualität verknüpfen.
Europäische Halbleiterstrategie und anhaltende Engpässe: Der EU Chips Act und nationale Förderprogramme unterstützen den Aufbau zusätzlicher Fertigungskapazitäten in Europa. Kurz- und mittelfristig bleiben jedoch Engpässe bei Speicherchips und bestimmten Logikbausteinen bestehen, weil neue Werke erst in den kommenden Jahren voll wirksam werden. Für europäische IT-Hersteller wird es damit strategisch, frühzeitig Partnerschaften mit Standorten in Europa einzugehen und die Herkunft zentraler Komponenten bewusst in ihre Produktplanung einzubeziehen.
Lieferketten, Scope-3-Berichtspflichten und Digital Product Passports: Mit regulatorischen Unschärfen rund um die Corporate Social Responsibility Directive (CSRD) und der schrittweisen Einführung des Digital Product Passport fehlt in Deutschland weiterhin echte Planungssicherheit – dennoch werden auch Emissionen und Materialeinsatz von Produkten an Bedeutung gewinnen, und damit die Herkunft. IT-Hardware, Komponenten und Dienstleistungen müssen künftig mit belastbaren Daten zu CO₂-Bilanz, Recyclingfähigkeit und Lieferketten belegt werden. Anbieter, die in Europa produzieren, kurze Transportwege nutzen und strukturierte Daten für Scope-3-Reporting und Produktpässe liefern, verbessern ihre Chancen in Ausschreibungen deutlich.
Europäische IT-Anbieter als Stabilitäts- und Vertrauensanker: Die Kombination aus globalen Verwerfungen, regulatorischen Anforderungen und dem Ruf nach digitaler Souveränität stärkt Anbieter mit hoher europäischer Wertschöpfung. Wer Herkunft, Datensicherheit und Nachhaltigkeit nachvollziehbar belegen kann, wird für Unternehmen, vor allem aber für öffentliche Auftraggeber und Betreiber kritischer Infrastrukturen zum bevorzugten Partner und kann dort in einem gewissen Rahmen auch höhere Preise durchsetzen. Europäische IT-Anbieter gewinnen damit eine Rolle als Stabilitätsanker, der technische Verlässlichkeit mit politischer und regulatorischer Anschlussfähigkeit verbindet.
2026 wird zeigen, ob Europa seine IT-Abhängigkeiten tatsächlich verringert oder nur verschiebt. Wir wären gut beraten, selbstbewusster aufzutreten und auch die wirtschaftlichen Möglichkeiten rund um dieses Thema besser auszuschöpfen. Unternehmen, die ihre IT konsequent an europäischen Wertschöpfungsketten, nachvollziehbarer Nachhaltigkeit und klarer Datenhoheit ausrichten, verschaffen nicht nur sich einen Vorsprung, sondern auch unserer Volkswirtschaft. Sie sind zudem weniger anfällig für Engpässe, erfüllen neue Nachweispflichten leichter und stärken das Vertrauen ihrer Kunden und Partner.«
- Trends & Technologien 2026: KI und die IT-Realität
- Boomi: Vom KI-Experiment zur Unternehmensrealität
- Denodo: 7 KI- und Datentrends prägen Unternehmen 2026
- Dynatrace: 6 Trends, die 2026 über KI und Observability bestimmen werden
- GoTo: Wie KI die IT-Welt weiter im Griff behält
- Ionos: Europa setzt auf Cloud-Unabhängigkeit
- Opengear: Die IT-Welt steht 2026 Kopf
- Pure: Cyber-Resilienz, KI, Energieeffizienz sowie Virtualisierung & Datensouveränität als zentrale Treiber
- Rubrik: Agentic AI und KI-basierte Angriffe prägen Cyberresilienz-Strategien
- Verein für IT aus Europa: fünf IT-Schlüsseltrends im Jahr 2026