2026 wird für viele Unternehmen zum Härtetest für ihre KI-Strategie. Führungskräfte sollten drei wichtige Trends bei der IT-Infrastruktur kennen, die einen leistungsfähigen, sicheren und wirtschaftlichen KI-Einsatz ermöglichen.
2026 markiert für viele Unternehmen einen strategischen Wendepunkt. Zentrale Zukunftstechnologien – von künstlicher Intelligenz über Edge-Computing bis hin zu modernen Datenplattformen – wachsen zu smarten Systemen zusammen. Diese schaffen nicht nur operative Effizienz, sondern eröffnen völlig neue Geschäftsmöglichkeiten. Parallel steigen die Anforderungen an die IT-Infrastruktur deutlich. Drei Entwicklungen werden das Jahr 2026 maßgeblich bestimmen und Einfluss auf die KI-Strategie von Unternehmen nehmen.
KI-Strategie erhöht Reaktionsfähigkeit der Unternehmen
Geschwindigkeit ist heute nicht mehr nur eine technologische Leistungskennzahl, sondern auch ein Synonym für die Fähigkeit eines Unternehmens, Geschäftsentscheidungen nahezu in Echtzeit anzupassen. In der Industrie verknüpfen beispielsweise intelligente Systeme kontinuierlich interne Produktionsdaten mit externen Informationen aus Lieferketten oder Märkten. Sie erkennen frühzeitig Risiken wie Maschinenausfälle oder Nachfrageänderungen und passen Pläne automatisch an. So bleiben Produktionslinien flexibel, Ressourcen werden optimal eingesetzt und Lieferzusagen können zuverlässig eingehalten werden.
Auch im Finanzwesen profitieren Unternehmen von kontinuierlich aktualisierten Risikomodellen. Transaktionen, Marktbewegungen und Kundenverhalten werden in Echtzeit analysiert, sodass Risikobewertungen laufend neu berechnet werden können. Das erhöht die Reaktionsfähigkeit und Compliance. Hier die drei wichtigsten Entwicklungen der IT-Intrastruktur zur Unterstützung einer KI-Strategie.
Trend 1: Die IT-Umgebung wird zur modularen KI-Fabrik
Die Umsetzung von Projekten im Rahmen einer KI-Strategie erfordert eine extrem skalierbare Infrastruktur, was den Investitionsrahmen vieler Unternehmen übersteigt. So kann beispielsweise ein leistungsstarkes GenAI-Modell Hunderte GPUs benötigen. Vor diesem Hintergrund ist ein „Data Center as a Service“ eine interessante Alternative. Unternehmen erhalten Zugang zu Rechenleistung auf spezialisierter IT, ohne selbst eine Infrastruktur aufbauen zu müssen. Grundsätzlich hat sich ein hybrider Ansatz bewährt, mit dem sich die Firmen eine Art „KI-Fabrik“ aufbauen können. Edge-Systeme übernehmen latenzkritische Aufgaben, zentrale Rechenumgebungen dienen als Trainings- und Managementschicht, während Public-Cloud-Kapazitäten bei weniger sensiblen Informationen zur elastischen Skalierung genutzt werden.
Daten werden also nicht mehr pauschal in eine Umgebung verschoben, sondern folgen einem regelbasierten Modell: Wo entsteht der höchste Nutzen? Wo ist das Risiko am geringsten? Wo ist die Verarbeitung wirtschaftlich sinnvoll? Gerade die Token-basierte Ökonomie stellt die lange favorisierte Cloud infrage. Während klassische Anwendungen meist vorhersehbare Rechenlasten erzeugen, variieren KI-Workloads extrem stark. So benötigt ein einfacher Prompt nur wenige hundert Tokens, während eine umfassende Analyse gleich hunderttausende Token verbraucht. Das geht in der Cloud sofort ins Geld. Zugleich gewinnt das Thema digitale Souveränität an Gewicht. Datenverarbeitung und Modelltraining müssen so gestaltet sein, dass Unternehmen ihre Wertschöpfungskette jederzeit selbst kontrollieren können.
Trend 2: Die KI-Strategie erzwingt ein Umdenken bei der Speicherlösung
Der Erfolg von KI-Anwendungen hängt nicht nur von der Rechenleistung, sondern auch von der Effizienz des gesamten KI-Stacks ab. Dazu gehören optimierte Vektordatenbanken, latenzarme Netzwerke, skalierbarer Speicher, intelligente Routing-Mechanismen sowie Sicherheits- und Governance-Layer. Das Ziel besteht darin, Modellaufrufe, Retrieval-Vorgänge und Validierungen so zu organisieren, dass das System nicht nur exakt, sondern auch ressourcenschonend arbeitet. Dabei kommt der Storage-Umgebung eine besondere Rolle zu, da KI-Systeme Datensätze von mehreren hundert Petabyte verwalten. Klassische Speicherarchitekturen wie NAS, SAN oder älterer Direct-Attached Storage stoßen angesichts der hohen Anforderungen an Datenaggregation und schnellen Zugriff der Workloads an ihre Grenzen.
Aber auch bei einer hyperkonvergenten Infrastruktur kann es zu Engpässen kommen, insbesondere wenn die Daten auf verschiedenen Nodes gespeichert sind. Speicher- und Rechenkomponenten müssen zudem stets gemeinsam erneuert werden, obwohl sie unterschiedliche Modernisierungszyklen haben. KI beschleunigt diesen kostspieligen Kreislauf: GPUs müssen in der Regel bereits nach wenigen Jahren aktualisiert werden, während HDDs deutlich langlebiger sind. Disaggregierte Architekturen bieten hier eine Lösung: Storage- und Compute-Leistung sind entkoppelt. Über ein Netzwerk steht eine gemeinsame Speicherebene bereit, die von allen Systemen gleichzeitig genutzt werden kann.
Trend 3: Kleine Modelle bringen Intelligenz in den operativen Kern
Bei den Sprachmodellen galt lange das Motto „Je größer, desto besser“. Im Unternehmensalltag trifft das jedoch oft nicht zu. Ein gutes Beispiel dafür ist die Fertigung. Small Language Models (SLMs) können schnell in die Produktionsprozesse integriert werden. Anders als große KI-Modelle lassen sie sich innerhalb weniger GPU-Stunden für spezifische Aufgaben wie das Erkennen von Abweichungen oder das Auswerten von Wartungsberichten trainieren. Techniken wie die Low-Rank Adaptation (LoRA) helfen dabei, indem sie dedizierte Arbeitsbereiche integrieren, ohne das gesamte Modell neu trainieren zu müssen.
Stand: 16.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die WIN-Verlag GmbH & Co. KG, Chiemgaustraße 148, 81549 München einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von redaktionellen Newslettern nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://kontakt.vogel.de/de/win abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung, Abschnitt Redaktionelle Newsletter.
Ein entscheidender Vorteil ist zudem der lokale Einsatz: SLMs können direkt auf Edge-Geräten oder in abgeschotteten OT-Umgebungen betrieben werden, wodurch Reaktionszeiten und Sicherheitsrisiken minimiert werden. Grundsätzlich gilt: Mit SLMs sinken Rechenaufwand, Energieverbrauch und Cloud-Kosten spürbar. Gerade für Anwendungen im Bereich der Physical AI sind solche kompakten Modelle unverzichtbar, denn selbstlernende, autonome Roboter würden ohne eingebettete Intelligenz nicht funktionieren. Diese Roboter erkennen beispielsweise beim Warentransport Hindernisse, passen Routen dynamisch an und lernen kontinuierlich aus ihrer Umgebung – ähnlich wie der menschliche Mitarbeiter.
Tim van Wasen ist Geschäftsführer DACH bei Dell Technologies.
(Bild: Dell Technologies)
Tim van Wasen, Geschäftsführer DACH bei Dell Technologies, erläutert die Bedeutung einer erfolgreichen KI-Strategie: „2026 wird ein Jahr, in dem Unternehmen nicht mehr fragen, ob sie KI einsetzen, sondern wie sie ihre technischen und operativen Strukturen neu denken müssen, damit alles so funktioniert, dass Wertschöpfung entsteht. KI stellt dabei hohe Anforderungen an die IT-Umgebung. Das bedeutet auch, dass Unternehmen die richtige Balance zwischen Geschwindigkeit, Sicherheit und Kosten finden müssen, um die unterschiedlichsten Prioritäten und Ansprüche in Einklang zu bringen.“