Unternehmen sollten Technologie-Stack und Datenarchitektur überdenkenKI-native Anwendungen ändern die Spielregeln

4. Dezember 2025

Setzen Unternehmen traditionelle OLTP-Systeme mit ihren starren Architekturen und ihrer starken Bindung an bestimmte Anbieter ein, benötigen sie heutzutage einen neuartigen Ansatz. Dieser umfasst offene, interoperable Plattformen, die Workloads vereinheitlichen und die von KI-nativen Anwendungen geforderte Leistung, Skalierbarkeit und Agilität unterstützen. Unternehmen sollten jetzt handeln, indem sie Fragmentierung reduzieren, Offenheit begrüßen und intelligente Systeme entwickeln.

Seit Jahren sehen sich Unternehmen mit einem grundlegenden Datenproblem konfrontiert: Systeme (Online Transaction Processing, OLTP), die alltägliche Anwendungen ausführen, und Analysesysteme (Online Analytical Processing, OLAP), die Erkenntnisse liefern. Diese Trennung entstand aufgrund traditioneller Beschränkungen der Infrastruktur, prägte aber auch die Arbeitsweise von Unternehmen. Sie führte zu doppelt gepflegten Daten, isolierten Teams und langsameren Entscheidungsprozessen.

Entwickler konzentrieren sich darauf, Anwendungen operativ zu halten; Analysten arbeiten mit verzögerten oder unvollständigen Daten. Die Cloud-Infrastruktur hat zwar viele der ursprünglichen technischen Hürden aufgehoben, dennoch besteht diese Trennung weiterhin. Aufrechterhalten wird sie eher durch veraltete Software, Anbieterabhängigkeit und Trägheit. Dieser Zustand und wie Unternehmen Daten verwalten, gehören auf den Prüfstand gestellt.

Sobald Daten in einem Transaktionssystem liegen, wird es schwierig und kostspielig, sie in ein anderes System zu übertragen. Proprietäre Speicherformate und eng gekoppelte Architekturen sperren Daten in Betriebssystemen ein und blockieren die Integration mit modernen Daten- und KI-Workflows. Viele Unternehmen arbeiten daher mit einer Infrastruktur, die ihren heutigen Anforderungen nicht mehr gerecht wird.

KI-Agenten und -Anwendungen erfordern einen schnellen und zuverlässigen Zugriff auf Live-Daten. Die dafür nötigen Betriebsdaten stecken jedoch in Legacy-Umgebungen fest, was es viel schwieriger macht, Automatisierung, Personalisierung oder Echtzeit-Entscheidungsfindung umzusetzen.

Dies verlangsamt nicht nur die Entwicklung, sondern schränkt auch die Reaktionsfähigkeit, Skalierbarkeit und die Fähigkeit ein, zeitnahe Erkenntnisse aus schnell wachsenden Datenmengen zu gewinnen. Immer mehr Unternehmen suchen nun nach Alternativen, die diese Einschränkungen beseitigen und eine einheitliche, reaktionsschnelle Grundlage für moderne datengesteuerte Systeme bieten.

Von der Fragmentierung zur Vereinheitlichung

Die ursprüngliche Trennung von OLTP und OLAP war sinnvoll, als die Rechenleistung noch begrenzt war. Die Ausführung von Analysen neben operativen Workloads war einfach nicht machbar. Mit Cloud-nativen Speichern wie offenen Tabellenformaten benötigen Unternehmen jedoch keine separaten Pipelines mehr, um Betriebsdaten für Analysen verfügbar zu machen. Trotzdem setzen viele Organisationen weiterhin auf Architekturen, in denen Betriebsdaten erst extrahiert, transformiert und geladen werden müssen, bevor eine Analyse möglich ist. Diese Prozesse verursachen Verzögerungen, doppelte Arbeit und zusätzlichen Aufwand.

Die Auswirkungen sind erheblich. Analysten stützen ihre Entscheidungen auf veraltete Informationen. Entwickler verbringen Zeit mit der Wartung fragiler Pipelines, anstatt neue Funktionen zu entwickeln. Innovationen verlangsamen sich und die Opportunitätskosten steigen.

Als Reaktion darauf stellen immer mehr Unternehmen auf einheitliche Datenarchitekturen um, bei denen operative und analytische Workloads eine einzige Datenbasis nutzen und für jede spezifische Aufgabe optimierte Engines einsetzen. Dies reduziert die Komplexität, verbessert die Effizienz und ermöglicht schnellere Iterationen – allesamt entscheidende Vorteile für das KI-Zeitalter.

KI-Agenten entwerfen

KI-Agenten treiben einen grundlegenden Wandel in der Anwendungsentwicklung voran. Diese intelligenten Systeme können komplexe, mehrstufige Aufgaben ausführen, indem sie proprietäre Daten auswerten und in Echtzeit mit anderen Komponenten interagieren. Mit ihrer Fähigkeit, Entscheidungen und Aktionen im gesamten Daten-Ökosystem zu koordinieren, entwickeln sich diese Technologien über die grundlegende Automatisierung hinaus zu einem wesentlichen Bestandteil der Unternehmensabläufe.

Um diesen Wandel zu unterstützen, muss sich die Infrastruktur weiterentwickeln. KI-Agenten benötigen einen latenzarmen Zugriff auf Live-Daten, eine reibungslose Integration über Systeme hinweg und moderne Entwicklungsworkflows. Ein neues Konzept namens „Lakebase” geht diese Probleme direkt an. Es vereint die Zuverlässigkeit einer operativen Datenbank und die Offenheit eines Data Lake an einem Ort.

Teams können Transaktionen und Analysen durchführen, ohne zwischen verschiedenen Systemen hin- und herwechseln zu müssen. Das Konzept ermöglicht einen schnellen Zugriff auf Daten, lässt sich durch getrennte Speicher- und Rechenkapazitäten leicht skalieren und passt zu modernen Entwicklungsgewohnheiten wie Instant Branching und Versionierung. Es wurde speziell für die heutigen KI-gestützten Workloads entwickelt und ermöglicht sowohl Entwicklern als auch KI-Agenten, Anwendungen schnell zu erstellen, zu testen und bereitzustellen – ohne die Einschränkungen klassischer OLTP-Konfigurationen.

Mit Blick auf die nahe Zukunft deutet die Entwicklung eindeutig auf Offenheit und Konvergenz hin. Unternehmen benötigen eine Infrastruktur, die Silos aufbricht und sowohl analytische als auch operative Anforderungen unterstützt. Sie muss darüber hinaus Entwicklern die Flexibilität geben, schnell und ohne Kompromisse zu handeln.

Traditionelle OLTP-Systeme mit ihren starren Architekturen und ihrer starken Bindung an bestimmte Anbieter stehen zunehmend im Widerspruch zu dieser Entwicklung. Stattdessen benötigen Unternehmen einen neuen Ansatz. Dieser umfasst offene, interoperable Plattformen, die Workloads vereinheitlichen und die von KI-nativen Anwendungen geforderte Leistung, Skalierbarkeit und Agilität unterstützen. Unternehmen sollten jetzt handeln, indem sie Fragmentierung reduzieren, Offenheit begrüßen und intelligente Systeme entwickeln.

Matthias Ingerfeld ist Area Vice President & TechGM Field Engineering für die Region Central EMEA bei Databricks.

Databricks

Lesen Sie auch