Auf der Suche nach den Gründen:AI scheitert in Deutschland nicht an Innovation, sondern am Betrieb
12. März 2026
Artificial Intelligence (AI) hat in Deutschland die Experimentierphase hinter sich gelassen. Rund ein Drittel der Unternehmen setzt sie bereits ein, weitere folgen. Entscheidend ist dabei längst nicht mehr die Qualität einzelner Modelle. Der Erfolg hängt vielmehr davon ab, ob sich AI im laufenden Betrieb kontrollieren, überwachen und nachvollziehen lässt. Gerade im deutschen Markt mit DSGVO, AI Act und branchenspezifischen Anforderungen wird diese Frage schnell zum kritischen Faktor.
AI ist inzwischen mehr als nur ein Tool. Sie greift aktiv in Geschäftsprozesse ein, trifft vorläufige Entscheidungen, leitet Maßnahmen ein und interagiert mit operativen Systemen. Damit wird AI selbst Teil des Betriebs. Was im Pilotprojekt noch überschaubar ist, kann im produktiven Betrieb schnell an seine Grenzen stoßen, wenn es keine klaren Verantwortlichkeiten, definierte Regeln und zuverlässige technische Grundlagen gibt.
Gerade im Mittelstand, in der Produktion und in regulierten Branchen entscheidet sich der Nutzen von AI nicht an einzelnen Erfolgen, sondern daran, ob sich ihr Verhalten im Alltag erklären und reproduzieren lässt. Viele Unternehmen stellen fest, dass steigende Nutzung nicht automatisch zu stabiler Integration führt. Im Gegenteil: Je mehr Aufgaben AI übernimmt, desto sichtbarer werden strukturelle Schwächen im Betrieb.
Wenn Systeme zu aktiven Nutzern werden
Digitale Systeme wurden lange für menschliche Nutzer entwickelt. Mit AI ändert sich das grundlegend. Assistenten, AI Agents und automatisierte Prozesse handeln eigenständig im Auftrag von Mitarbeitern oder Kunden. Sie bewerten Abläufe nicht nach Benutzerfreundlichkeit, sondern nach Geschwindigkeit, Konsistenz und Aktualität. Verzögerungen oder Unklarheiten führen nicht zu Rückfragen, sondern zu Abbrüchen oder zum Wechsel auf alternative Prozesse.
Für den Betrieb hat das direkte Folgen. Prozesse müssen klar strukturiert, maschinenlesbar und jederzeit aktuell sein. Verfügbarkeit, Preise, Lieferstatus oder Serviceinformationen müssen dem tatsächlichen Zustand entsprechen. Daten, die veraltet, widersprüchlich oder unvollständig sind, entziehen automatisierten Entscheidungen die Grundlage. Schon kleine Abweichungen wirken sich unmittelbar aus und machen Verhalten schwer vorhersehbar. Echtzeitfähigkeit wird damit zur Voraussetzung für kontrollierbares Verhalten, nicht zu einer optionalen Optimierung.
Kontext und Semantik werden zur betrieblichen Voraussetzung
Mit dem Übergang von einzelnen AI-Anwendungen zu mehrstufigen, automatisierten Workflows verschiebt sich der Schwerpunkt weiter. Entscheidend ist nicht, wie viele Daten verfügbar sind, sondern ob AI den richtigen Kontext zur richtigen Zeit erhält.
Im operativen Einsatz braucht AI klare Rahmenbedingungen. Dazu gehören Zugriffsrechte, Kundenhistorien, Prozesslogik und regulatorische Vorgaben. Fehlt dieser Kontext oder ist er uneinheitlich, wirken Ergebnisse zwar auf den ersten Blick plausibel, lassen sich aber nicht erklären oder absichern. Genau hier entstehen Risiken, wenn Entscheidungen wirtschaftliche oder regulatorische Folgen haben.
Unternehmen müssen Kontext daher aktiv steuern. Für jede Entscheidung muss klar sein, welche Informationen relevant sind und in welchem Zustand sie vorliegen. Der Kontext muss konsistent bleiben, auch wenn Workflows wachsen, neue Datenquellen hinzukommen oder historische Informationen einfließen.
Untrennbar damit verbunden ist die semantische Ebene. AI verarbeitet nicht nur Daten, sondern Bedeutungen. Ohne klar definierte Begriffe, eindeutige Beziehungen und verlässliche Metadaten kann sie Regeln nicht korrekt anwenden und Absichten nicht zuverlässig interpretieren. Erst wenn Systeme einheitlich verstehen, was ein Kunde, ein Auftrag oder ein Risiko ist, lässt sich AI im Betrieb tatsächlich steuern.
AI verschärft den Modernisierungsdruck in der IT
Diese Anforderungen machen die Schwächen etablierter IT-Landschaften sichtbar. Strategien, bei denen neue AI-Funktionen lediglich über bestehende Systeme gelegt werden, reduzieren kurzfristig den Aufwand, erhöhen aber langfristig die Komplexität. In diesen Systemen bleiben Abhängigkeiten verborgen, Zustände lassen sich nur schwer rekonstruieren und Verantwortlichkeiten verschwimmen.
Generative AI löst diese Probleme nicht von allein. Sie kann jedoch helfen, Strukturen, Schnittstellen und Abhängigkeiten transparenter zu machen. Gleichzeitig werden Echtzeitdaten wichtiger. Mit event-getriebenen Architekturen und kontinuierlichen Datenströmen können Unternehmen die Systeme so gestalten, dass sie auf Vorgänge reagieren, die tatsächlich gerade passieren. Auf dieser Basis können Unternehmen ihre IT gezielt modernisieren und besser auf den Betrieb automatisierter Entscheidungen vorbereiten.
Ein AI-natives Unternehmen unterscheidet sich daher nicht dadurch, dass es mehr experimentiert, sondern durch seine Prioritäten. Prozesse werden auch für AI gestaltet, Kontext wird als Teil der Infrastruktur behandelt und Bedeutungen werden explizit definiert. Erfolgreich sind nicht die Unternehmen mit den meisten Pilotprojekten, sondern jene, die AI so in ihre Geschäftsprozesse integrieren, dass ihr Verhalten erklärbar bleibt, steuerbar ist und im Alltag zuverlässig funktioniert.
Steffen Hoellinger ist Field CTO bei Confluent.