Das Problem: Technologie ohne Betriebslogik
Gartner prognostiziert, dass über 40 Prozent aller Agentic-AI-Projekte bis 2027 eingestellt werden. Bitkom-Daten zeigen, dass mehr als 60 Prozent der deutschen Unternehmen kein definiertes KI-Betriebsmodell haben. Die Konsequenz ist bekannt: Piloten gelingen, Skalierung scheitert.
Das Muster ist immer ähnlich: Ein Use Case überzeugt im Pilot. Die Technologie funktioniert. Das Ergebnis ist beeindruckend. Und dann passiert genau das, was in jedem zweiten KI-Projekt passiert — der Übergang in den produktiven Betrieb gelingt nicht. Nicht wegen der Technologie. Sondern wegen fehlender Betriebslogik.
Was fehlt, ist kein Tool. Was fehlt, ist ein Betriebsmodell.
Was ein KI-Betriebsmodell leisten muss
Ein steuerbares KI-Betriebsmodell beantwortet sechs operative Grundfragen:
- Welche KI-Systeme sind produktiv — und wer weiß das?
- In welche Prozesse sind sie eingebettet — mit welcher Aufgabenverteilung zwischen Mensch und System?
- Wer ist verantwortlich — für den Prozess, das System, die Daten, die Compliance?
- Was passiert, wenn etwas schiefläuft — Eskalation, Fallback, Incident-Reaktion?
- Welche Daten darf das System nutzen — und unter welchen Bedingungen?
- Wie wird Wirkung gemessen — und auf welcher Grundlage werden Entscheidungen getroffen?
Ohne Antworten auf diese Fragen ist KI zwar im Einsatz — aber nicht steuerbar. Und nicht steuerbar bedeutet: nicht produktionsfähig.
Das Framework: Acht Bausteine
Ein belastbares KI-Betriebsmodell besteht aus acht strukturell interdependenten Bausteinen.
Baustein 1 — Strategischer Rahmen KI-Initiativen ohne Strategiebindung erzeugen unkontrolliertes Use-Case-Wachstum ohne Priorisierung. Der strategische Rahmen definiert: Welche Ziele verfolgt die Organisation mit KI? Welche Use Cases sind strategisch relevant? Was ist der Risikoappetit? Ohne diesen Rahmen entsteht kein KI-Inventar — und ohne Inventar keine Governance.
Baustein 2 — Prozess- und Entscheidungsarchitektur Für jeden produktiven KI-Einsatz muss definiert sein: Was tut das System, was bleibt beim Menschen? Wo braucht es menschliche Freigabe, wo entscheidet das System autonom? Diese Aufgabenverteilung ist nicht optional — sie ist die operative Grundlage für menschliche Aufsicht und die direkte Anforderung des EU AI Act an Human Oversight.
Baustein 3 — Rollen und Verantwortlichkeiten Für jede kritische KI-Funktion muss klar sein: Wer verantwortet, wer entscheidet, wer prüft, wer informiert wird. Das RACI-Prinzip ist explizit auf KI-Rollen anzuwenden. Bei Fehlfunktionen gibt es ohne klare Rollen keine Reaktionsfähigkeit — Governance-Verletzungen werden dann umgangen, nicht behoben.
Baustein 4 — Betriebs- und Eskalationslogik Produktive KI-Systeme müssen wissen, wann sie innerhalb ihres Rahmens handeln dürfen und wann sie an Menschen übergeben. Das bedeutet: definierte Konfidenzschwellen, Grenzwerte für autonome Aktionen, Pflichtfreigaben für sensible Ausgabeklassen, Fallback-Mechanismen und eine dreistufige Incident-Taxonomie. Eskalation ist kein Fehlerfall — sie ist normaler Bestandteil kontrollierter KI-Nutzung.
Baustein 5 — Daten- und Wissensbasis Viele KI-Systeme scheitern nicht an der Modellqualität, sondern an einer unklaren oder widersprüchlichen Wissensgrundlage. Geregelt werden muss: zulässige Datenquellen, Aktualitätssicherung, Berechtigungsvererbung (Least Privilege), Retrieval-Logik und inhaltliche Pflegeverantwortung. Ohne diese Regeln degradiert die Wissensgrundlage — still und ohne Warnsignal.
Baustein 6 — Architektur und Integration Steuerbarkeit setzt eine Systemarchitektur voraus, in der KI nicht als Black Box neben der Systemlandschaft steht. Architekturrelevante Entscheidungen umfassen: Integrationsmuster, Policy-Enforcement-Points, Logging-Architektur, Plattformwahl und Lebenszyklussteuerung. Ohne technische Durchsetzung bleibt Governance dokumentarisch.
Baustein 7 — Governance und Compliance Governance, die nur in Dokumenten existiert, ist nicht steuerbar. Freigabepfade nach Risikoklasse, technisch erzwungene Policies, strukturierte Dokumentationspflichten (EU AI Act verlangt für Hochrisiko-Systeme eine vollständige technische Dokumentation) und definierte Change-Prozesse sind keine Kür — sie sind operative Pflicht.
Baustein 8 — Monitoring und Leistungsmessung Ohne systematisches Monitoring gibt es keine Steuerungsgrundlage. Das Monitoring-System strukturiert sich auf vier Ebenen: betriebliche Metriken (Verfügbarkeit, Fehlerrate, Kosten), Qualitätsmetriken (Output-Akzeptanzrate, Human Correction Rate, Halluzinationsquote), Wirkungsmetriken (Prozessgeschwindigkeit, Fehlerreduktion) und Governance-Metriken (Policy Compliance Rate, Auditbereitschaft, Time-to-Detect bei Incidents).
Sechs typische Fehlbilder
Ohne steuerbares Betriebsmodell entstehen in der Praxis immer wieder dieselben Muster:
Tool-getriebene Adaption: Die Organisation startet beim Tool und sucht erst danach einen sinnvollen Einsatzfall. Die Konsequenz: Adoption ohne Wirkung, nach der Initialphase fällt die Nutzung auf ein geringes Niveau zurück.
Prompt-Bastelbetrieb: Wissen und Logik liegen in einzelnen Prompts oder Chatverläufen. Keine Versionierung, keine reproduzierbare Betriebslogik. Der Output hängt von der Kompetenz Einzelner ab — mit jedem Personalwechsel entstehen Qualitätsrisiken.
Schatten-Agenten: Fachbereiche bauen Lösungen außerhalb der Governance-Standards. Lokale Effizienz, globale Risiken: unkontrollierter Datenzugriff, fehlende Protokollierung, unklare Verantwortlichkeiten.
Compliance im Nachgang: Regulatorische Anforderungen werden erst adressiert, wenn ein System technisch implementiert ist. Im Kontext des EU AI Act, der ab August 2026 vollständig wirksam ist, kann das zu erheblichen Nachbesserungskosten oder zur vollständigen Einstellung nicht-konformer Systeme führen.
Skalierung ohne Qualitätsnachweis: Ein Pilot mit lokal positiven Effekten wird direkt in größere Kontexte übertragen. Qualitätsprobleme, die im Pilot durch Aufmerksamkeit einzelner kompensiert wurden, werden im Breitbetrieb sichtbar.
Unklare Verantwortlichkeit: Wenn Fehler auftreten, weiß niemand, welche Verantwortungsebene betroffen ist. Verzögerte Reaktionen, unvollständige Ursachenanalyse, wiederkehrende Fehler.
Was das Betriebsmodell konkret leistet
Wenn die acht Bausteine sauber zusammenspielen, entstehen sechs operative Wirkungsfelder:
Führbarkeit: Die Organisation kann jederzeit beantworten — welche KI-Systeme sind produktiv, in welchen Prozessen, mit welcher Risikoklasse?
Verantwortbarkeit: Bei Fehlfunktionen oder regulatorischen Prüfungen ist zugeordnet, wer verantwortlich ist — dokumentiert, nicht implizit.
Reproduzierbarkeit: Gleiche Inputs erzeugen unter gleichen Bedingungen vergleichbare Outputs, unabhängig davon, welche Person das System bedient.
Skalierbarkeit: Neue Use Cases setzen auf bestehende Architektur-, Governance- und Betriebsbausteine auf. Der Aufwand für jeden weiteren Use Case sinkt — Grenzkosten fallen, Steuerungsqualität bleibt konstant.
Auditierbarkeit: Entscheidungen, Freigaben und Systemverhalten sind in lückenlosen Protokollen nachvollziehbar. Eine externe Prüfung kann ohne Ad-hoc-Rekonstruktion durchgeführt werden.
Wirtschaftliche Steuerbarkeit: Auf der Grundlage von Betriebs- und Wirkungsdaten kann die Organisation entscheiden: Welche Use Cases erzeugen nachweisbaren Wertbeitrag? Wo steigen Risiken unverhältnismäßig? Evidenzbasierte Portfolio-Steuerung statt anekdotischer Erfolgsberichte.
Reifegradmodell: Fünf Stufen
Nicht jede Organisation muss alle acht Bausteine sofort vollständig ausprägen. Das Framework kennt fünf Reifegradstufen:
Stufe 1 — Experimentell: Lokale Tools, individuelle Prompts, keine Standards, keine Governance. Handlungsbedarf: Bestandsaufnahme und erste Priorisierung.
Stufe 2 — Gesteuert im Pilot: Erste priorisierte Use Cases mit definiertem Prozessbezug. Betriebsverantwortung noch offen. Handlungsbedarf: Verantwortung vor Go-Live definieren.
Stufe 3 — Stabil im produktiven Betrieb: Mehrere Use Cases mit klarer Prozesslogik, definierter Eskalationslogik und systematischem Monitoring. Handlungsbedarf: Architekturbausteine standardisieren, Portfolio-Steuerung aufbauen.
Stufe 4 — Skalierbar: Portfolio aus Use Cases über mehrere Fachbereiche, wiederverwendbare Governance-Bausteine, technisch durchgesetzte Standards. Handlungsbedarf: KI-Betrieb in Unternehmenssteuerung integrieren.
Stufe 5 — Integriert: KI ist Bestandteil der regulären Betriebssteuerung, mit messbarem Wertbeitrag auf Unternehmensebene und kontinuierlicher Governance-Prüfung.
Architektur und Governance als Einheit
Ein steuerbares KI-Betriebsmodell ist weder eine reine Managementfrage noch eine reine Technikfrage. Es ist eine Architekturfrage im Sinne des TOGAF ADM: Architektur verbindet Geschäftsanforderungen mit Informationssystemen und Infrastruktur in einem konsistenten Gesamtrahmen.
Das bedeutet: Die Business Architecture definiert Prozesslogik, Rollenmodell und Human Oversight. Die IS-Architektur beschreibt KI-Agenten als neue Applikationsklasse mit Integrations-, Logging- und Lebenszykluslogik. Die Infrastrukturarchitektur legt Plattformentscheidungen, Sicherheitsmechanismen und Monitoring-Stack fest.
Governance muss dabei betriebswirksam sein — nicht nur dokumentiert. Governance-Regeln, die nur in Handbüchern existieren, sind nicht steuerbar. Sie müssen in Policy-Enforcement-Points, Zugriffssteuerungssystemen und Audit-Trails operationalisiert werden.
Fazit
KI ist keine Projekttechnologie. Sie ist Betriebsinfrastruktur — und braucht ein entsprechendes Betriebsmodell.
Das bedeutet nicht, alle acht Bausteine sofort vollständig auszuprägen. Es bedeutet, auf einer realistischen Reifegradstufe zu starten und schrittweise eine Organisation aufzubauen, die ihre KI-Systeme tatsächlich führt: transparent, verantwortbar, auditierbar — und wirtschaftlich steuerbar.
Der Übergang von anekdotischen Piloten zu evidenzbasierter Portfolio-Steuerung ist der eigentliche Reifesprung. Er setzt kein besseres Modell voraus. Er setzt ein Betriebsmodell voraus.