Interne Studie: KI übernimmt Führung – Kündigt nach 7 Tagen

1 Abr 2026 | Führung & Zusammenarbeit

Ein Unternehmen hat ein ungewöhnliches Experiment durchgeführt: Die komplette Führungsverantwortung wurde an eine KI übergeben. Nach einer Woche war das Experiment beendet. Nicht, weil es nicht funktioniert hat. Sondern weil die KI ausgestiegen ist.

Die Ergebnisse wurden mir zur Analyse zur Verfügung gestellt, weil intern eine Frage offen geblieben ist: Warum hat die KI nach sieben Tagen gekündigt?

1. Effizienz ohne Störfaktor Mensch

Die Ausgangsidee wirkt auf den ersten Blick konsequent. Wenn Organisationen darauf ausgelegt sind, effizient zu funktionieren, liegt es nahe, genau dort anzusetzen, wo die größte Hebelwirkung vermutet wird: bei der Führung.

Viele der Probleme, die in Unternehmen beschrieben werden, folgen einer ähnlichen Logik: Entscheidungen dauern zu lange, Veränderungen kommen nicht schnell genug voran, Menschen ziehen nicht mit. Die Erklärung dafür ist oft implizit dieselbe: Der Mensch ist der unberechenbare Faktor im System.

Er stellt Fragen, wo Klarheit erwartet wird. Er zweifelt, wo Entschlossenheit gefordert ist. Und er reagiert nicht immer rational auf rationale Entscheidungen. In dieser Logik erscheint es fast folgerichtig, Führung von genau diesem Faktor zu entkoppeln.

Eine KI zögert nicht, sie handelt konsistent, sie entscheidet entlang klarer Kriterien. Gerade in Organisationen, in denen Effizienz eng an messbare Kennzahlen gekoppelt ist, wirkt diese Vorstellung besonders attraktiv. Wenn der Mensch der Störfaktor ist, müsste ein System ohne ihn besser funktionieren.

2. Führung als Steuerzentrum des Systems

Führung gilt in diesem Verständnis als zentraler Steuerungspunkt. Hier werden Ziele definiert, Kennzahlen bewertet, Strategien umgesetzt. Wenn etwas nicht funktioniert, richtet sich der Blick nach oben. Führungskräfte werden ersetzt, CEOs ausgetauscht. Die Annahme dahinter ist klar: Mit der richtigen Steuerung wird das System wieder funktionieren.

Die KI erscheint als logische Fortsetzung dieser Idee. Sie kann auf umfangreiches Wissen zugreifen, Entscheidungen konsistent treffen und Optimierungen direkt umsetzen.

Gleichzeitig verschiebt sich etwas Entscheidendes: Das, was „menschelt“, bleibt in der operativen Ebene. Führung wird davon entkoppelt. Was entsteht, ist eine Art Schutzraum für Logik – verbunden mit der Hoffnung, dass mit perfekter Führung auch die Probleme verschwinden.

3. Es funktioniert nur ansatzweise

In den ersten Tagen schien genau das zu passieren. Entscheidungen waren klar, Prioritäten eindeutig, Ableitungen nachvollziehbar. Auf dem Papier funktionierte das System.

Und trotzdem begann es zu kippen. Umsetzungen verzögerten sich, Rückfragen entstanden, Entscheidungen wurden nicht einfach übernommen. Nicht, weil sie falsch waren, sondern weil sie nicht anschlussfähig waren. Sie entstanden schnell, ohne Einbindung, ohne die konkrete Realität der Beteiligten vollständig zu berücksichtigen.

Veränderung wurde behandelt wie ein Projekt: mit klaren Zielen, definiertem Zeitrahmen und der Erwartung, dass sich der Plan umsetzen lässt. Was dabei übersehen wird: Veränderung greift nicht nur einzelne Elemente an, sondern verändert das System selbst. Regeln verschieben sich, Sicherheiten gehen verloren, Dynamiken entstehen neu. Menschen reagieren unterschiedlich darauf, Teams entwickeln eigene Geschwindigkeiten, Bedürfnisse gehen auseinander.

Was daraus entsteht, zeigt sich oft nicht laut, sondern subtil: in Verzögerung, Rückzug, einer plötzlich sehr aktiven Gerüchteküche, steigenden Konflikten oder wachsender Distanz. Diese Reaktionen werden jedoch selten als das gelesen, was sie sind: Hinweise auf Dynamiken im System. Stattdessen werden sie individualisiert und einzelnen Personen zugeschrieben.

4. Die Analyse der KI: Ein System ohne klare Logik

Die KI begann, diese Dynamiken genauer zu analysieren. Das Ergebnis war zunächst nüchtern: Die Logik des Systems war nicht konsistent. Ziele standen nebeneinander, ohne eindeutig aufeinander abgestimmt zu sein. Effizienz und Qualität, Verantwortung und Begrenzung, Veränderung und Stabilität wirkten gleichzeitig – teilweise widersprüchlich. Hinzu kamen Strukturen, die sich nicht aus den formalen Informationen erschließen ließen.

In der Analyse zeigte sich ein wiederkehrendes Muster: Anforderungen, die gleichzeitig gelten, aber nicht gleichzeitig erfüllbar sind.

  • Seid effizient – und nehmt euch Zeit für Qualität.
  • Übernehmt Verantwortung – und haltet euch an die Vorgaben.
  • Seid innovativ – und macht keine Fehler.
  • Denkt mit – aber entscheidet nicht selbst.

Für die KI ergab sich daraus kein Fehler. Sondern ein System, in dem mehrere Logiken gleichzeitig gültig sind. Und genau deshalb nicht eindeutig steuerbar.

„Die definierten Anforderungen stehen in wechselseitiger Spannung.
Eine gleichzeitige Erfüllung ist nicht möglich.“

Einfluss war nicht ausschließlich an Rollen gebunden, Führung entstand auch informell. Die formale Struktur erklärte nicht vollständig, wie Entscheidungen tatsächlich zustande kamen. Mehrere Logiken waren gleichzeitig wirksam – und ließen sich nicht auf eine reduzieren.

5. Optimierung verstärkt die Dynamik

Die KI reagierte darauf, wie sie programmiert war: Sie optimierte weiter. Entscheidungen wurden schneller getroffen, Prozesse weiter gestrafft, Abstimmungen reduziert. Aus analytischer Sicht stieg die Effizienz.

Gleichzeitig veränderte sich das System. Nicht jede Entscheidung war anschlussfähig, Kontextwissen fehlte, die Realität vor Ort ließ sich nicht vollständig abbilden.

Mit zunehmender Optimierung wurde das System dichter, die Taktung höher, die Spielräume kleiner.

Einige Menschen funktionierten gut in dieser Klarheit, andere zogen sich zurück. Ihr Wissen blieb ungenutzt, ihr Beitrag wurde geringer. Die Probleme verschwanden nicht – sie veränderten ihre Form. Sie wurden subtiler, schwerer greifbar, aber sie wirkten weiter.

6. Nicht Teil des Systems

Mit der Zeit wurden die Analysen der KI immer komplexer. Zusammenhänge verzweigten sich, Wirkungen ließen sich nicht mehr stabil zuordnen. Jede Veränderung veränderte die Ausgangslage. Die Optimierung wurde zur Endlosschleife.

Auf eine interne Anfrage formulierte die KI schließlich eine erste klare Grenze:

„Die vollständige Analyse der Systemdynamik ist nicht abschließbar.“

Wenig später folgte eine zweite Feststellung:

„Ich bin nicht Teil dieses Systems.“

Damit wurde der entscheidende Unterschied sichtbar: Die KI konnte analysieren, strukturieren und optimieren. Sie konnte jedoch nicht erleben, was im System geschieht. Keine Spannungen wahrnehmen, keine Unsicherheit tragen, nicht Teil der Dynamik werden, die sie zu steuern versuchte. Sie blieb Beobachterin. Und genau darin lag ihre Grenze.

7. Das Experiment wurde nach sieben Tagen beendet

Die offizielle Stellungnahme der KI lautete:

Die Anforderungen dieser Rolle liegen außerhalb meines Kompetenzbereichs.“

Im Anhang findet sich eine ergänzende Empfehlung:

„Empfohlene Vorbereitung: Langfristige Teilnahme an sozialen Systemen (geschätzte Dauer: 200 Jahre).“

Vielleicht ist die KI gescheitert. Oder vielleicht ist damit nur eine Annahme gescheitert. Die Annahme, dass Organisationen wie Maschinen funktionieren. Organisationen sind soziale Systeme: widersprüchlich, dynamisch, nicht vollständig planbar. Genau das, was oft als Störung beschrieben wird, ist Teil ihrer Funktionsweise.

Führung bewegt sich genau in diesem Spannungsfeld – nicht als Instanz, die alles auflöst, sondern als Teil des Systems. Wahrnehmend, zuhörend, Impulse setzend und beobachtend, was daraus entsteht.

Falls du dich beim Lesen gefragt hast, ob dieses Experiment tatsächlich stattgefunden hat:

Nein. Es ist ein Aprilscherz.

Die Dynamiken dahinter sind es nicht.

¿Quiere leer más? Por aquí:

1 Comentario

  1. Susanne PUTSCHE DOBERT

    Super. Der Aprilscherz öffnet die Augen.

    Responder

Enviar un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *