Wie werden Entscheidungen im Unternehmen getroffen?

Autoritär, demokratisch, soziokratisch. Jedes Modell existiert in zwei Welten: vor KI und mit KI. Eine dritte ist technisch denkbar. Verantwortbar ist sie noch nicht.

Interaktive Visualisierung von Julius Breit. Konzeptentwurf zur Entscheidungskultur in Organisationen und dem Einfluss von KI auf verschiedene Entscheidungsmodelle.

Ein Kreis entscheidet KI-gestützt

Ein soziokratischer Kreis. Sechs Mitglieder. Jede:r hat einen persönlichen AI Agent. Ein Orchestrator Agent koordiniert den Prozess. Sechs Phasen bis zur Entscheidung.

Das Szenario

Anna (Kreisleitung, Head of Product) will die Rolle „Customer Insights Lead" einführen.

Ich möchte eine Rolle einrichten, die Kundendaten analysiert und monatlich Empfehlungen an das Produktteam gibt.
Phase 1: Spannung formulieren

Anna formuliert die Spannung

Produktentscheidungen basieren auf Annahmen statt Kundendaten. Anna beschreibt das Problem ihrem persönlichen AI Agent. Der Agent hilft, es in einen strukturierten Governance-Vorschlag zu übersetzen.

A
Anna
Kreisleitung
AI
Annas Agent
Phase 1: Spannung formulieren
Anna
Wir treffen Produktentscheidungen blind. Ich will eine Rolle, die Kundendaten systematisch auswertet.
Annas Agent
Welche Verantwortlichkeiten soll die Rolle haben? Welche Domänen? Welche Entscheidungen darf sie eigenständig treffen?
Anna
Zugang zu Kundendaten, monatliche Auswertung, Empfehlungen ans Produktteam. Keine eigenständigen Produktentscheidungen.
Annas Agent
Strukturierter Vorschlag erstellt. Rolle "Customer Insights Lead". Purpose, 3 Verantwortlichkeiten, 1 Domäne, erwarteter Impact definiert. Bereit für den Kreis.
Anna + persönlicher Agent
Phase 2: Positionen einsammeln

Der Orchestrator sammelt Positionen

Der Orchestrator Agent schickt Annas Vorschlag an alle persönlichen Agents im Kreis. Jeder Agent antwortet auf Basis der Wissensbasis seines Menschen. Kein Mensch muss etwas tun.

Orchestrator
A
Anna
M
Marco
S
Sara
K
Kai
P
Priya
T
Tom
Phase 2: Die Agents antworten
Marcos Agent
Kein Einwand, aber Klärungsbedarf: Engineering hat aktuell keine Kapazität für Datenarbeit.
Saras Agent
Unterstützt. Ergänzung: Rolle sollte auch qualitative Interviews führen.
Kais Agent
Einwand: Domäne "Zugang zu allen Kundendaten" überschneidet sich mit Datenschutz-Rolle.
Priyas Agent
Konsent. Keine Ergänzungen.
Toms Agent
Konsent. Hinweis: Ähnliche Rolle 2024 diskutiert, damals wegen Ressourcen vertagt.
Automatisch, asynchron
Phase 3: Konsent-Karte

Positionen kartieren

Der Orchestrator ordnet die Antworten: Konsent, Ergänzungen, Bedenken, qualifizierte Einwände.

Konsent-Prognose

Orchestrator
Status: Bedingt möglich. 3 Konsent, 1 Bedenken (Ressourcen), 1 qualifizierter Einwand (Domänenkonflikt).
Empfehlung: Domäne eingrenzen auf "anonymisierte Nutzungsdaten".
Phase 3: Einwand-Qualifikation

Ist der Einwand qualifiziert?

Der Orchestrator prüft Kais Einwand gegen die vier soziokratischen Kriterien. Nur qualifizierte Einwände blockieren den Konsent.

Kais Einwand: "Domäne überschneidet sich mit Datenschutz-Rolle"

Konkreter Schaden?
Zwei Rollen mit überlappender Domäne erzeugen Konflikte.
Durch Vorschlag verursacht?
Ohne neue Rolle kein Domänenkonflikt.
Auf Fakten gestützt?
Datenschutz-Rolle hat dokumentierten Datenzugang.
Rolle, nicht Person?
Bezieht sich auf Rollenstruktur, nicht auf Kai persönlich.
4/4 Kriterien erfüllt. Einwand ist qualifiziert und muss integriert werden.
Phase 4: Integration

Vorschlag anpassen

Der Orchestrator schlägt Anna eine Anpassung vor. Anna entscheidet, welchen Weg der Prozess nimmt.

Orchestrator an Anna
Kais Einwand ist qualifiziert. Integrationsvorschlag: Domäne eingrenzen auf "anonymisierte Nutzungsdaten". Voller Datenzugang nur in Abstimmung mit Datenschutz-Rolle.

Wie möchtest du vorgehen?

Option A: Async

Anna akzeptiert die Eingrenzung. Angepasster Vorschlag geht an alle Agents. Einwand aufgelöst. Kein Meeting.

30 Minuten

Option B: 15-Min-Meeting

Nur Anna + Kai + Lisa (Facilitator). Wo endet "Insights", wo beginnt "Datenschutz"?

15 Min Meeting
Hybrid. Anna entscheidet den Weg.
Phase 5: Finaler Konsent

Jeder Mensch bestätigt

Der Agent lieferte die Analyse. Die Anpassung ist gemacht. Jeder Mensch bestätigt persönlich.

Orchestrator an alle
Angepasster Vorschlag. Kais Einwand integriert. Saras Ergänzung aufgenommen. Bitte Konsent bestätigen.
Marco
Konsent.
Kai
Konsent. Abgrenzung passt.
Sara, Priya & Tom
Konsent.
5 von 5. Der Agent lieferte die Prognose. Die Entscheidung treffen die Menschen.
Finale Entscheidung durch Menschen
Phase 6: Dokumentation & Lernen

Rolle beschlossen.

"Customer Insights Lead"

Angepasste Domäne. Qualitative Interviews inklusive.

2
Tage async
1
Einwand integriert
0
Meetings nötig
5/5
Konsent
Governance

Neue Rolle im Register. Domänen-Abgrenzung zur Datenschutz-Rolle dokumentiert.

Agent-Lernen

Kais Agent: "achtet künftig auf Domänen-Konflikte". Marcos Agent: "Ressourcenfragen als Bedenken, nicht Einwand."

Prozess

Async-Konsent funktioniert, wenn Einwände klar qualifiziert werden. Der Orchestrator reduziert die Abhängigkeit von geschulten Facilitator:innen.

Wie das System aufgebaut ist

Der Mensch bleibt Entscheider. Die KI macht den Entscheidungsraum sichtbar.

Anna, Kreisleitung

Strategische Prioritäten, Constraints.

Marco, Delegierter

Team-Stimmung, Engpässe.

Sara, Kai, Priya

Fachliche Positionen, Entscheidungslogik.

Tom, Sekretär

Governance-Historie, Protokolle.

Orchestrator Agent

Sammelt Positionen, kartiert Konsent-Räume, qualifiziert Einwände, empfiehlt async vs. sync.

Output: Konsent-Prognose

→ Positionen-Landkarte aller Kreismitglieder

→ Einwand-Validierung gegen 4 Kriterien

→ Integrationsvorschlag bei Einwänden

→ Empfehlung: async oder Meeting

Offene Fragen

Die Grenze zwischen "KI-gestützt" und "KI-autonom" ist fließend.

Treue der Agents

Bildet mein Agent meine echte Position ab? Oder eine vereinfachte, veraltete Version? Stale Agents erzeugen Phantom-Konsent.

Schleichende Autonomie

Wenn der Orchestrator routinemäßig korrekte Prognosen liefert, hören Menschen auf, den finalen Konsent ernst zu nehmen. "KI-gestützt" wird unmerklich zu "KI-entscheidet".

Legitimation

Akzeptiert Kai, dass ein AI Agent seinen Einwand als "qualifiziert" bewertet? Die Einwand-Prüfung hat Macht über den Prozess.

Regulierung + Haftung

Wer haftet, wenn ein Agent eine Position falsch wiedergibt und darauf basierend entschieden wird? In regulierten Branchen ist das nicht akademisch.

Pragmatisch starten

Ob CEO-Sparring oder Kreis-Orchestrator. Die Technologie ist dieselbe.

Orchestrator / Sparring Agent

Custom GPT / Claude. Prozess-Steuerung oder Beratung.

Persönliche Agents

Custom GPTs mit individueller Wissensbasis pro Person

Kommunikation

Slack / Teams. Konsent-Runden oder CEO-Briefings.

Persistenz

Governance-Register, Entscheidungslog, Status

RAG / Kontext

Protokolle, Rollenregister, Entscheidungshistorie

Die eigentliche Frage ist nicht technisch

Nicht ob KI Entscheidungen übernimmt. Ob Organisationen ihre Entscheidungsprozesse offenlegen.

KI-Unterstützung funktioniert nur, wenn das Entscheidungsmodell explizit ist. Wer nicht formulieren kann, wie Entscheidungen getroffen werden, wer mitreden darf, welche Informationen einfließen, was ein Einwand ist: der kann KI nicht sinnvoll einsetzen. Nicht weil die Technologie fehlt. Weil es nichts gibt, worauf sie aufsetzen kann.

Die meisten Organisationen haben kein KI-Problem. Sie haben ein Explizitheitsproblem. Entscheidungen werden getroffen. Niemand könnte aufschreiben, nach welcher Logik.

KI ersetzt keine Führung.
Sie entlarvt, wo Führung fehlt.

Konzeptentwurf, April 2026

Taste → für nächsten Schritt · ← für zurück

Nicht ob KI. Wie viel.

KI verändert nicht das Modell. Sie verändert, wie gut jedes Modell funktioniert.

Heute Standard

Vor KI

Menschen sammeln Informationen, diskutieren, entscheiden. Die Qualität hängt von Erfahrung, Verfügbarkeit und Zuhörbereitschaft ab.

Funktioniert. Langsam, anfällig für blinde Flecken, abhängig von den Lautesten im Raum.
Jetzt möglich

KI-gestützt

Menschen entscheiden weiterhin. KI liefert bessere Grundlagen: strukturierte Informationen, Positionsabgleich, Einwand-Prüfung, Szenario-Analyse.

Hier gestalten wir jetzt. Jedes Entscheidungsmodell profitiert.
Noch nicht verantwortbar

Autonome KI

KI entscheidet eigenständig, ohne menschliche Bestätigung. Technisch zunehmend möglich. Für Entscheidungen mit Tragweite aktuell nicht ratsam.

Fehlende Haftungsklarheit, Halluzinationsrisiko, keine institutionelle Legitimation.

Jedes Modell in zwei Welten

KI ist kein eigenes Entscheidungsmodell. KI ist eine Schicht, die auf jedes bestehende Modell gelegt werden kann.

 
Vor KI
KI-gestützt
Autoritär
CEO entscheidet auf Basis von Erfahrung und Bauchgefühl. Informationen werden gefiltert nach oben gereicht. Blinde Flecken bleiben unsichtbar.
CEO nutzt KI als Sparringspartner: Szenario-Analyse, Risikobewertung, Gegenargumente. Entscheidung bleibt bei einer Person. Informationsbasis wird breiter.
Demokratisch
Team diskutiert, stimmt ab, sucht Konsens. Meetings dauern lang. Die Lautesten dominieren. Stille Zustimmung wird als Konsens gewertet.
KI sammelt vorab Positionen aller Beteiligten async ein. Visualisiert Übereinstimmungen und Differenzen. Meetings starten mit klarem Bild statt Nullpunkt-Diskussion.
Soziokratisch
Konsent-Verfahren in Kreisen. Facilitator moderiert, Einwände werden geprüft. Erfordert hohe Prozessdisziplin und geschulte Facilitator:innen.
Persönliche AI Agents bilden Positionen ab. Orchestrator kartiert Konsent-Räume vorab. Einwände werden automatisch gegen soziokratische Kriterien geprüft. Async-Konsent wird möglich.
⚠ Autonom (alle Modelle): KI entscheidet ohne menschliche Bestätigung. Denkbar für repetitive, regelbasierte Entscheidungen (Bestellmengen, Routing). Nicht verantwortbar für strategische, personelle oder regulierte Entscheidungen.

Der erste konkrete Schritt

Autoritär

CEO nutzt KI als Gegenposition: Jeden Vorschlag systematisch challengen lassen. Kein Teamumbau nötig. Eine Gewohnheit ändern.

Demokratisch

KI sammelt Positionen vorab async ein, erstellt ein Differenzbild. Meeting startet mit Klarheit statt Monologen.

Soziokratisch

Einen Kreis pilotieren: Persönliche Agents für jedes Kreismitglied. Erste Governance-Entscheidung KI-gestützt durchführen.

Prinzip: Kein Modell muss sich grundlegend ändern. Der erste Schritt ist immer derselbe: die bestehende Entscheidungslogik explizit machen. KI kann nur unterstützen, was formuliert ist.

Nicht jede Entscheidung ist gleich

Tragweite und Reversibilität bestimmen, wie viel KI-Autonomie vertretbar ist.

Entscheidungstyp
KI-Eignung
Operativ-repetitiv
AutomatisierbarBestellmengen, Routing, Lagernachschub, Terminslots
Regelbasiert, reversibel, hohe Frequenz. Mensch definiert Regeln, KI exekutiert.
Taktisch
KI-gestützt, Mensch entscheidetBudgetverteilung, Feature-Priorisierung, Kampagnensteuerung
Mittlere Tragweite, teilweise reversibel. KI liefert Analyse und Empfehlung. Mensch prüft, entscheidet.
Strategisch
KI informiert, Mensch verantwortetMarkteintritt, M&A, Reorganisation, Produktstrategie
Hohe Tragweite, schwer reversibel. KI modelliert Szenarien. Die Entscheidung bleibt bei den Menschen, die die Konsequenzen tragen.
Existenziell / reguliert
KI darf nicht entscheidenPersonalabbau, Compliance, Kreditvergabe, medizinische Freigaben
Irreversibel, direkte Auswirkung auf Menschen. In vielen Jurisdiktionen rechtswidrig (EU AI Act, DSGVO Art. 22). KI darf informieren. Entscheiden: nie.
Faustregel: Je irreversibler die Entscheidung und je direkter die Auswirkung auf Menschen, desto mehr Mensch im Loop.

Sechs Rollen, sechs Agents

Kreisleitung
z.B. Anna, Head of Product

Operative Führung. Bringt Vorschläge ein, setzt Prioritäten, stellt sicher dass Entscheidungen umgesetzt werden.

Agent kennt: strategische Prioritäten, Constraints, Abhängigkeiten
Delegierte:r
z.B. Marco, Senior Engineer

Vom Kreis gewählt, vertritt Team-Interessen im übergeordneten Kreis. Bindeglied der doppelten Kopplung.

Agent kennt: Team-Stimmung, Engpässe, Spannungen
Facilitator:in
z.B. Lisa, Agile Coach

Hält den Prozess, nicht den Inhalt. Prüft Einwände, sorgt für gleichberechtigte Teilhabe.

Wird durch Orchestrator-Agent unterstützt
Sekretär:in
z.B. Tom, Operations

Dokumentiert Entscheidungen, pflegt Governance-Protokoll. Institutionelle Erinnerung.

Agent kennt: Entscheidungshistorie, offene Punkte
Kreismitglieder
z.B. Sara, Kai, Priya

Operative Rollen. Bringen Spannungen ein, geben oder verweigern Konsent. Gleiches Stimmrecht.

Jede:r hat persönlichen Agent mit Position + Logik
Orchestrator Agent
AI, kein Mensch

Befragt persönliche Agents, erstellt Konsent-Prognosen, qualifiziert Einwände, empfiehlt async vs. sync.

Unterstützt Facilitator:in. Ersetzt sie nicht.