Autoritär, demokratisch, soziokratisch. Jedes Modell existiert in zwei Welten: vor KI und mit KI. Eine dritte ist technisch denkbar. Verantwortbar ist sie noch nicht.
Interaktive Visualisierung von Julius Breit. Konzeptentwurf zur Entscheidungskultur in Organisationen und dem Einfluss von KI auf verschiedene Entscheidungsmodelle.
Ein soziokratischer Kreis. Sechs Mitglieder. Jede:r hat einen persönlichen AI Agent. Ein Orchestrator Agent koordiniert den Prozess. Sechs Phasen bis zur Entscheidung.
Anna (Kreisleitung, Head of Product) will die Rolle „Customer Insights Lead" einführen.
Produktentscheidungen basieren auf Annahmen statt Kundendaten. Anna beschreibt das Problem ihrem persönlichen AI Agent. Der Agent hilft, es in einen strukturierten Governance-Vorschlag zu übersetzen.
Der Orchestrator Agent schickt Annas Vorschlag an alle persönlichen Agents im Kreis. Jeder Agent antwortet auf Basis der Wissensbasis seines Menschen. Kein Mensch muss etwas tun.
Der Orchestrator ordnet die Antworten: Konsent, Ergänzungen, Bedenken, qualifizierte Einwände.
Der Orchestrator prüft Kais Einwand gegen die vier soziokratischen Kriterien. Nur qualifizierte Einwände blockieren den Konsent.
Kais Einwand: "Domäne überschneidet sich mit Datenschutz-Rolle"
Der Orchestrator schlägt Anna eine Anpassung vor. Anna entscheidet, welchen Weg der Prozess nimmt.
Anna akzeptiert die Eingrenzung. Angepasster Vorschlag geht an alle Agents. Einwand aufgelöst. Kein Meeting.
30 MinutenNur Anna + Kai + Lisa (Facilitator). Wo endet "Insights", wo beginnt "Datenschutz"?
15 Min MeetingDer Agent lieferte die Analyse. Die Anpassung ist gemacht. Jeder Mensch bestätigt persönlich.
Angepasste Domäne. Qualitative Interviews inklusive.
Neue Rolle im Register. Domänen-Abgrenzung zur Datenschutz-Rolle dokumentiert.
Kais Agent: "achtet künftig auf Domänen-Konflikte". Marcos Agent: "Ressourcenfragen als Bedenken, nicht Einwand."
Async-Konsent funktioniert, wenn Einwände klar qualifiziert werden. Der Orchestrator reduziert die Abhängigkeit von geschulten Facilitator:innen.
Der Mensch bleibt Entscheider. Die KI macht den Entscheidungsraum sichtbar.
Strategische Prioritäten, Constraints.
Team-Stimmung, Engpässe.
Fachliche Positionen, Entscheidungslogik.
Governance-Historie, Protokolle.
Sammelt Positionen, kartiert Konsent-Räume, qualifiziert Einwände, empfiehlt async vs. sync.
→ Positionen-Landkarte aller Kreismitglieder
→ Einwand-Validierung gegen 4 Kriterien
→ Integrationsvorschlag bei Einwänden
→ Empfehlung: async oder Meeting
Die Grenze zwischen "KI-gestützt" und "KI-autonom" ist fließend.
Bildet mein Agent meine echte Position ab? Oder eine vereinfachte, veraltete Version? Stale Agents erzeugen Phantom-Konsent.
Wenn der Orchestrator routinemäßig korrekte Prognosen liefert, hören Menschen auf, den finalen Konsent ernst zu nehmen. "KI-gestützt" wird unmerklich zu "KI-entscheidet".
Akzeptiert Kai, dass ein AI Agent seinen Einwand als "qualifiziert" bewertet? Die Einwand-Prüfung hat Macht über den Prozess.
Wer haftet, wenn ein Agent eine Position falsch wiedergibt und darauf basierend entschieden wird? In regulierten Branchen ist das nicht akademisch.
Ob CEO-Sparring oder Kreis-Orchestrator. Die Technologie ist dieselbe.
Nicht ob KI Entscheidungen übernimmt. Ob Organisationen ihre Entscheidungsprozesse offenlegen.
KI-Unterstützung funktioniert nur, wenn das Entscheidungsmodell explizit ist. Wer nicht formulieren kann, wie Entscheidungen getroffen werden, wer mitreden darf, welche Informationen einfließen, was ein Einwand ist: der kann KI nicht sinnvoll einsetzen. Nicht weil die Technologie fehlt. Weil es nichts gibt, worauf sie aufsetzen kann.
Die meisten Organisationen haben kein KI-Problem. Sie haben ein Explizitheitsproblem. Entscheidungen werden getroffen. Niemand könnte aufschreiben, nach welcher Logik.
KI ersetzt keine Führung.
Sie entlarvt, wo Führung fehlt.
Konzeptentwurf, April 2026
Taste → für nächsten Schritt · ← für zurück
KI verändert nicht das Modell. Sie verändert, wie gut jedes Modell funktioniert.
Menschen sammeln Informationen, diskutieren, entscheiden. Die Qualität hängt von Erfahrung, Verfügbarkeit und Zuhörbereitschaft ab.
Menschen entscheiden weiterhin. KI liefert bessere Grundlagen: strukturierte Informationen, Positionsabgleich, Einwand-Prüfung, Szenario-Analyse.
KI entscheidet eigenständig, ohne menschliche Bestätigung. Technisch zunehmend möglich. Für Entscheidungen mit Tragweite aktuell nicht ratsam.
KI ist kein eigenes Entscheidungsmodell. KI ist eine Schicht, die auf jedes bestehende Modell gelegt werden kann.
CEO nutzt KI als Gegenposition: Jeden Vorschlag systematisch challengen lassen. Kein Teamumbau nötig. Eine Gewohnheit ändern.
KI sammelt Positionen vorab async ein, erstellt ein Differenzbild. Meeting startet mit Klarheit statt Monologen.
Einen Kreis pilotieren: Persönliche Agents für jedes Kreismitglied. Erste Governance-Entscheidung KI-gestützt durchführen.
Tragweite und Reversibilität bestimmen, wie viel KI-Autonomie vertretbar ist.
Operative Führung. Bringt Vorschläge ein, setzt Prioritäten, stellt sicher dass Entscheidungen umgesetzt werden.
Agent kennt: strategische Prioritäten, Constraints, AbhängigkeitenVom Kreis gewählt, vertritt Team-Interessen im übergeordneten Kreis. Bindeglied der doppelten Kopplung.
Agent kennt: Team-Stimmung, Engpässe, SpannungenHält den Prozess, nicht den Inhalt. Prüft Einwände, sorgt für gleichberechtigte Teilhabe.
Wird durch Orchestrator-Agent unterstütztDokumentiert Entscheidungen, pflegt Governance-Protokoll. Institutionelle Erinnerung.
Agent kennt: Entscheidungshistorie, offene PunkteOperative Rollen. Bringen Spannungen ein, geben oder verweigern Konsent. Gleiches Stimmrecht.
Jede:r hat persönlichen Agent mit Position + LogikBefragt persönliche Agents, erstellt Konsent-Prognosen, qualifiziert Einwände, empfiehlt async vs. sync.
Unterstützt Facilitator:in. Ersetzt sie nicht.