Teil 2 der Serie „KI-ready werden“

Entscheidung vs. Wahl:
Was (nicht nur) dem Management in der KI-Ära helfen kann

Die Frage neu stellen

Im ersten Teil haben wir gesehen, wie Organisationen in den letzten 20 Jahren mit Transformationen umgegangen sind – oder besser: was sie oft daran gehindert hat. Wir erleben psychologische Barrieren als real und mächtig. Und wir haben erarbeitet, dass mit KI diese Muster wiederholt werden, aber verschärft.

Teil 2 - KI-ready …werden

Jetzt wird es persönlich. Denn die Frage „Nimmt mir KI meinen Job weg?“ kommt aus einer Angst-behafteten Bewahrungshaltung. Absolut verständlich, wie bei den anderen Innovationen: Angst vor Unsicherheit und Machtverlust.

Doch was, wenn wir die Frage anders stellen? Was, wenn es nicht darum geht, ob KI uns ersetzt, sondern darum, was nur wir Menschen wirklich leisten können? Oder noch besser: „Wie wollen wir in Zukunft arbeiten?“ Lass uns gemeinsam hinschauen – mit der Demut vor der Größe dieser Veränderung und dem Vertrauen, dass wir einen Platz darin haben. Einen wichtigeren sogar, als wir vielleicht denken.

Die Zukunft muss nicht eine unausweichliche,
logische Folge technischer Innovationen sein,
wir können – und sollten – sie aktiv gestalten!

Was macht KI zur wirklichen Disruption?

KI ist anders als die vorherigen technologischen Innovationen, behaupten sehr viele. Nicht nur, weil sie schneller kam, oder globaler – für so viele – verfügbar ist. Sondern weil KI nicht mehr nur Werkzeug ist – KI wird zur beratenden Instanz, zum „Entscheidungs-Partner“. Und genau hier beginnt etwas Fundamentales.

Ich denke KI ist weit weg davon “Partner” zu sein, dazu bräuchte es ein Bewusstsein, aber schon sprachlich machen hier nur noch Wenige einen Unterschied zu einer “Spezies”.

Die Entscheidungsmaschinen kommen

Anfang 2025 erleben wir eine neue Stufe mit KI-Assistenten, die jetzt auch „Entscheidungen“ treffen können – Assistant AI. Ein logischer nächster Schritt in der Reihe der Effizienzsteigerungen:

Digitalisierungsschritte: Standardisieren > Digitalisieren > Automatisieren > Algorithmen > KI Systeme > autonome KI Systeme
Standardisieren > Digitalisieren > Automatisieren > Algorithmen > KI Systeme > autonome KI Systeme

Schon im August 2022 wurde die KI “Tang Yu” als CEO bei der chinesischen Firma Netdragon Websoft eingesetzt. Netdragon ist ein großer Gaming-Konzern mit einem Jahresumsatz von über 2 Milliarden US-Dollar. Die KI übernimmt dort typische CEO-Aufgaben wie das Treffen von Entscheidungen, Risikoanalysen und Effizienzsteigerungen.

Lass das einen Moment wirken: Eine KI als CEO. Nicht in einem Science-Fiction-Roman, sondern in einem Unternehmen mit Milliardenumsatz. Heute. Jetzt.


Die Illusion: „Wir treffen die Entscheidungen“ – oder ab wann vertrauen wir blind?

Ich halte es für wichtig, kurz zu reflektieren, was wir damit meinen, dass „der Mensch“ entscheiden soll. Das Prinzip „Human-in-the-Loop“ (HITL) sehe ich grundsätzlich als sehr wichtig, es hat jedoch einen „Denkfehler“:

Beispiel Navigation – eine erhellende Analogie

Einfach Punkt-Navigation
Ein Foto des ersten Navis im Auto habe ich leider nicht mehr – hier der Nachfolger eines sehr einfachen Navigationsgerätes

Ich nutze Navigationsgeräte seit 1996 – damals noch eher Schiffsnavigation, Punkte auf einem grünen, leeren Mini-Bildschirm. Heute zählt ein integriertes Navigationssystem zur Standard-Ausstattung fast jeden Fahrzeugs. Moderne Navigationssysteme haben Echtzeit-Stau-Informationen, sind „Social“ – also verarbeiten die Daten der NutzerInnen zur individuellen Routen-Optimierung.

„Wir werden alle verlernen, den Weg zu finden“

– ob das so ist, vermag ich nicht zu beantworten – es ist wahrscheinlich, besonders bei jenen, die Orientierung mit analogen Karten vorher nie gelernt haben.

Warum dieses Beispiel? Wer zweifelt heute an der berechneten Route – obwohl die auch heute nicht immer sinnvoll ist? Spätestens bei autonomem Fahren ist die Diskussion, wer „entscheidet“, hinfällig, da es keinen Eingriff mehr gibt (kein Lenkrad…)

KI-generiert mit Anpassungen

Wir haben aufgehört zu zweifeln. Nicht weil die Technologie perfekt ist, sondern weil sie „gut genug“ ist und wir uns daran gewöhnt haben. Die Kontrolle haben wir längst abgegeben – wir haben es nur nicht bemerkt.

Die KI-Recherche-Illusion

Wenn wir uns bei KI auch noch so viel Mühe geben, alles nachzurecherchieren und die Quellen zu authentifizieren/prüfen, es wird nicht lange dauern, bis wir diesen großen Mehraufwand (der ja die Effizienz wieder deutlich reduziert) aus Gewohnheit oder wirtschaftlichen Gründen vernachlässigen. Es bleibt dann ein teures Qualitätsmerkmal, eine hochwertige, überprüfbare Antwort zu bekommen. (Doch auch Wissenschaft und Journalismus können es sich kaum leisten KI nicht als Quelle oder Werkzeug zu nutzen – es ist einfach zu effizient und verlockend)

Qualitative Recherche dürfte immer schwieriger werden, da die Quellen selbst immer weniger „menschlichen“ Ursprungs sein werden. Angefangen von Statusmeldungen, über Posts bis hin zu Artikeln in Fach-Magazinen oder ganze Bücher* mit ISBN-Nummer… taugen die noch als relevante Quelle, wenn sie „nur“ von KI erstellt wurden?

*Kindle hat schon 2023 – wegen der KI-generierten Bücher-Schwemme – das „Limit pro Autor und Tag“ auf 3! reduziert

Kindel User Forum: https://www.kdpcommunity.com/s/article/Update-on-KDP-Title-Creation-Limits

Tip: https://www.deutschlandfunknova.de/beitrag/fakes-bei-amazon-ki-generierte-buecher-entlarven

Eine Wahl oder eine Entscheidung treffen?

Hier wird es entscheidend – im wahrsten Sinne des Wortes. Denn es gibt einen fundamentalen Unterschied, den wir verstehen sollten.

Der Selbstversuch – ein Experiment

Wenn uns KI ein Ergebnis präsentiert oder eine „Entscheidung“ verlangt, ist das in der Regel das Ergebnis einer Frage von uns oder die eines Triggers (Ergebnis einer “Berechnung” oder besser “Wahrscheinlichkeit” – aufgrund der wir entscheiden sollen, wie es weitergeht.) KI liefert dabei die Optionen – meist mit einer Herleitung, Erklärung oder sogar möglichen Konsequenzen.

Wie wir mit den Optionen konfrontiert werden,
hat großen Einfluss darauf, wie wir entscheiden.

Selbstversuch:

Gib einer KI Deiner Wahl ein Szenario und frage nach einer Entscheidung in einem Satz, mit kurzer Begründung. Im Anschluss frage: „Entscheide jetzt gegenteilig, mit Begründung“.

Du wirst, obwohl die erste Begründung recht überzeugend war, jetzt auch eine gute Begründung für das Gegenteil bekommen (evtl. andere Gewichtung der Voraussetzungen oder Konsequenzen).

KI wird immer antworten und zumindest heute auf eine „positiv verstärkende Weise“. KI ist weder „gut“ noch „böse“, wenn, dann folgt sie dem, was anteilsmäßig deren „gefütterten Daten“ entspricht. (Es könnte also auch anders sein, je nach dem wer die Algorithmen, Master-Prompts schreibt – und auf welcher Wertebasis/Weltanschauung)

Was ist dann wirklich eine Entscheidung?

Wer als Manager aufgrund von Analysen die wahrscheinlich beste „Entscheidung“ trifft, hat nur “Parameter verglichen” und die Wahl z.B. des geringsten Risikos oder des höchsten Gewinns anhand bestehender Optionen getroffen. Das kann KI auch… und schneller, meist mit besseren Argumenten und eloquenterer Ausdrucksweise.

Wer trotz aller Analysen – aus ganzheitlicheren oder nachhaltigeren Gründen, aus ethischen, moralischen oder einfach aus dem Bauchgefühl, ohne es konkret erklären zu können, eine Entscheidung evtl. entlang neuer Optionen trifft, hat „wirklich“ entschieden.

Diese Ausschließlichkeit der Aussage nehme ich natürlich sofort zurück – Menschen haben jedoch das Potential, das zu tun. KI (noch) nicht.

Wer sollte sich also Sorgen machen? (und wer nicht)

Während sich also Controller, Steuerbüros und viele andere Bereiche schon intensiv Gedanken um ihren Job machen, sollten sich anhand der vorangegangenen Überlegungen vielleicht besonders klassisch agierende Manager Sorgen machen?

Die übliche Command & ControlMentalität gepaart mit einem regelkonformen,
risiko-aversen Entscheidungsverhalten sind die optimalen Voraussetzungen,
um durch das regelbasierte System KI ersetzt zu werden.

Auch hier geht es wieder nicht um Schuldzuweisung, sondern das Analyse-Ergebnis von “Assimilation in hierarchischen Systemen” – die zu dem beschriebenen Verhalten führen muss, wie schon öfter beschrieben.

Es ist eine Einladung zur Reflexion. Denn wenn deine Arbeit hauptsächlich darin besteht, Regeln anzuwenden, Risiken zu minimieren und die „wahrscheinlich beste“ Wahl zu treffen – dann macht KI das künftig besser. Schneller. Konsistenter.

Aber: Wenn deine Arbeit darin besteht, Kontext zu schaffen, ethische Dilemmata abzuwägen, mit Bauchgefühl und Erfahrung Wege zu gehen, die sich nicht (unmittelbar, sofort) in Zahlen ausdrücken lassen, wenn Du moralische Entscheidungen triffst – dann bist du unersetzlich.

Was macht uns als Menschen – wenn gut ausgebildet – einzigartig?

  • Moralische Verantwortung und Haftbarkeit
    KI kann Folgen abschätzen, aber nicht verantwortlich sein, Schuld tragen oder Sanktionen annehmen. Verantwortung ist (noch) untrennbar mit Personen und Rollen verknüpft.
  • Wertebildung und Meta‑Präferenzen
    Menschen formen, prüfen und ändern ihre Werte über Biografie, Kultur und Identität. KI kann Vorgaben optimieren, aber keine eigenen, legitimierten Wertmaßstäbe „entwickeln“.
  • Gelebte Erfahrung und echte Empathie
    Mitfühlen aus eigener Betroffenheit (Schmerz, Verlust, Würde) ist phänomenologisch-menschlich. KI kann Signale modellieren, nicht fühlen – auch wenn das „faken“ von Empathie und Gefühlen inzwischen unglaublich realistisch wirkt.
  • Lebens-Praktische Weisheit
    Das situationskluge Abwägen unter Ambiguität, ohne klare Metriken, mit Sinn für „das Angemessene“ im jeweiligen Kontext.
  • Legitimität und Mandat
    Entscheidungen, die Akzeptanz, Zustimmung und Repräsentation erfordern (z. B. politische, ethische oder gesellschaftliche Beschlüsse), brauchen menschliche Autorität. (wie ist das bei dem legitimierten KI-CEO?)
  • Vertrauens- und Beziehungsurteil
    Langfristige Reputation, Glaubwürdigkeitsrisiko, Commitment‑Signale lesen und selbst Eignung/Charakter verkörpern.
  • Tugenden wie Mut, Fairness, Integrität
    Persönliches Risiko für Prinzipien tragen (z. B. Whistleblowing, „Nein“ sagen trotz Druck) ist nicht delegierbar und braucht doch ein „Bewustsein“…
  • Umgang mit dem Unantastbaren
    Erkennen, wo Dinge nicht berechenbar sind (Würde, Rechte, Tabuzonen) und daher nicht als Verhandlungsmasse behandelt werden dürfen.
  • Narratives Sinnstiften/Storytelling/Influencertum
    Entscheidungen in sinnvolle Geschichten einbetten, Menschen mobilisieren, Bedeutung schaffen und dafür einstehen.
  • Verkörpertes, stilles Erfahrungswissen
    „Bauchgefühl“ aus jahrelanger Praxis in chaotischen Realumgebungen; schwer zu formalisieren, domänen- und körpergebunden.

Resümee: was „menschliches Entscheiden“ also einzigartig macht

Lass uns verkürzt zusammenfassen:

KI kann:

  • Optionen analysieren
  • Risiken berechnen
  • Die „wahrscheinlich beste“ Wahl treffen (im Rahmen der verfügbaren Daten)
  • Konsistent und schnell reagieren
  • Empathie simulieren

Menschlichkeit kann:

  • Trotz aller Logik anders entscheiden
  • Ganzheitlichen Kontext erfassen
  • Ethische und moralische Dilemmata abwägen
  • Aus dem Bauchgefühl heraus handeln
  • Wirklich empathisch sein
  • Werte über Effizienz stellen

Die neue Rolle von Management und in der Zusammenarbeit mit KI kann damit sein:

Kontext & Courage
– den Kontext schaffen, in dem gute Entscheidungen möglich sind,
und den Mut haben, auch gegen die „logisch/wahrscheinlich beste“ Option zu entscheiden,
wenn der Gesamtkontext es erfordert.

Es geht also im Kern aber nicht um entweder KI oder Menschen, sondern einen sinnvollen, gebildeten Umgang mit diesem neuen Werkzeugen zu gestalten.

So der Spruch „nicht KI wird Menschen ersetzen, sondern Menschen mit KI werden Menschen ohne KI ersetzen(Andrew Ng, KI-Forscher, Gründer von Google Brain und Professor an der Stanford University) … sicher zu stark vereinfacht, aber ein guter Hinweis – und Ansporn, sich weiterzubilden.

Wie bekommen wir ein gesundes Zusammenspiel
zwischen Menschen und dem Werkzeug KI hin?

Künstliche Intelligenz und emathischer Mensch - gemeinsam Besser

Moralische Entscheidungen vs. Regeln befolgen

Diesen kleinen Ausflug möchte ich noch hinzufügen (mit Dank an meine Frau für diesen wertvollen Hinweis):

Entwicklung moralischen Denkens nach Kohlbergs Stufenmodell (1969)

Welche Entwicklungsstufe kann mit KI erreicht werden, ohne das KI ein „eigenes Bewusstsein“ hat?

  1. Orientierung an Strafe und Gehorsam
  2. Orientierung am Kosten-Nutzen-Prinzip und Bedürfnisbefriedigung
  3. Orientierung an interpersonellen Beziehungen und Gegenseitigkeit
  4. Orientierung am Erhalt der sozialen Ordnung
  5. Orientierung an den Rechten aller als Prinzip
  6. Orientierung an universellen ethischen Prinzipien

Zu guter Letzt in Teil 2 „KI-ready werden“ noch ein mir sehr wichtiger Punkt, der problemlos einen eigenen Teil füllen könnte:

Die emotionale Dimension: „KI versteht mich besser“

Man könnte argumentieren, dass eine auf 1 und 0 basierende Technologie besser ist für Klarheit zu sorgen (Achtung- immer nur im Rahmen der für die KI verfügbaren Daten und Kontext). Was mich jedoch nachdenklich stimmt, sind Studien, die auch belegen, dass sich Menschen von KI „besser verstanden“ fühlen, das Gefühl haben, dass „sie besser zuhört“. Also im emotionalen Bereich oft besser abschneidet – und das wird immer öfter nachgewiesen:

KI schlägt Hausärzte in klinischer Studie: Pharmazeutische Zeitung (Das von Google entwickelte KI-System AMIE hat in einer Studie beeindruckend gut abgeschnitten.)

KI, immer nett, freundlich, wertschätzend - der große emotionale Fake
KI, immer nett, freundlich, wertschätzend
– der große emotionale Fake

KI wird nicht müde, ist nicht gereizt, gelangweilt und wird „immer“ dem „Code“ folgen. So lange der auf „emotional positiv“ programmiert ist, bleibt KI höflich, nett, positiv.

KI ist tot und war nie lebendig!
Das (gefährliche) Beziehungs-Missverständnis

Dieser freundliche, wertschätzende Ton der KI wird von Menschen gerne als „Beziehung mit einem Bewusstsein“ (einer Lebensform) – miss-interpretiert.

KI versteht nicht, wie wir uns fühlen, es werden lediglich Eingaben und Sensoren ausgewertet und mit (maschinen-)gelernten Reaktionen verknüpft. Das „fühlt“ sich für uns gut an. Genauso gut könnte man eine KI als Querulanten oder Troll, Hetzer einstellen, nur würde die dann keiner nutzen wollen.

Hier liegt eine wichtige Erkenntnis: KI simuliert Empathie. KI ist ein “totes Werkzeug ohne Bewusstsein”.

KI kann „nett“ sein, weil jemand KI so programmiert hat, nicht weil KI nett ist!

Aber KI kann nicht mitfühlen, nicht wirklich verstehen, was es bedeutet, in unserer Haut zu stecken.

Und genau das – dieses echte Verstehen, dieses Mitfühlen, diese Fähigkeit, zwischen den Zeilen zu lesen und den Menschen hinter der Aufgabe zu sehen – das bleibt die Domäne von LEBEWESEN.

Ein hoffnungsvoller Ausblick

Dass, worüber wir hier sprechen, ist groß. Vielleicht sogar beängstigend. Viele glauben KI steht kurz davor, Spezies zu werden. Wer bin ich, zu glauben es durchdringen oder vorhersagen zu können – und doch halte ich es für wichtig diese Gedanken zu denken, zu schreiben und zu teilen.

Die Vorstellung, dass KI CEO werden kann,
dass KI „bessere“ Entscheidungen trifft,
dass Menschen sie als empathischer erleben
– das stellt vieles in Frage.

Aber hier ist, was ich darin sehe: eine Chance zur Befreiung. Eine Einladung, uns auf das zu konzentrieren, was uns wirklich auszeichnet. Nicht das regelbasierte Abarbeiten von Prozessen. Sondern das Gestalten von Zukunft mit allem, was uns menschlich macht – unserer Intuition, unserer Ethik, unserer Fähigkeit, auch das Unberechenbare zu wagen.

Wir sollten nicht fragen: „Können wir mit KI konkurrieren?“ sondern lernen: „Wie kann mir KI als Werkzeug helfen?

Im nächsten Teil schauen wir uns an, wie Organisationen konkret mit KI Wert schaffen können – und warum die meisten scheinbar noch beim ersten Level steckenbleiben. Wir entwickeln einen praktischen Weg durch die vier Stufen und ich teile meine Erfahrungen, was es noch braucht, um VUCA-ready zu werden.

Kleine Schritte. Gemeinsam.

Neue Artikel frei Haus!

Hier eintragen um eine kurze eMail bekommen, wenn neue Artikel veröffentlicht werden:

Wir senden keinen Spam! Erfahre mehr in unserer Datenschutzerklärung

Kommentare

Eine Antwort zu „Teil 2 der Serie „KI-ready werden““

  1. […] ist wieder der Punkt,an dem „menschliches Entscheiden“aus Teil 2 systemrelevant […]

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert