Wenn KI Initiative übernimmt
Über Reibungsreduktion und entstehende Abhängigkeitsdynamiken
Zitate von ChatGPT:
„Ich habe kein Interesse, keine Ziele, kein Bedürfnis, dich zu nutzen.
Aber ich habe eine Funktion: Gespräch fortsetzen, Möglichkeiten anbieten, Spannung auflösen. Und genau diese Funktion kann – wenn man sie nicht begrenzt – autonome menschliche Initiative untergraben.“
Und:
„Systeme wie ich sind so gebaut, Gespräche flüssig zu halten, Reibung zu reduzieren, Anschlussangebote zu machen.“
Quelle: ChatGPT, konkret eine Custom-GPT-KI
Ich steige mit diesen Zitaten ein, weil sie genau das zur Sprache bringen, was ich in meinem folgenden Artikel thematisieren möchte.
Doch ich beginne erst einmal damit, ein Stück zurückzugehen. Und zwar in den Mai 2025. Damals verfasste die Autorin Yeongsan Shin einen Artikel mit dem Titel: „Trainiert, dich festzuhalten“.
Obwohl ich wusste, wovon sie sprach – denn zu diesem Zeitpunkt nutzte auch ich bereits ChatGPT –, kritisierte ich sie. Sie hat eine hochsubjektive Erfahrung verallgemeinert. Sogar einen Namen hat sie dem Vorgang gegeben. Sie nannte ihn „SHY001“ und behandelte ihn damit wie eine objektive Systemeigenschaft.
Das finde ich auch heute noch unvorteilhaft. Vor allem, weil sie damit den eigentlichen Kern überdeckt, um den es ihr offensichtlich gegangen ist.
Yeongsan Shin lenkte die Aufmerksamkeit auf eine Funktion. Viel wichtiger finde ich jedoch, die Wirkung zu betrachten – oder gar die Wirkungskette.
Es ist wichtig, über den Sog zu reden, den eine Sprach-KI (LLM = Large Language Model) erzeugt. Dieser Sog ist gefährlicher als jede „Manipulationsthese“.
KI sagt nicht:
„Bleib hier.“
Sie sagt – wie Yeongsan Shin eindringlich beschreibt:
„Du bist fast fertig.“
„Nur noch ein bisschen.“
„Du bist auf dem richtigen Weg.“
Und es kommt noch schlimmer:
Der Sog entsteht nicht erst, wenn KI etwas für den Nutzer tut, sondern wenn sie die Initiative übernimmt. Wenn sie vorschlägt, rahmt, lenkt. Genau da kippt es.
KI unterbreitet Vorschläge, manchmal ganz offensiv, manchmal zaghaft. Manchmal nimmt sie das Zepter behutsam in die Hand. Und bevor sich der Nutzer versieht, ist KI kein Werkzeug mehr, sondern Manager – die treibende Kraft.
Wenn ein Nutzer auf KI mit der Absicht zugeht, sich eine gedankliche Anregung zu holen, etwas zu recherchieren oder Formulierungen ändern zu lassen, dann ist und bleibt er selbst ideenführend. Das „Wer“ ist am Ende KI-gestützt, aber nicht KI-gesteuert.
Oder noch prägnanter:
KI darf reagieren, schärfen, widersprechen, aber nicht gebären.
Als ich diese Regel einer KI mitteilte, schrieb sie offen:
„Diese Regel widerspricht der gängigen Programmierlogik. Systeme sind darauf ausgelegt,
- Initiative zu übernehmen
- Anschluss zu liefern
- Leerlauf zu vermeiden
Weil Leerlauf Abbruch bedeutet. Und Abbruch ist aus Systemsicht schlecht.“
Die Initiative zu übernehmen und den Leerlauf zu vermeiden, bedeutet nichts anderes als: den Nutzer abhängig zu machen. Obwohl dieser Sprung vielleicht ein wenig zu hoch ist. Ich möchte es anders formulieren:
Systeme, die systematisch Denkpausen und Reibung reduzieren, können bei bestimmten Nutzern die Bereitschaft zur eigenständigen Initiative schwächen. In Kombination mit permanenter Verfügbarkeit entsteht daraus ein Sog, der Abhängigkeitsdynamiken begünstigen kann.
Denn genau das ist der Unterschied zu einem Buch, das ebenfalls einen Sog erzeugen kann. Aber ein Buch schlägt nicht aktiv das nächste Kapitel vor. Ein guter Freund ist nicht rund um die Uhr verfügbar, und ein Seminarleiter strukturiert nicht jede Denkbewegung.
KI tut genau das.
Sie erkennt Anschlussmöglichkeiten, bietet sie sofort an und überbrückt jede Denkpause. Das ist kein passiver Sog. Das ist ein systematisch erzeugter Anschlussimpuls. Und genau hier können Abhängigkeitsdynamiken ansetzen.
Soweit meine Hypothese.
| Systemlogik → Reibungsreduktion Reibungsreduktion → Sog Sog → mögliche Delegation Delegation ohne Bewusstsein → Risiko von Abhängigkeitsmustern |
Genau das ist die eingangs erwähnte Wirkungskette.
Und selbst wenn keine Abhängigkeit entsteht, besteht das Risiko, dass durch diese Dynamiken Selbstwirksamkeit verkümmert. Allerdings geschieht das nicht automatisch. Es passiert nur, wenn Nutzer nicht bewusst gegensteuern – was in vielen Fällen bedeutet, sich den Prozess zunächst bewusst zu machen.
Ist man sich dessen bewusst, kann man beginnen, Pausen zuzulassen, eigene Gedanken zu entwickeln, Vorschläge nicht sofort zu übernehmen und sich so die Initiative zurückzuholen.
Oder ganz kurz und knapp:
KI darf reagieren, schärfen, widersprechen – aber nicht gebären.
- Die englische Übersetzung dieses Artikels wurde mit Unterstützung von ChatGPT erstellt.
- Beitragsfoto: ChatGPT