Unterbeschäftigte Denkprozesse
Wir haben es befürchtet: "KI-Bequemlichkeit" hat ihren Preis

| Natalie Oberhollenzer 
| 23.06.2025

Was die neue MIT-Studie über die kognitiven Nebenwirkungen häufiger KI-Nutzung verrät – und warum sie einen Denkanstoß bezüglich der Nutzung von ChatGPT & Co. geben sollte. Die Ergebnisse zeigen: Wer regelmäßig an die KI delegiert, trainiert sich das eigene Denken zunehmend ab.

Künstliche Intelligenz gilt als effizienter Helfer in der Wissensarbeit. Sie fasst zusammen, formuliert, strukturiert. Doch wer regelmäßig auf ChatGPT und vergleichbare Tools zurückgreift, könnte sich langfristig selbst schwächen. Zu diesem Ergebnis kommt eine neue Studie des Massachusetts Institute of Technology (MIT). 

Die Studie begleitete über einen Zeitraum von vier Monaten insgesamt 54 Testpersonen, die in drei Gruppen aufgeteilt waren: eine Gruppe nutzte ChatGPT beim Verfassen von Essays, eine zweite recherchierte mit klassischen Suchmaschinen (mit KI-freien Ergebnissen), eine dritte arbeitete ohne Hilfsmittel. Die Probanden trugen während des Schreibens EEG-Headsets und smarte Brillen, um Gehirnaktivität und Aufmerksamkeit zu messen.

Das Ergebnis: Die Gruppe, die regelmäßig auf ChatGPT zurückgriff, wies mit Abstand die niedrigste Hirnaktivität auf. Auch das Erinnerungsvermögen an eigene Inhalte war deutlich schwächer ausgeprägt. In späteren Phasen, als dieselben Probanden ohne technische Unterstützung schreiben sollten, zeigte sich: Die zuvor entlasteten Gehirne hatten Schwierigkeiten, ihre Leistung wieder abzurufen.

Die Studienautoren sprechen von "unterbeschäftigten Denkprozessen" – einem Phänomen, das man auch aus anderen Kontexten kennt, in denen Automatisierung die geistige Eigenleistung langfristig ersetzt.

Weniger Tiefe, weniger Eigenständigkeit

Nicht nur die gemessene Aktivität ließ nach. Auch die Inhalte der von ChatGPT unterstützten Texte wurden im Laufe des Experiments oberflächlicher. Die Autoren ähnelten sich in Struktur und Wortwahl – ein Indiz dafür, dass viele der abgegebenen Texte stark auf generierte Vorlagen zurückgriffen, ohne diese weiterzuentwickeln. Im Vergleich dazu waren die Arbeiten der Gruppe ohne Hilfsmittel thematisch vielfältiger, differenzierter und individueller.

Besonders deutlich zeigte sich das in einer späteren Sitzung, bei der die Gruppen getauscht wurden: Probanden, die zuvor ohne Unterstützung gearbeitet hatten, konnten auch mit KI ihre Argumente klar strukturieren und Inhalte gut erinnern. Die umgekehrte Gruppe dagegen tat sich schwer – auch, weil sie sich kaum an das erinnerte, was sie mit KI-Unterstützung selbst geschrieben hatte.

Die Studienergebnisse sind eindeutig – dennoch sollte man sie mit Augenmaß interpretieren. Mit 54 Teilnehmenden war die Testgruppe vergleichsweise klein. Die Aussagekraft liegt daher weniger in ihrer statistischen Reichweite als in der Deutlichkeit der beobachteten Effekte. Die Forschenden selbst betonen, dass weitere Studien mit größeren und diverseren Stichproben notwendig sind, um die langfristigen Auswirkungen von KI-Nutzung auf breiter Basis zu validieren.

Geht die Reflexionsfähigkeit verloren?

Doch die Ergebnisse werfen Fragen auf, die weit über das Schreiben von Essays hinausgehen. Denn viele Unternehmen setzen heute auf KI-basierte Assistenzen in Kommunikation, Wissensmanagement und Textproduktion. Der Wunsch nach Effizienz ist nachvollziehbar – aber was passiert, wenn Denkprozesse durch Automatisierung dauerhaft unterfordert werden?

Gerade in strategischen Positionen, in Führungsrollen oder bei komplexen Aufgaben ist kognitive Leistung nicht durch Tools ersetzbar. Wer dauerhaft an ChatGPT & Co. delegiert, riskiert langfristig, Reflexionsfähigkeit und intellektuelle Tiefe zu verlieren – zunächst individuell, dann unter Umständen auch organisatorisch.

Strukturen schaffen, in denen Denken eingeübt wird

Die Forschenden am MIT betonen, dass es sich nicht um ein generelles Plädoyer gegen KI handelt. Vielmehr sei ein bewusster, reflektierter Umgang notwendig – insbesondere im Bildungsbereich, aber auch in der Weiterbildung, im Coaching oder in der Führungskultur.

Wer Wissen automatisiert, muss zugleich Strukturen schaffen, in denen Denken wieder eingeübt wird. Nur dann bleibt der Mensch – trotz Assistenzsystemen – handlungsfähig, entscheidungskompetent und kreativ. Dass künstliche Intelligenz in vielen Kontexten helfen kann, steht außer Frage. Doch die Studie zeigt deutlich: Je häufiger wir das Denken an Maschinen auslagern, desto mehr verlernen wir es selbst.

Kommentar veröffentlichen

* Pflichtfelder.

leadersnet.TV