Wenn drei LLMs mir dabei helfen, herauszufinden, ob KI uns dumm macht
Letzte Woche führte ich ein ungewöhnliches Experiment durch: Ich diskutierte mit drei verschiedenen Large Language Models sokratisch über die Frage „Macht KI uns dümmer?“ Es war ein faszinierendes Gespräch zwischen Mensch und Maschine über die Auswirkungen eben dieser Maschinen auf unsere Kognition. Die Ironie war nicht zu übersehen – und genau das machte die Diskussion so erkenntnisreich. Dieser Blogbeitrag fasst die wichtigsten Erkenntnisse aus dieser digitalen Denkrunde zusammen.
Die Frage ist falsch gestellt
Schon zu Beginn unserer Diskussion wurde klar: „Macht KI uns dümmer?“ ist die falsche Frage. Die richtige lautet: „Wie lernen wir richtig mit KI?“ Denn die empirische Evidenz zeigt ein differenziertes Bild. Ja, es gibt den sogenannten Google-Effekt – wir erinnern weniger Fakten, wenn wir wissen, dass sie jederzeit abrufbar sind. Ja, wir lagern kognitive Prozesse systematisch an externe Systeme aus (cognitive offloading). Und ja, die PISA-Studien 2022 dokumentieren tatsächlich Rückgänge in Mathematik und Lesen.
Aber – und hier wird es interessant – diese Phänomene beweisen nicht, dass KI per se „dumm“ macht. Sie zeigen vielmehr, dass sich unsere Kompetenzprofile verschieben. Weniger Faktenlernen, mehr Bewertungs-, Strukturierungs- und Transferkompetenzen werden wichtig. Es ist eine evolutionäre Anpassung unseres Lernverhaltens an eine veränderte Informationsumgebung.
Die versteckten Risiken: Wenn Bequemlichkeit gefährlich wird
In meinem Dialog mit den LLMs kristallisierten sich drei zentrale Risiken heraus, die wir ernst nehmen müssen:
Automationsbias ist das erste. Wir folgen Vorschlägen automatischer Systeme auch dann, wenn sie fehlerhaft sind. Was in der Medizin oder Luftfahrt bereits gut erforscht ist, überträgt sich auf das Lernen: Unkritische Übernahme von KI-Antworten führt zu Scheinverstehen.
Homogenisierung ist das zweite Problem. Studien zeigen, dass starker KI-Einsatz zu stilistischer Gleichförmigkeit und geringerer Originalität führt. Wenn alle dieselben Tools nutzen, entstehen ähnliche Denkwege und Outputs.
Das dritte Risiko nenne ich kognitive Bequemlichkeit. Wenn wir systematisch die schwierigsten Denkschritte auslagern, entgehen uns die „desirable difficulties“ – jene produktiven Anstrengungen, die für dauerhaftes Lernen notwendig sind.
Die Lösung liegt in der Methodik
Hier wurde unsere sokratische Diskussion besonders fruchtbar. Die Antwort ist nicht Verzicht auf KI, sondern intelligente Integration. Bewährte Lernprinzipien lassen sich hervorragend mit KI kombinieren:
Retrieval Practice funktioniert auch im KI-Zeitalter. KI kann adaptive Tests generieren, aber die Antworten sollten ohne KI-Hilfen abgerufen werden. Ich nenne es „No-AI-Recall“ – erst denken, dann checken.
Verteiltes Üben wird durch KI sogar verbessert. Intelligente Systeme können optimale Wiederholzeitpunkte vorschlagen und Lernpläne individualisieren.
Metakognition wird zur Schlüsselkompetenz. Wir müssen systematisch reflektieren: Wann nutze ich KI? Welche Qualität haben die Outputs? Wo sind die Grenzen? Diese Selbstreflexion über unsere KI-Nutzung entscheidet über Erfolg oder Misserfolg.
Mein persönlicher „No-AI-First“-Ansatz
Aus der Diskussion entwickelte ich für mich ein einfaches Ritual: „No-AI-First, AI-Second“. Erst formuliere ich eigenständige Hypothesen oder Stichworte, dann nutze ich KI zur Gegenprüfung und Erweiterung. So bleibe ich der aktive Denker, nicht der passive Konsument.
Bei faktischen Behauptungen bestehe ich auf Quellenpfaden und Evidenzstandards. Peer-Review-Publikationen und offizielle Statistiken haben Vorrang vor KI-generierten Zusammenfassungen. Bei Werturteilen und Empfehlungen fordere ich von mir selbst obligatorische menschliche Begründungen.
Das Paradox der erweiterten Kognition
Was mich in der Diskussion am meisten faszinierte: KI kann uns kognitiv erweitern oder einschränken – je nachdem, wie wir sie einsetzen. Die Extended Mind-Theorie zeigt, dass externe Tools Teil unseres Denkprozesses werden können. Smartphones sind bereits externe Gedächtnisse geworden. LLMs könnten externe Denkpartner werden.
Entscheidend ist, dass wir die Kontrolle behalten. Wir dürfen nicht zu passiven Konsumenten von KI-Outputs werden, sondern müssen aktive Kuratoren und Kritiker bleiben.
Fazit: Wir haben die Wahl
Macht KI uns dümmer? Nein – aber wir können uns durch falsche KI-Nutzung selbst dümmer machen. Die derzeitige Evidenz spricht nicht für eine pauschale kognitive Verarmung durch KI. Sie zeigt aber eindeutig: Ungezielte Auslagerung und unkritische Übernahme führen zu flacher Verarbeitung und Urteilsfehlern.
Die Lösung ist eine bewusste Lern- und Arbeitsmethodik, die „desirable difficulties“ erhält und KI als verstärkendes – nicht ersetzendes – Werkzeug nutzt. Wir brauchen eine neue Lernkultur für das KI-Zeitalter.
Und Sie? Wie nutzen Sie KI in Ihrem Lernprozess – als Krücke oder als Sprungbrett?
Hören Sie eine Audio-Zusammenfassung des Beitrags.
Von: Olaf Dunkel – https://www.olafdunkel.de
© 2025 Dieser Beitrag beruht auf eigenständiger Recherche und Analyse diverser Quellen;
eine KI leistete lediglich sprachliche Unterstützung, die inhaltliche Verantwortung trägt ausschließlich der Autor.
Schreibe den ersten Kommentar