Wer heute Texte schreibt, Konzepte entwirft oder Entscheidungen vorbereitet, tut das immer öfter mit Unterstützung generativer KI. Die Tools versprechen Effizienz, Struktur, neue Perspektiven – und liefern oft genau das. Aber was passiert, wenn wir uns zu sehr darauf verlassen?
In dieser Folge fragen wir: Verlernen wir gerade stillschweigend das Denken?
Wir sprechen über die psychologischen Mechanismen hinter
Cognitive Offloading, über neue Studien zu kritischer Urteilskraft im KI-Zeitalter – und darüber, warum eine Kern-Herausforderung bei KI nicht nur in fehlerhaften oder problematischen Daten und Tools liegt, sondern vor allem auch in unserem unkritischen Umgang mit ihr.
Wir diskutieren, wie sich unsere Beziehung zu Wissen, Wahrheit und Verantwortung verändert, wenn wir Entscheidungen vorformulieren lassen, Argumente nicht mehr hinterfragen, und KI-Modelle unter anderem auch mit Desinformationen trainiert werden.
Und wir klären: Wo liegt die Grenze zwischen hilfreicher Entlastung und mentaler Entmündigung?
Eine Folge über Bequemlichkeit, Denkfaulheit, und die unbequeme Frage, wie viel Autonomie wir bereit sind aufzugeben – für ein bisschen Text oder ein hübsches Bild auf Knopfdruck. Seid gespannt auf eine differenzierte Auseinandersetzung – und teilt eure Gedanken mit uns! Diskutiert auf unseren Social-Media-Kanälen oder schreibt uns an
[email protected] oder schaut auf unserem Insta-Kanal vorbei:
instagram.com/codeundkonsequenz. Wir freuen uns auf eure Perspektiven!
Links & Referenzen:- Intro-Geschichten: Studio Ghibli, Y Combinator Supports AI Startup Dehumanizing Factory Workers (404 Media) - Video / Optify.ai & Y Combinator Reaktion
- Housekeeping: The Unbelievable Scale of AI’s Pirated-Books Problem (The Atlantic)
- Studie: Wie Mitarbeiter generative KI nutzen (Veritas, bei it-daily.net)
- Studie: Längsschnittstudie zur KI-Nutzung bei Studierenden (Hochschule Darmstadt)
- Studie: Jugend, Information, Medien 2024: Medienumgang 12- bis 19-Jähriger (JIM)
- Studie: Verbreitung generativer KI im privaten und beruflichen Alltag 2024 (Bayerisches Forschungsinstitut für Digitale Transformation)
- Blooms Taxonomie / Bloom’s Taxonomy: Levels of Understanding
- Reddit Thread: my little sister's use of chatgpt for homework is heartbreaking
- Studie: AI Tools in Society: Impacts on Cognitive Offloading and the Future of Critical Thinking (Michael Gerlich, Swiss Business School)
- Studie: The Power of Virtual Influencers: Impact on Consumer Behaviour and Attitudes in the Age of AI (Michael Gerlich, Swiss Business School)
- Studie: Exploring Motivators for Trust in the Dichotomy of Human—AI Trust Dynamics(Michael Gerlich, Swiss Business School)
- A well-funded Moscow-based global ‘news’ network has infected Western artificial intelligence tools worldwide with Russian propaganda (NewsGuard Report)
- Studie: The Cybernetic Teammate: A Field Experiment on Generative AI Reshaping Teamwork and Expertise (Harvard University, Procter & Gamble)
- Studie: The Impact of Generative AI on Critical Thinking: Self-Reported Reductions in Cognitive Effort and Confidence Effects From a Survey of Knowledge Workers (Carnegie Mellon / Lee et all, Microsoft)
- Studie: Google it, Critical Thinking and Problem Solving in the Internet Age (Ali Arya, Luciara Nardon, Carleton University)
- Miller’s Law
- New Junior Developers Can’t Actually Code (Namanyay Goel)
- Die KI-Verdummung (Marko Kovic)