
Sign up to save your podcasts
Or


Komm' in den Salon. Es gibt ihn via Webplayer & RSS-Feed (zum Hören im Podcatcher deiner Wahl, auch bei Apple Podcasts und Spotify). Wenn du Salon-Stürmer bist, lade weitere Hörer von der [Gästeliste]
Wolfgang und Stefan diskutieren in einer Live-Aufzeichnung aus Düsseldorf die gesellschaftlichen und ökonomischen Auswirkungen künstlicher Intelligenz. Anhand von Einspielern der Wissenschaftler Adam Tooze, Elena Esposito, Markus Gabriel und Christian Uhle analysieren sie das Spannungsfeld zwischen wirtschaftlichem Hype, technologischer Realität und menschlichem Selbstverständnis.
Die Episode beginnt mit einer Einführung in das Thema Latenz und latente Räume. Wolfgang und Stefan besprechen den Dokumentarfilm "Marlene" (1984) von Maximilian Schell über Marlene Dietrich als Beispiel für scheiternde Kommunikation und Intention. Sie ziehen Parallelen zur Interaktion zwischen Menschen und intelligenten Maschinen, bei denen die inneren Zustände des Gegenübers oft verborgen bleiben.
Anhand eines Audio-Clips von Adam Tooze erörtern Wolfgang und Stefan die ökonomischen Versprechen der KI-Befürworter. Es geht um die Automatisierung von Routinearbeiten und die potenzielle Ersetzung von Arbeitsplätzen. Die Moderatoren diskutieren die These der "Bullshit-Jobs" und hinterfragen, ob Effizienzsteigerungen tatsächlich zu Entlassungen führen oder ob menschliche Arbeit in vielen Bereichen unverzichtbar bleibt, insbesondere in der Kulturindustrie und komplexen Verwaltungsprozessen.
Im zweiten Teil der Analyse zu Adam Tooze geht es um makroökonomische Szenarien. Tooze skizziert die Möglichkeit eines massiven Vermögensverlustes, sollte die KI-Blase platzen, da die erwarteten Produktivitätssprünge ausbleiben könnten. Wolfgang und Stefan analysieren die Machtverschiebungen im Silicon Valley, die Konkurrenz zwischen Tech-Giganten wie Google und Nvidia sowie die Diskrepanz zwischen Börsenbewertungen und realwirtschaftlichen Umsätzen.
Die Soziologin Elena Esposito legt in ihrem Einspieler dar, dass künstliche Intelligenz nicht versucht, menschliches Denken zu imitieren, sondern stattdessen Muster in Daten erkennt. Wolfgang und Stefan diskutieren diesen Unterschied zwischen maschineller und menschlicher Intelligenz. Sie beleuchten Espositos These, dass Maschinen gerade deshalb effizient sind, weil sie Inhalte nicht "verstehen" müssen, und übertragen dies auf organisatorische Abläufe.
Esposito äußert sich skeptisch gegenüber der Angst vor einer übermächtigen "Artificial General Intelligence" (AGI), da Maschinen keinen eigenen Willen besitzen. Die Moderatoren vertiefen daraufhin das Thema der menschlichen Kommunikation und der Rolle von Gefühlen als "Reflexionssperren" für das Unaussprechbare. Sie kontrastieren die menschliche Mitteilung mit der Ausgabe von KI-Systemen.
Ein Ausschnitt aus der SRF-Sendung "Sternstunde Philosophie" mit Yves Bossart thematisiert einen südkoreanischen Fall, bei dem eine Mutter mittels VR-Technologie auf den Avatar ihrer verstorbenen Tochter trifft. Wolfgang und Stefan kritisieren die mediale Inszenierung und emotionale Ausbeutung dieses Experiments. Sie hinterfragen die Sinnhaftigkeit solcher Simulationen für die Trauerarbeit.
Der Philosoph Markus Gabriel argumentiert in einem Clip, dass KI-Systeme menschliche Emotionen besser vorhersagen können als Menschen selbst. Wolfgang und Stefan widersprechen dieser "Bankrotterklärung des Humanisten". Sie debattieren darüber, ob statistische Mustererkennung mit echter emotionaler Intelligenz gleichzusetzen ist und kritisieren Gabriels Faszination für die vermeintliche Überlegenheit der Systeme.
Christian Uhle hält im Kontrast zu Gabriel dagegen und betont den Wert des Authentischen. Er stellt die Frage, ob es für ein gelingendes Leben ausreicht, wenn sich etwas "echt anfühlt", oder ob die tatsächliche Begegnung zählt. Wolfgang und Stefan unterstützen Uhles Position und führen Beispiele aus der Arbeitswelt an, wie etwa die Rolle eines Notars, bei denen die menschliche Verbindlichkeit und Haftung durch KI nicht ersetzbar sind.
Markus Gabriel führt aus, dass Tech-Konzerne durch subliminale Datenerfassung mehr über die Gesellschaft wissen als die Soziologie. Die Moderatoren ordnen diese Aussagen als bekannte Kritikpunkte der Überwachungskapitalismus-Debatte ein. Sie diskutieren die These, dass KI-Systeme menschliches Verhalten modellieren, und stellen die Frage, ob dies tatsächlich ein tieferes Verständnis des Menschen bedeutet.
Christian Uhle plädiert dafür, die durch KI gewonnene Zeit in zwischenmenschliche Bereiche wie Pflege, Kunst und Bildung zu investieren. Wolfgang und Stefan begrüßen diesen pragmatischen Ansatz, weisen aber darauf hin, dass die aktuelle Investorenlogik im Silicon Valley nicht primär auf soziale Verbesserungen abzielt. Sie diskutieren den Widerspruch zwischen technologischen Utopien und der realen Unterfinanzierung von Care-Arbeit.
Zum Abschluss wird Markus Gabriels Metapher diskutiert, die KI sei mit traditionellen Gottesvorstellungen vergleichbar. Er schlägt vor, die KI durch unvorhersehbares Verhalten ("Muu" sagen) zu verwirren. Wolfgang und Stefan kritisieren diese Mystifizierung der Technologie scharf. Sie werten dies als eine Form der Unterwerfung unter die Narrative der Tech-Milliardäre und plädieren stattdessen für eine nüchterne politische und soziale Gestaltung der Technologie.
By Stefan Schulz und Wolfgang M. Schmitt5
11 ratings
Komm' in den Salon. Es gibt ihn via Webplayer & RSS-Feed (zum Hören im Podcatcher deiner Wahl, auch bei Apple Podcasts und Spotify). Wenn du Salon-Stürmer bist, lade weitere Hörer von der [Gästeliste]
Wolfgang und Stefan diskutieren in einer Live-Aufzeichnung aus Düsseldorf die gesellschaftlichen und ökonomischen Auswirkungen künstlicher Intelligenz. Anhand von Einspielern der Wissenschaftler Adam Tooze, Elena Esposito, Markus Gabriel und Christian Uhle analysieren sie das Spannungsfeld zwischen wirtschaftlichem Hype, technologischer Realität und menschlichem Selbstverständnis.
Die Episode beginnt mit einer Einführung in das Thema Latenz und latente Räume. Wolfgang und Stefan besprechen den Dokumentarfilm "Marlene" (1984) von Maximilian Schell über Marlene Dietrich als Beispiel für scheiternde Kommunikation und Intention. Sie ziehen Parallelen zur Interaktion zwischen Menschen und intelligenten Maschinen, bei denen die inneren Zustände des Gegenübers oft verborgen bleiben.
Anhand eines Audio-Clips von Adam Tooze erörtern Wolfgang und Stefan die ökonomischen Versprechen der KI-Befürworter. Es geht um die Automatisierung von Routinearbeiten und die potenzielle Ersetzung von Arbeitsplätzen. Die Moderatoren diskutieren die These der "Bullshit-Jobs" und hinterfragen, ob Effizienzsteigerungen tatsächlich zu Entlassungen führen oder ob menschliche Arbeit in vielen Bereichen unverzichtbar bleibt, insbesondere in der Kulturindustrie und komplexen Verwaltungsprozessen.
Im zweiten Teil der Analyse zu Adam Tooze geht es um makroökonomische Szenarien. Tooze skizziert die Möglichkeit eines massiven Vermögensverlustes, sollte die KI-Blase platzen, da die erwarteten Produktivitätssprünge ausbleiben könnten. Wolfgang und Stefan analysieren die Machtverschiebungen im Silicon Valley, die Konkurrenz zwischen Tech-Giganten wie Google und Nvidia sowie die Diskrepanz zwischen Börsenbewertungen und realwirtschaftlichen Umsätzen.
Die Soziologin Elena Esposito legt in ihrem Einspieler dar, dass künstliche Intelligenz nicht versucht, menschliches Denken zu imitieren, sondern stattdessen Muster in Daten erkennt. Wolfgang und Stefan diskutieren diesen Unterschied zwischen maschineller und menschlicher Intelligenz. Sie beleuchten Espositos These, dass Maschinen gerade deshalb effizient sind, weil sie Inhalte nicht "verstehen" müssen, und übertragen dies auf organisatorische Abläufe.
Esposito äußert sich skeptisch gegenüber der Angst vor einer übermächtigen "Artificial General Intelligence" (AGI), da Maschinen keinen eigenen Willen besitzen. Die Moderatoren vertiefen daraufhin das Thema der menschlichen Kommunikation und der Rolle von Gefühlen als "Reflexionssperren" für das Unaussprechbare. Sie kontrastieren die menschliche Mitteilung mit der Ausgabe von KI-Systemen.
Ein Ausschnitt aus der SRF-Sendung "Sternstunde Philosophie" mit Yves Bossart thematisiert einen südkoreanischen Fall, bei dem eine Mutter mittels VR-Technologie auf den Avatar ihrer verstorbenen Tochter trifft. Wolfgang und Stefan kritisieren die mediale Inszenierung und emotionale Ausbeutung dieses Experiments. Sie hinterfragen die Sinnhaftigkeit solcher Simulationen für die Trauerarbeit.
Der Philosoph Markus Gabriel argumentiert in einem Clip, dass KI-Systeme menschliche Emotionen besser vorhersagen können als Menschen selbst. Wolfgang und Stefan widersprechen dieser "Bankrotterklärung des Humanisten". Sie debattieren darüber, ob statistische Mustererkennung mit echter emotionaler Intelligenz gleichzusetzen ist und kritisieren Gabriels Faszination für die vermeintliche Überlegenheit der Systeme.
Christian Uhle hält im Kontrast zu Gabriel dagegen und betont den Wert des Authentischen. Er stellt die Frage, ob es für ein gelingendes Leben ausreicht, wenn sich etwas "echt anfühlt", oder ob die tatsächliche Begegnung zählt. Wolfgang und Stefan unterstützen Uhles Position und führen Beispiele aus der Arbeitswelt an, wie etwa die Rolle eines Notars, bei denen die menschliche Verbindlichkeit und Haftung durch KI nicht ersetzbar sind.
Markus Gabriel führt aus, dass Tech-Konzerne durch subliminale Datenerfassung mehr über die Gesellschaft wissen als die Soziologie. Die Moderatoren ordnen diese Aussagen als bekannte Kritikpunkte der Überwachungskapitalismus-Debatte ein. Sie diskutieren die These, dass KI-Systeme menschliches Verhalten modellieren, und stellen die Frage, ob dies tatsächlich ein tieferes Verständnis des Menschen bedeutet.
Christian Uhle plädiert dafür, die durch KI gewonnene Zeit in zwischenmenschliche Bereiche wie Pflege, Kunst und Bildung zu investieren. Wolfgang und Stefan begrüßen diesen pragmatischen Ansatz, weisen aber darauf hin, dass die aktuelle Investorenlogik im Silicon Valley nicht primär auf soziale Verbesserungen abzielt. Sie diskutieren den Widerspruch zwischen technologischen Utopien und der realen Unterfinanzierung von Care-Arbeit.
Zum Abschluss wird Markus Gabriels Metapher diskutiert, die KI sei mit traditionellen Gottesvorstellungen vergleichbar. Er schlägt vor, die KI durch unvorhersehbares Verhalten ("Muu" sagen) zu verwirren. Wolfgang und Stefan kritisieren diese Mystifizierung der Technologie scharf. Sie werten dies als eine Form der Unterwerfung unter die Narrative der Tech-Milliardäre und plädieren stattdessen für eine nüchterne politische und soziale Gestaltung der Technologie.

218 Listeners

5 Listeners

49 Listeners

3 Listeners

46 Listeners

8 Listeners

20 Listeners

1 Listeners

4 Listeners

5 Listeners

4 Listeners

0 Listeners

1 Listeners

4 Listeners