
Sign up to save your podcasts
Or
Unser Smarthome dimmt abends genau zur richtigen Zeit das Licht, ChatGPT sagt uns, was wir mit unseren Kühlschrankresten kochen können, und wenn doch etwas fehlt, kann Alexa das für uns automatisch nachkaufen. Schon längst hat künstliche Intelligenz in vielen Bereichen Einfluss darauf, wie wir unser Leben führen. Die Grenze zwischen Mensch und Maschine scheint immer fließender zu werden. Und je präsenter KI in unserem Alltag ist, desto mehr prägt sie auch unseren Blick auf Technologie insgesamt: Wann vertrauen wir einer Maschine? Und wann sind wir skeptisch?
Dazu forscht Marina Chugunova am Münchner Max-Planck-Institut für Innovation und Wettbewerb. Ihre Forschung zeigt, dass es auf den Kontext ankommt: Menschen akzeptieren KI-Technologien relativ gut, wenn es um analytische Aufgaben geht, etwa um Rechenaufgaben oder technische Optimierungen. Geht es jedoch um soziale oder ethische Entscheidungen, sinkt die Akzeptanz deutlich.
Die Grenze zwischen analytischen und sozialen Aufgaben ist allerdings oft überraschend unscharf. Ein gutes Beispiel sind medizinische Diagnosen, die auf KI basieren. Obwohl sie Fakten auswerten, vertrauen viele Menschen doch eher menschlichen Expertinnen und Experten. Unterstellt wird dabei ein sogenannter Uniqueness Neglect: Künstlicher Intelligenz wird nicht zugetraut, die Besonderheiten individueller Situationen angemessen zu berücksichtigen.
Häufig wünschen sich Menschen im Umgang mit KI ein Human-in-the-Loop-Prinzip, bei dem der Mensch das letzte Wort hat. Ist ein Mensch in eine Entscheidung einbezogen, wird das psychologische Bedürfnis nach Kontrolle der KI befriedigt. Gleichzeitig warnt Marina Chugunova auch vor der Fehlbarkeit menschlicher Einschätzungen. Wer die KI korrigieren will, riskiert auch, die Qualität der Entscheidung zu verschlechtern. Schließlich können KI-Systeme oft unzählige Parameter gleichzeitig berücksichtigen, während menschliche Urteile oft auch unbewusst verzerrt sind.
In dieser Folge von „Ach, Mensch!“ spricht detektor.fm-Moderatorin Jessica Hughes mit Marina Chugunova, Senior Research Fellow am Max-Planck-Institut für Innovation und Wettbewerb in München. Sie erzählt im Podcast, warum jeder technologische Fortschritt auch einen gesellschaftlichen Lernprozess braucht und warum wir keine Angst haben müssen, unsere menschliche Intuition zu verlieren.
3
11 ratings
Unser Smarthome dimmt abends genau zur richtigen Zeit das Licht, ChatGPT sagt uns, was wir mit unseren Kühlschrankresten kochen können, und wenn doch etwas fehlt, kann Alexa das für uns automatisch nachkaufen. Schon längst hat künstliche Intelligenz in vielen Bereichen Einfluss darauf, wie wir unser Leben führen. Die Grenze zwischen Mensch und Maschine scheint immer fließender zu werden. Und je präsenter KI in unserem Alltag ist, desto mehr prägt sie auch unseren Blick auf Technologie insgesamt: Wann vertrauen wir einer Maschine? Und wann sind wir skeptisch?
Dazu forscht Marina Chugunova am Münchner Max-Planck-Institut für Innovation und Wettbewerb. Ihre Forschung zeigt, dass es auf den Kontext ankommt: Menschen akzeptieren KI-Technologien relativ gut, wenn es um analytische Aufgaben geht, etwa um Rechenaufgaben oder technische Optimierungen. Geht es jedoch um soziale oder ethische Entscheidungen, sinkt die Akzeptanz deutlich.
Die Grenze zwischen analytischen und sozialen Aufgaben ist allerdings oft überraschend unscharf. Ein gutes Beispiel sind medizinische Diagnosen, die auf KI basieren. Obwohl sie Fakten auswerten, vertrauen viele Menschen doch eher menschlichen Expertinnen und Experten. Unterstellt wird dabei ein sogenannter Uniqueness Neglect: Künstlicher Intelligenz wird nicht zugetraut, die Besonderheiten individueller Situationen angemessen zu berücksichtigen.
Häufig wünschen sich Menschen im Umgang mit KI ein Human-in-the-Loop-Prinzip, bei dem der Mensch das letzte Wort hat. Ist ein Mensch in eine Entscheidung einbezogen, wird das psychologische Bedürfnis nach Kontrolle der KI befriedigt. Gleichzeitig warnt Marina Chugunova auch vor der Fehlbarkeit menschlicher Einschätzungen. Wer die KI korrigieren will, riskiert auch, die Qualität der Entscheidung zu verschlechtern. Schließlich können KI-Systeme oft unzählige Parameter gleichzeitig berücksichtigen, während menschliche Urteile oft auch unbewusst verzerrt sind.
In dieser Folge von „Ach, Mensch!“ spricht detektor.fm-Moderatorin Jessica Hughes mit Marina Chugunova, Senior Research Fellow am Max-Planck-Institut für Innovation und Wettbewerb in München. Sie erzählt im Podcast, warum jeder technologische Fortschritt auch einen gesellschaftlichen Lernprozess braucht und warum wir keine Angst haben müssen, unsere menschliche Intuition zu verlieren.
107 Listeners
120 Listeners
48 Listeners
44 Listeners
0 Listeners
2 Listeners
0 Listeners
9 Listeners
2 Listeners
0 Listeners
7 Listeners
3 Listeners
72 Listeners
8 Listeners
18 Listeners
76 Listeners
0 Listeners
13 Listeners
310 Listeners
25 Listeners
5 Listeners
23 Listeners
1 Listeners
13 Listeners