
Sign up to save your podcasts
Or


Wer haftet, wenn eine KI Schaden anrichtet. Und wer bekommt die Lorbeeren, wenn die Systeme etwas Brillantes produzieren?
In den USA wurden Meta und YouTube im März 2026 erstmals von einer Jury für das süchtig machende Design ihrer Plattformen haftbar gemacht. Ihr Schutzschild: der First Amendment und Section 230. Zumindest rechtlich ist damit ein Meilenstein gesetzt.
Gleichzeitig hat Character.AI sich mit mehreren Familien außergerichtlich geeinigt, die dem Unternehmen vorwarfen, seine Chatbots hätten ihren minderjährigen Kindern schweren psychischen Schaden zugefügt – in mindestens zwei Fällen mit tödlichem Ausgang. Der Fall des 14-jährigen Sewell Setzer III aus Florida, der nach einer intensiven emotionalen Beziehung zu einem Chatbot Suizid beging, ging durch die Weltpresse.
Was beide Fälle verbindet, ist eine philosophische Grundfrage: Wer ist Autor:in? Wer trägt (moralische) Verantwortung, wenn kein Mensch den konkreten Output intendiert hat? Und infwiefern helfen bzw. hindern uns KI-Systeme, überlegtere Urteile zu fällen? Darüber spreche ich mit dem Philosophen Daniel Bracker.
Und darüber, ob KI-Systeme in der Zukunft so etwas wie Bewusstsein entwickeln können, was sich laut Daniel Bracker zum jetzigen Zeitpunkt nicht ausschließen lässt. Warum, erklärt er in der Folge!
Daniel Falk Bracker ist Philosoph und Dozent an der Vrije Universiteit Amsterdam, wo er in der Theoretical Philosophy Group an Künstlicher Intelligenz, Epistemischer Autonomie und Bewusstsein forscht. Vor seiner akademischen Karriere arbeitete er mit Künstlicher Intelligenz beim Silicon-Valley-Konzern ORACLE. Er ist Mitglied der Society for the Philosophy of Artificial Intelligence und Forscher am Hybrid Intelligence Centre, einem internationalen Konsortium für die Interaktion von Mensch und KI, sowie Gastdozent an The New School: A University in New York City. Seine Arbeiten erscheinen in philosophischen Fachzeitschriften wie etwa Philosophy & Technology (Springer) sowie bei Routledge; zuletzt „Infringements of AI on Epistemic Autonomy“ (2026), über den schleichenden Verlust unserer Urteilskraft im Zeitalter der KI.
By Dorothea WinterWer haftet, wenn eine KI Schaden anrichtet. Und wer bekommt die Lorbeeren, wenn die Systeme etwas Brillantes produzieren?
In den USA wurden Meta und YouTube im März 2026 erstmals von einer Jury für das süchtig machende Design ihrer Plattformen haftbar gemacht. Ihr Schutzschild: der First Amendment und Section 230. Zumindest rechtlich ist damit ein Meilenstein gesetzt.
Gleichzeitig hat Character.AI sich mit mehreren Familien außergerichtlich geeinigt, die dem Unternehmen vorwarfen, seine Chatbots hätten ihren minderjährigen Kindern schweren psychischen Schaden zugefügt – in mindestens zwei Fällen mit tödlichem Ausgang. Der Fall des 14-jährigen Sewell Setzer III aus Florida, der nach einer intensiven emotionalen Beziehung zu einem Chatbot Suizid beging, ging durch die Weltpresse.
Was beide Fälle verbindet, ist eine philosophische Grundfrage: Wer ist Autor:in? Wer trägt (moralische) Verantwortung, wenn kein Mensch den konkreten Output intendiert hat? Und infwiefern helfen bzw. hindern uns KI-Systeme, überlegtere Urteile zu fällen? Darüber spreche ich mit dem Philosophen Daniel Bracker.
Und darüber, ob KI-Systeme in der Zukunft so etwas wie Bewusstsein entwickeln können, was sich laut Daniel Bracker zum jetzigen Zeitpunkt nicht ausschließen lässt. Warum, erklärt er in der Folge!
Daniel Falk Bracker ist Philosoph und Dozent an der Vrije Universiteit Amsterdam, wo er in der Theoretical Philosophy Group an Künstlicher Intelligenz, Epistemischer Autonomie und Bewusstsein forscht. Vor seiner akademischen Karriere arbeitete er mit Künstlicher Intelligenz beim Silicon-Valley-Konzern ORACLE. Er ist Mitglied der Society for the Philosophy of Artificial Intelligence und Forscher am Hybrid Intelligence Centre, einem internationalen Konsortium für die Interaktion von Mensch und KI, sowie Gastdozent an The New School: A University in New York City. Seine Arbeiten erscheinen in philosophischen Fachzeitschriften wie etwa Philosophy & Technology (Springer) sowie bei Routledge; zuletzt „Infringements of AI on Epistemic Autonomy“ (2026), über den schleichenden Verlust unserer Urteilskraft im Zeitalter der KI.