Edition Zukunft

Warum Killerroboter verboten werden sollten, ehe sie eingesetzt werden


Listen Later

Marit Seyer, Obfrau der Kampagne für ein Stopp von autonomen Waffensystemen und Thomas Hajnoczi, Ex-Botschafter für Abrüstungsfragen, erklären warum das so dringend ist

Es gibt eine Gruppe von Menschen, die versucht uns vor Killerrobotern zu schützen. Ihr Problem? Fehlende Aufmerksamkeit und oftmals ein fehlendes Bewusstsein für die Tragweite des Problems. Menschen lassen sich tendenziell nämlich leichter für eine Sache gewinnen, die aktuell schon ein greifbares Problem darstellt, als für solche, die sich noch zu veritablen Problemen entwickeln werden. Deshalb wurde es zu lange verabsäumt der Klimakrise entschieden entgegenzutreten oder Soziale Medien rechtzeitig zu regulieren. Freilich ist es aber auch schwieriger Dinge einmal zu reglementieren, wenn diese schon im Einsatz sind. Ein gutes Beispiel sind Atomwaffen. Spätestens seit der Bombardierung von Hiroshima und Nagasaki weiß die Menschheit um ihre extreme Gefahr. Einmal im Einsatz lassen sie sich Staaten aber auch nur mehr sehr schwer wegnehmen, wie die in vielen Punkten vergleichbare Kampagne für ein Verbot von Atomwaffen immer wieder schmerzhaft lernen muss.

Ein möglicher Ausweg aus diesem scheinbaren Dilemma ist die Ächtung. Die Ächtung einer ganzen Waffengattung nämlich. Und im Grunde ist es das, was die Kampagne für ein Verbot von Killerrobotern erreichen möchte. Die autonom agierenden Waffensysteme – die mit dem vereinfachenden Terminus Killerroboter beschrieben werden – seien nämlich gar kein Problem künftiger Generationen mehr, sondern ein reales und riesiges Problem der Gegenwart. Davor warnt Marit Seyer, die Obfrau der Österreichischen Kampagne für ein Killerroboter-Verbot, im Edition-Zukunft-Podcast. Wir müssen sie verbieten, bevor sie vielfach Unschuldige töten, so der Auftrag. Und sie müssten sozial geächtet werden.

Sieht man sich die zahlreichen internationalen Beispiele bestehender und bereits in Einsatz befindlicher halbautonomer Waffensysteme an, so lässt sich dieser Eindruck tatsächlich bestätigen. Die Technik wäre wohl bereits ausgereift, um Drohnen oder andere Waffen ganz autonom handeln und töten zu lassen. Vermutlich ist die Präzision aber noch nicht ausgereift genug, sodass man einen enormen Backlash im Falle eines Unfalls zu befürchten hätte. Noch zieren sich die Staaten also, Killerroboter einzusetzen, was noch ein kurzes Zeitfenster für eine etwaige Regulierung oder ein Verbot eröffnet. Dieses zu nützen, dazu will die globale Kampagne aus fast 200 Organisationen ihre jeweiligen Regierungschefs drängen.

Seyer fasst die Kernbotschaft der Kampagne so zusammen: "Es geht darum, wer die Entscheidung trifft, ob ein Leben genommen wird. Das ist entweder der Mensch, der Mitgefühl hat und versteht welchen Wert menschliches Leben hat, oder es ist die Maschine, die von einem Algorithmus programmiert wurde und davon überhaupt keine Ahnung hat." Es ist der immer wieder angesprochene "human in the loop", der nach Ansicht der Aktivistinnen und Aktivisten eben keinesfalls aus der Tötungsschleife genommen werden dürfe. Ohne das dem Menschen inhärente schlechte Gewissen beim Töten, würde die Zahl solcher Angriffe drastisch steigen, glaubt auch Thomas Hajnoczi, ehemals Österreichs Botschafter bei der Uno in Genf und später Leiter des Referats für Abrüstungsfragen im Österreichischen Außenministerium.

Dass gewisse Grade an Autonomie und KI bei Waffen heutzutage nun einmal dazugehören, wollen weder Seyer noch Hajnoczi bestreiten, es gehe aber um die berühmte rote Linie. Der Mensch bilde diese. Und das Argument von Befürwortern autonomer Waffen, wonach sie keine Fehler machen würden, wie das bei Menschen immer wieder der Fall ist, und dass dadurch menschliches Leid verhindert werden könnte, will Seyer nicht gelten lassen. Das genaue Gegenteil sei der Fall, die Fehleranfälligkeit zu hoch, die Gefahr dass Kinder mit Spritzpistolen oder jeder mit einem Turban angegriffen werde, oder auch dass es zu schlichten Verwechslungen sich ähnlich sehender Menschen komme, schlicht und ergreifend zu hoch, so die Obfrau.

Außerdem sei es eine beinahe unklärbare Frage, wer im Ernstfall für einen völkerrechtswidrigen Angriff verantwortlich gemacht werde. Der General, der den Einsatz der Waffe prinzipiell erlaubte? Der Techniker, der den Algorithmus programmierte? Es brauche einfach die menschliche Natur als natürliches Schutzschild, so grausam diese auch in der Vergangenheit schon gewesen sei, ist Botschafter Hajnoczi überzeugt.

Die Menschheit hat aber ohnehin schon beweisen, dass man durchaus bereit ist gänzliche Waffengattungen zu verbieten. Im Rahmen der UN-Konvention über bestimmte konventionelle Waffen wurde beispielsweise ein Blendlaserverbot erreicht. Als man ein generelles Antipersonenminenverbot nicht durchsetzen konnte, einigten sich willige Staaten multilateral auf die Ottawa-Konvention. Und auch wenn große Staaten wie die USA, Russland, Indien oder China ihr bis heute nicht beigetreten sind, konnte irgendwann die Macht des Faktischen und internationale Ächtung greifen. Antipersonen-Minen werden heute quasi von niemandem mehr eingesetzt. Einen ähnlichen Weg könnte man auch gehen, um autonomen Waffensysteme zu verbieten, sagt Hajnoczi.

Seit 2014 wird im UN-Rahmen diskutiert, im Dezember steht nun die Überprüfungskonferenz an. Die Zeit zu handeln drängt, sagt auch Seyer. Sollten sich einige Staaten gegen Jahresende immer noch unwillig zeigen, werde man den Weg über eine Koalition der Willigen gehen. Ein Signal dafür könne auch ein nationales Gesetz sein, das etwa im österreichischen Nationalrat sehr wahrscheinlich eine breite Mehrheit fände, vermutlich sogar einstimmig.

Einen entsprechenden Draft für eine globale Garantie, wonach "stets ausreichend menschliche Kontrolle bei der Selektion und Durchführung von Angriffen" beibehalten werden müsse, hat Österreich jedenfalls schon vorgelegt. Österreich, das international hierbei vor allem den Schutz der Zivilbevölkerung in den Mittelpunkt rückt, gehört hier tatsächlich zu den Vorreitern. Klar gehe es am Ende immer auch um Details des Vertrages, sagt Botschafter Hajnoczi. "Es kann aber nicht sein, dass alles was technisch möglich wird, auch erlaubt wird. Das wäre eine schlimme Welt."

...more
View all episodesView all episodes
Download on the App Store

Edition ZukunftBy DER STANDARD

  • 4
  • 4
  • 4
  • 4
  • 4

4

4 ratings


More shows like Edition Zukunft

View all
Ö1 Journale by ORF Ö1

Ö1 Journale

43 Listeners

Ö1 Wissen aktuell by ORF Ö1

Ö1 Wissen aktuell

5 Listeners

FALTER Radio by FALTER

FALTER Radio

31 Listeners

Erklär mir die Welt by Andreas Sator

Erklär mir die Welt

15 Listeners

Zur Frage der Nation. Der profil-Politikpodcast by Nachrichtenmagazin profil

Zur Frage der Nation. Der profil-Politikpodcast

2 Listeners

ZIB2-Podcast by ORF ZIB2

ZIB2-Podcast

10 Listeners

Thema des Tages by DER STANDARD

Thema des Tages

32 Listeners

Was wichtig ist by Die Presse

Was wichtig ist

6 Listeners

Besser leben by DER STANDARD

Besser leben

13 Listeners

DER STANDARD zum Hören by DER STANDARD

DER STANDARD zum Hören

0 Listeners

Beziehungsweise by DER STANDARD

Beziehungsweise

0 Listeners

Feierabend by DER STANDARD

Feierabend

1 Listeners

Lesezeichen by DER STANDARD

Lesezeichen

2 Listeners

Inside Austria by DER STANDARD

Inside Austria

14 Listeners

Scheuba fragt nach by FALTER

Scheuba fragt nach

8 Listeners

Lohnt sich das? by DER STANDARD

Lohnt sich das?

0 Listeners

Klenk + Reiter by FALTER

Klenk + Reiter

11 Listeners

Der Professor und der Wolf by ORF  Radio FM4

Der Professor und der Wolf

14 Listeners

Die Dunkelkammer – Der Investigativ-Podcast by DasKollektiv Medien

Die Dunkelkammer – Der Investigativ-Podcast

6 Listeners

Rätsel der Wissenschaft by DER STANDARD

Rätsel der Wissenschaft

1 Listeners

Shorts by DER STANDARD

Shorts

0 Listeners