Startseite » Wirtschaft » Wirtschaft

Artikel vom Donnerstag, 22. August 2019

NGO: Amazon und Microsoft entwickeln gefährliche autonome Systeme

Unternehmen wie Amazon und Microsoft entwickeln gefährliche autonome Systeme, die als Bestandteil tödlicher Waffen genutzt werden können. Das ergab eine in dieser Woche veröffentlichte Studie der niederländischen Nichtregierungsorganisation (NGO) Pax. Pax befragte die 50 wichtigsten Technologieentwickler über ihre Haltung zu autonomen Waffensystemen.

Unternehmen wie Amazon und Microsoft entwickeln gefährliche autonome Systeme, die als Bestandteil tödlicher Waffen genutzt werden können.

Unternehmen wie Amazon und Microsoft entwickeln gefährliche autonome Systeme, die als Bestandteil tödlicher Waffen genutzt werden können. - Foto: APA/EPA

Die NGO stufte die Unternehmen anhand von drei Kriterien ein: Entwickeln sie Technologie, die zum Bau von „Killer-Robotern“ genutzt werden könnte? Arbeiten sie an militärischen Projekten mit, bei denen Künstliche Intelligenz zum Einsatz kommt? Haben sie sich verpflichtet, künftig nicht mehr an solchen Projekten mitzuarbeiten?

21 Unternehmen „stark gefährend“

Der Studie zufolge handeln 21 Unternehmen „stark gefährdend“. Dazu zählen die bekannten Technologieentwickler Microsoft und Amazon, die derzeit um einen Vertrag mit dem US-Verteidigungsministerium zur Datenspeicherung konkurrieren. „Warum bestreiten Unternehmen wie Microsoft und Amazon nicht, dass sie derzeit diese höchst umstrittenen Waffen entwickeln, die ohne direkte menschliche Einwirkung entscheiden könnten, Menschen zu töten?“, sagte Studienleiter Frank Slijper.

Google äußert ethische Bedenken 

22 Unternehmen wurden von Pax als „mäßig gefährdend“ bewertet. Dazu gehört der japanische Hersteller Softbank, der für seinen humanoiden Roboter namens Pepper bekannt ist. Sieben Unternehmen, darunter der Internetriese Google, wurden für ihren Umgang mit Künstlicher Intelligenz in Bezug auf Waffensysteme gelobt. 

Im vergangenen Jahr hatte Google sich unter anderem aus einem Bieterrennen um einen Cloud-Computing-Auftrag des US-Verteidigungsministeriums zurückgezogen und auf ethische Bedenken verwiesen.

Komplex KI und Militär sorgt für Kontroversen

Der Einsatz künstlicher Intelligenz im Militär, etwa um Waffensystemen die automatische Auswahl ihres Ziels zu ermöglichen, wird immer wieder kontrovers diskutiert. Bei einem Kongress der UNO-Waffenkonvention am Mittwoch in Genf debattierten Regierungsexperten über politische Maßnahmen im Bezug auf autonome Waffen.

Im vergangenen April hatte die Europäische Kommission einen Katalog mit Ethik-Regeln für den Umgang mit Künstlicher Intelligenz veröffentlicht. Dazu zählt unter anderem die Forderung, dass der Mensch stets die Überhand über Waffensysteme bewahren sollte.

apa

 

Es gibt neue Nachrichten auf der Startseite

zur Startseite Nicht mehr anzeigen
Verpassen Sie keine wichtigen Artikel mehrAktivieren Sie die Benachrichtigungen
AktivierenMehr Infos