AccessControl ac = AccessControl.getAccessControl(request);

Laut NGOAmazon und Microsoft entwickeln gefährliche autonome Systeme

Roboter könnten für autonome Waffensysteme eingesetzt werden, ist in einer Studie der niederländischen Nichtregierungsorganisation (NGO) Pax zu lesen. Für diese wurden die 50 wichtigsten Technologieentwickler befragt.

Entwicklung autonomer Systeme, die auch bei autonomen Waffensystemen eingesetzt werden können? © APA/HANS KLAUS TECHT
 

Unternehmen wie Amazon und Microsoft entwickeln gefährliche autonome Systeme, die als Bestandteil tödlicher Waffen genutzt werden können. Das ergab eine in dieser Woche veröffentlichte Studie der niederländischen Nichtregierungsorganisation (NGO) Pax. Pax befragte die 50 wichtigsten Technologieentwickler über ihre Haltung zu autonomen Waffensystemen.

Die NGO stufte die Unternehmen anhand von drei Kriterien ein: Entwickeln sie Technologie, die zum Bau von "Killer-Robotern" genutzt werden könnte? Arbeiten sie an militärischen Projekten mit, bei denen Künstliche Intelligenz zum Einsatz kommt? Haben sie sich verpflichtet, künftig nicht mehr an solchen Projekten mitzuarbeiten?

Der Studie zufolge handeln 21 Unternehmen "stark gefährdend". Dazu zählen die bekannten Technologieentwickler Microsoft und Amazon, die derzeit um einen Vertrag mit dem US-Verteidigungsministerium zur Datenspeicherung konkurrieren. "Warum bestreiten Unternehmen wie Microsoft und Amazon nicht, dass sie derzeit diese höchst umstrittenen Waffen entwickeln, die ohne direkte menschliche Einwirkung entscheiden könnten, Menschen zu töten?", sagte Studienleiter Frank Slijper.

22 Unternehmen als "mäßig gefährdend" bewertet

22 Unternehmen wurden von Pax als "mäßig gefährdend" bewertet. Dazu gehört der japanische Hersteller Softbank, der für seinen humanoiden Roboter namens Pepper bekannt ist. Sieben Unternehmen, darunter der Internetriese Google, wurden für ihren Umgang mit Künstlicher Intelligenz in Bezug auf Waffensysteme gelobt. Ein österreichisches Unternehmen war nicht Untersuchungsgegenstand.

Im vergangenen Jahr hatte Google sich unter anderem aus einem Bieterrennen um einen Cloud-Computing-Auftrag des US-Verteidigungsministeriums zurückgezogen und auf ethische Bedenken verwiesen.

Der Einsatz künstlicher Intelligenz im Militär, etwa um Waffensystemen die automatische Auswahl ihres Ziels zu ermöglichen, wird immer wieder kontrovers diskutiert. Bei einem Kongress der UNO-Waffenkonvention am Mittwoch in Genf debattierten Regierungsexperten über politische Maßnahmen im Bezug auf autonome Waffen.

Im vergangenen April hatte die Europäische Kommission einen Katalog mit Ethik-Regeln für den Umgang mit Künstlicher Intelligenz veröffentlicht. Dazu zählt unter anderem die Forderung, dass der Mensch stets die Überhand über Waffensysteme bewahren sollte.

Diskutieren Sie mit - posten Sie als Erste(r) Ihre Meinung! Kommentieren