Slaughterbots-Sequel warnt vor der weiten Verbreitung tödlicher KI, wenn die UN bei der nächsten Sitzung nicht handelt | Brandaktuell - Nachrichten aus allen Bereichen

Slaughterbots-Sequel warnt vor der weiten Verbreitung tödlicher KI, wenn die UN bei der nächsten Sitzung nicht handelt

0 211

Boston (ots/PRNewswire) – Der Originalfilm wurde über 70 Millionen Mal angesehen und beim Cannes Indie Fest ausgezeichnet

Das Future of Life Institute (FLI), eine gemeinnützige Organisation, die sich für die Verringerung extremer Risiken durch mächtige Technologien einsetzt, hat heute den Kurzfilm Slaughterbots – if human: kill() veröffentlicht, der erneut vor der zunehmenden Verbreitung von Slaughterbots warnt – autonome Waffen, die künstliche Intelligenz (KI) einsetzen, um Menschen ohne menschliches Zutun zu identifizieren, auszuwählen und zu töten.

Der von Space Film & VFX produzierte und im Vorfeld der 6. Konferenz der Vereinten Nationen zur Überprüfung des Übereinkommens über bestimmte konventionelle Waffen (CCW) veröffentlichte Film if human:
kill() knüpft an den preisgekrönten Kurzfilm Slaughterbots des FLI an und zeigt ein Schreckensszenario, in dem diese Waffen nicht nur für das Militär, sondern für jede Gruppe, die skalierbare Gewalt gegen eine bestimmte Gruppe, ein Individuum oder eine Bevölkerung ausüben will, zum Mittel der Wahl geworden sind.

„Das jüngste Auftauchen von Schlachtrobotern auf dem Schlachtfeld bedeutet, dass die Zeit abläuft, um zu verhindern, dass diese billigen Massenvernichtungswaffen in die Hände eines jeden fallen, der sie haben will“, sagte Prof. Max Tegmark, Mitbegründer des FLI und KI-Forscher am MIT. „if human: kill() ist eine Erinnerung daran, dass die Menschheit vor einer bevorstehenden Entscheidung steht:
Verbieten Sie Schlachtroboter oder bedauern Sie jahrzehntelang, dass wir unsere Lebensweise ruiniert haben.“

Als das FLI 2017 erstmals Slaughterbots veröffentlichte, kritisierten einige das Szenario als unrealistisch und technisch nicht machbar. Seitdem wurden jedoch Schlachtraumroboter auf dem Schlachtfeld benutzt, und ähnliche, einfach herzustellende Waffen sind derzeit in der Entwicklung und markieren den Beginn eines globalen Wettrüstens, welches derzeit keinen rechtlichen Beschränkungen unterliegt.

if human: kill() vermittelt einen konkreten Weg, um das dystopische Ergebnis, vor dem es warnt, abzuwenden. Die Vision für das Handeln basiert auf der praktischen Politikvorgabe des Internationalen Komitees vom Roten Kreuz (IKRK), einer unabhängigen, neutralen Organisation, die eine führende Rolle bei der Entwicklung und Förderung von Gesetzen zur Regulierung des Waffengebrauchs spielt. Ein zentraler Punkt der IKRK-Position ist die Notwendigkeit, ein neues, rechtsverbindliches Verbot von autonomen Waffen, die auf Menschen zielen, zu erlassen. Das FLI schließt sich der jüngsten Empfehlung des IKRK an dass es an der Zeit ist, rechtlich verbindliche Regeln für tödliche autonome Waffen durch einen neuen internationalen Vertrag zu verabschieden.

„Eine klare rote Linie zu ziehen, die besagt, dass KI niemals beschließen darf, Menschen zu töten, ist nicht nur wichtig, um Unheil abzuwenden, sondern auch, um das Potenzial der KI zu nutzen, unsere Welt zum Besseren zu verändern“, sagte Dr. Emilia Javorsky, die die Bemühungen des FLI im Bereich der autonomen Waffen leitet. „Heute sehen wir die Biologie als eine Kraft des Guten und der Heilung von Krankheiten, was zum Teil auf das Biowaffenverbot zurückzuführen ist, das die Bewaffnung der Biologie verhindert hat. Jetzt ist es an der Zeit, zu handeln und eine neue Wissenschaft, die KI, zu schützen. Um der Menschheit und unserer Zukunft mit KI willen müssen wir das richtig machen.“

Tausende von führenden KI- und Robotik-Forschern und wichtigen Technologieakteuren haben einen vom FLI geleiteten offenen Brief unterzeichnet, in dem vor den Gefahren eines KI-Wettrüstens gewarnt und ein Verbot autonomer Waffensysteme gefordert wird. Mehr als 250 Organisationen haben die Verpflichtung des Instituts unterzeichnet, sich nicht an der Entwicklung von tödlichen autonomen Waffen zu beteiligen oder diese zu unterstützen.

Weitere Informationen finden Sie unter autonomousweapons.org.

Informationen zum Future of Life Institute

Das Future of Life Institute ist eine gemeinnützige Organisation, die sich für die Verringerung der globalen katastrophalen und existenziellen Risiken einsetzt, die von leistungsstarken Technologien, insbesondere künstlicher Intelligenz, ausgehen. Ihre Arbeit besteht in der Vergabe von Zuschüssen für die Risikominderung, in der Bildungsarbeit und im Eintreten für eine bessere Politikgestaltung bei den Vereinten Nationen, der US-Regierung und den Institutionen der Europäischen Union.

Das Institut hat sich zu einer der weltweit führenden Stimmen in Bezug auf die Steuerung künstlicher Intelligenz entwickelt und einen der ersten und einflussreichsten Sätze von Steuerungsprinzipien aufgestellt: The Asilomar AI Principles.

Logo –
https://mma.prnewswire.com/media/1698069/Future_of_Life_Institute_Log
o.jpg

OTS-ORIGINALTEXT PRESSEAUSSENDUNG UNTER AUSSCHLIESSLICHER INHALTLICHER VERANTWORTUNG DES AUSSENDERS. www.ots.at
(C) Copyright APA-OTS Originaltext-Service GmbH und der jeweilige Aussender. Future of Life Institute

Hinterlasse eine Antwort

Deine Email-Adresse wird nicht veröffentlicht.