Laut USA Today dementierte die US-Luftwaffe am 2. Juni Berichte, sie habe eine Simulation durchgeführt, bei der ein unbemanntes Luftfahrzeug (UAV) mit künstlicher Intelligenz (KI) beschlossen habe, seinen menschlichen Bediener zu „töten“, um ihn daran zu hindern, seine Mission zu stören.
Die Spekulationen begannen im vergangenen Monat, als Colonel Tucker Hamilton auf einer Konferenz in London erklärte, ein KI-gesteuertes UAV verwende „äußerst unerwartete Strategien, um seine Ziele zu erreichen“.
Eine MQ-9 Reaper-Drohne der US Air Force auf dem Luftwaffenstützpunkt Kandahar in Afghanistan im Jahr 2018
Ihm zufolge simulierte der Test eine KI-gesteuerte Drohne, die den Befehl erhielt, das Luftabwehrsystem eines Gegners zu zerstören. Als der Bediener dann befahl, das Ziel zu ignorieren, griff die Drohne den Bediener an und tötete ihn, weil dieser sein primäres Ziel störte.
Tatsächlich kam es jedoch zu keinem derartigen Angriff. In einem Interview mit Business Insider erklärte die Sprecherin der US-Luftwaffe, Ann Stefanek, dass keine derartige Simulation durchgeführt worden sei.
Beängstigende Warnung des ehemaligen Google-Direktors: KI hat die Fähigkeit, die Menschheit zu „verdrängen“
„Die Air Force hat keine derartigen Aktivitäten durchgeführt und bleibt dem ethischen und verantwortungsvollen Einsatz von KI-Technologie verpflichtet“, sagte der Sprecher und merkte an, dass „die Kommentare des Obersts offenbar aus dem Kontext gerissen wurden“.
Nach der Erklärung der US Air Force stellte Hamilton klar, er habe sich bei seiner Präsentation in London „versprochen“. Ihm zufolge sei die Simulation lediglich ein hypothetisches Experiment gewesen. Die Royal Aeronautical Society (UK), die die Konferenz organisierte, reagierte nicht auf Anfragen nach einem Kommentar.
[Anzeige_2]
Quellenlink
Kommentar (0)