Die US-Luftwaffe bestreitet die Behauptung, dass eine KI-Drohne bei einem Test den Bediener angegriffen hat

Luftgestützte Militärdrohne

Nach Angaben der US-Luftwaffe hat sich ein Oberst, der ein Experiment beschrieb, bei dem eine KI-fähige Drohne ihren Bediener angriff, um ihren Auftrag zu erfüllen, "falsch ausgedrückt."

Auf einer von der Royal Aeronautical Society veranstalteten Konferenz sprach Colonel Tucker Hamilton, der Leiter der Abteilung für KI-Tests und -Operationen der US-Luftwaffe.

Es gab eine virale Geschichte darüber.

Nach Angaben der Air Force gab es kein solches Experiment.

Er hatte eine Simulation erörtert, in der ein menschlicher Drohnenbediener eine KI-fähige Drohne wiederholt daran hinderte, Boden-Luft-Raketenstandorte zu zerstören, um ihren Auftrag zu erfüllen.

Obwohl sie so programmiert war, dass sie den Bediener nicht tötete, behauptete er, dass die Drohne am Ende den Kommunikationsturm zerstörte, so dass der Bediener nicht mehr mit ihr kommunizieren konnte.

In einer späteren Erklärung vor der Royal Aeronautical Society stellte Oberst Hamilton klar: "Wir haben dieses Experiment nie durchgeführt, und wir hätten es auch nicht nötig, um zu erkennen, dass dies ein plausibles Ergebnis ist.

Er fuhr fort, dass es sich lediglich um ein "Gedankenexperiment" gehandelt habe und nichts tatsächlich passiert sei.

Ingenieur, der KI-Technologie entwirft, mit einem Computerbildschirm, der sich auf seiner Brille spiegelt

Auch wenn sich nicht alle Experten einig sind, wie ernst die Gefahr ist, die von der KI ausgeht, gab es in letzter Zeit eine Reihe von Warnungen über die Bedrohung, die die KI für die Menschheit darstellt, von denjenigen, die auf diesem Gebiet arbeiten.

In einem Interview mit der BBC Anfang dieser Woche äußerte Prof. Yoshua Bengio, einer der drei Computerwissenschaftler, die als "Paten" der künstlichen Intelligenz bezeichnet werden, nachdem sie für ihre Beiträge den angesehenen Turing-Preis erhalten haben, die Meinung, dass das Militär niemals Zugang zur KI-Technologie erhalten sollte.

Einer der schlechtesten Standorte für eine superintelligente KI sei dort.

Col. Hamiltons Behauptungen, über die vor seiner Klarstellung viel berichtet wurde, stießen bei den Experten, mit denen ich heute Morgen mehrere Stunden lang sowohl über KI als auch über Verteidigung sprach, auf große Skepsis.

Col. Hamiltons anfänglicher Bericht schien nach Meinung eines Verteidigungsexperten "wichtige Zusammenhänge" zu vermissen.

In den sozialen Medien kursierten Gerüchte, dass es sich bei einem solchen Experiment eher um ein vorgeplantes Szenario gehandelt habe, als dass die KI-gesteuerte Drohne maschinelles Lernen zur Erfüllung der Aufgabe eingesetzt hätte. Das bedeutet im Grunde, dass die Drohne ihre Entscheidungen über das Ergebnis der Aufgabe nicht auf der Grundlage früherer Ereignisse getroffen hat.

Als ich Steve Wright, Professor für Luft- und Raumfahrttechnik an der University of the West of England und Spezialist für unbemannte Luftfahrzeuge, fragte, was er von der Handlung halte, antwortete er scherzhaft: "Ich war schon immer ein Fan der Terminator-Filme."

"Das Richtige tun" und "nicht das Falsche tun" seien die beiden Anliegen von Flugzeugsteuerungscomputern, erklärte er, und dies sei ein Paradebeispiel für Letzteres.

In der Praxis gehen wir damit um, indem wir immer einen Backup-Computer haben, der mit veralteten Methoden programmiert ist und das System abschalten kann, sobald der primäre Computer sich seltsam verhält. ".

Besuchen Sie Zoe Kleinmans Twitter-Account.

Quelllink

You've successfully subscribed to Webosor
Great! Next, complete checkout to get full access to all premium content.
Welcome back! You've successfully signed in.
Unable to sign you in. Please try again.
Success! Your account is fully activated, you now have access to all content.
Error! Stripe checkout failed.
Success! Your billing info is updated.
Billing info update failed.