Der Artikel ist vom 17.3.25
Wenn die entscheidungsfindung jemanden zu töten rein computergesteuerte erfolgt, dann ist es echt komplett vorbei. Den Akt des Tötens von Menschen komplett zu entkoppeln ist vermutlich das Endlevel der Kriegsführung.
Dronen Remote über einen PC zu steuern und physisch nicht anwesend zu sein, wenn man den Abzug drückt ist ja schon kaltblütig genug…
Diese Diskussion wird wahrscheinlich nie mit einem eindeutigen Ergebnis beendet werden können
Dronen Remote über einen PC zu steuern und physisch nicht anwesend zu sein, wenn man den Abzug drückt ist ja schon kaltblütig genug…
Wann ist man schon physisch anwesend? Selbst wenn man jemanden mit einem Gewehr erschießt, liegt eine gewisse Distanz dazwischen. Schieße ich mit einem Jet eine Rakete ab, noch mehr. Und wenn ich eine Miene lege, liegt sogar noch eine zeitliche Distanz dazwischen. All das gibt es schon lange. Natürlich hast du nicht unrecht. Drohnen haben aber auch Vorteile. Z.B. können sie von einem Kontrollraum aus gesteuert werden, in dem sich mehrere Personen befinden, die sicherstellen, dass man da gleich wirklich den richtigen erschießt. Wenn das ein einzelner Soldat tut, ist die Fehlerwahrscheinlichkeit höher
Was denkst du über Artillerie über 30 km auf Koordinaten auf der Landkarte zu verschießen oder Mienen zu legen?
Das wurde schon vor über 100 Jahren gemacht.
Überall große Filter!
Man darf noch hoffen, dass die KI auf die gleiche Lösung wie WOPR kommt.
A strange game. The only winning move is not to play.
Ist doch beim Gaza-Genozid schon Alltag, da sucht eine KI Ziele aus und eine autonome Drohne führt die Angriffe aus. Da gab es doch Berichte zu dass ein Mensch die Liste nur einmal überfliegt und alles andere automatisiert abläuft.
“Schule… Krankenhaus… Wohngebiet… Jup, passt, Feuer frei”
Da sitzt ein Mensch dazwischen und bestätigt die Ziele.
Hat hier sonst jemand Qualityland 2 gelesen?
“Wenn man einen solchen Entscheid anhand einer KI-gestützten Datenauswertung trifft, bedeutet das, dass der Mensch ein gewisses Mass an Kontrolle abgibt. Das führt wiederum dazu, dass die menschliche Verantwortung in den Hintergrund rückt.”
Das ist generell ein Problem beim Einsatz von Software, durch KI wird das “nur” vervielfacht.
“Viele Länder fordern ein rechtlich bindendes Verbot von autonomen Waffen, die selbständig menschliche Ziele identifizieren und angreifen.”
Ich fände eine allgemeine Haftung für Software-/KI-Einsatz wünschenswert. Wenn solche Systeme eingesetzt werden und Fehler machen, dann müssen die die den Einsatz veranlasst haben auch für die Folgen verantwortlich sein. Anstatt wie bisher Software/KI als “Verantwortungkiller” einzusetzen wo am Ende niemand für irgendwas verantwortlich ist.
Eher “Vorstellbar, wie schlimm der Einsatz eskalieren wird”
Wenn die KI an Forschungseinrichtungen in Städten entwickelt wird, wird das Hauptziel auch nicht die Vernichtung feindlicher Drohnen an der Frontlinie sein.
Willst du das etwas ausführen?
Tokyo wurde wegen der dezentralen Waffenproduktion flächenbombardiert. Die gleiche Logik wird gelten, wenn es darum geht, die Weiterentwicklung der feindlichen KI zu verhindern.