Der Artikel ist vom 17.3.25

  • UndergroundGoblin@lemmy.dbzer0.com
    link
    fedilink
    arrow-up
    15
    ·
    edit-2
    12 days ago

    Wenn die entscheidungsfindung jemanden zu töten rein computergesteuerte erfolgt, dann ist es echt komplett vorbei. Den Akt des Tötens von Menschen komplett zu entkoppeln ist vermutlich das Endlevel der Kriegsführung.

    Dronen Remote über einen PC zu steuern und physisch nicht anwesend zu sein, wenn man den Abzug drückt ist ja schon kaltblütig genug…

    • marius@feddit.org
      link
      fedilink
      arrow-up
      12
      ·
      12 days ago

      Diese Diskussion wird wahrscheinlich nie mit einem eindeutigen Ergebnis beendet werden können

      Dronen Remote über einen PC zu steuern und physisch nicht anwesend zu sein, wenn man den Abzug drückt ist ja schon kaltblütig genug…

      Wann ist man schon physisch anwesend? Selbst wenn man jemanden mit einem Gewehr erschießt, liegt eine gewisse Distanz dazwischen. Schieße ich mit einem Jet eine Rakete ab, noch mehr. Und wenn ich eine Miene lege, liegt sogar noch eine zeitliche Distanz dazwischen. All das gibt es schon lange. Natürlich hast du nicht unrecht. Drohnen haben aber auch Vorteile. Z.B. können sie von einem Kontrollraum aus gesteuert werden, in dem sich mehrere Personen befinden, die sicherstellen, dass man da gleich wirklich den richtigen erschießt. Wenn das ein einzelner Soldat tut, ist die Fehlerwahrscheinlichkeit höher

  • Klingenrenner@feddit.org
    link
    fedilink
    arrow-up
    7
    ·
    12 days ago

    Man darf noch hoffen, dass die KI auf die gleiche Lösung wie WOPR kommt.

    A strange game. The only winning move is not to play.

  • fantasty
    link
    fedilink
    arrow-up
    7
    arrow-down
    1
    ·
    11 days ago

    Ist doch beim Gaza-Genozid schon Alltag, da sucht eine KI Ziele aus und eine autonome Drohne führt die Angriffe aus. Da gab es doch Berichte zu dass ein Mensch die Liste nur einmal überfliegt und alles andere automatisiert abläuft.

  • SkavarSharraddas@gehirneimer.de
    link
    fedilink
    arrow-up
    2
    ·
    11 days ago

    “Wenn man einen solchen Entscheid anhand einer KI-gestützten Datenauswertung trifft, bedeutet das, dass der Mensch ein gewisses Mass an Kontrolle abgibt. Das führt wiederum dazu, dass die menschliche Verantwortung in den Hintergrund rückt.”

    Das ist generell ein Problem beim Einsatz von Software, durch KI wird das “nur” vervielfacht.

    “Viele Länder fordern ein rechtlich bindendes Verbot von autonomen Waffen, die selbständig menschliche Ziele identifizieren und angreifen.”

    Ich fände eine allgemeine Haftung für Software-/KI-Einsatz wünschenswert. Wenn solche Systeme eingesetzt werden und Fehler machen, dann müssen die die den Einsatz veranlasst haben auch für die Folgen verantwortlich sein. Anstatt wie bisher Software/KI als “Verantwortungkiller” einzusetzen wo am Ende niemand für irgendwas verantwortlich ist.

  • seeigel@feddit.org
    link
    fedilink
    Deutsch
    arrow-up
    1
    ·
    11 days ago

    Eher “Vorstellbar, wie schlimm der Einsatz eskalieren wird”

    Wenn die KI an Forschungseinrichtungen in Städten entwickelt wird, wird das Hauptziel auch nicht die Vernichtung feindlicher Drohnen an der Frontlinie sein.