Autonome Waffensysteme und ihr grundlegender Fehler
DOI:
https://doi.org/10.60935/mrm2025.30.2.30Schlagworte:
Autonome Waffensysteme, Künstliche Intelligenz, Menschenrechte, Verantwortlichkeit, RegulationAbstract
Hochautonome Waffen können ohne menschliches Zutun in Sekundenbruchteilen Entscheidungen über Leben und Tod treffen und so menschliche Verantwortlichkeit im Entscheidungsprozess vermeiden. Verantwortlichkeit ist eine essenzielle Komponente für die Funktionalität des Rechts. Jedes Recht basiert auf menschlichem Handeln. Daher ist menschliches Handeln für die Verantwortlichkeit unerlässlich. Das Fehlen menschlichen Handelns stellt eine Herausforderung für die Regulation künstlicher Intelligenz (KI) dar.
Anhand des Beispiels autonomer Waffensysteme (AWS) untersucht dieser Beitrag die Herausforderung der Regulation hochgradig „intelligenter“ und „autonomer“ KI-integrierter Waffensysteme, unter Verwendung einer rechtssoziologischen Methodik, die dogmatische, theoretische und vergleichende Forschungsmethoden anwendet. Auch wenn die Integration von KI in Waffensystemen an sich nicht schädlich ist, kommt der Beitrag zu dem Schluss, dass es unmöglich ist, AWS (welche hochentwickelte KI in das Waffensystem integrieren) „vollständig“ zu regulieren, aufgrund der Abwesenheit menschlichen Handelns bei der „Entscheidung“ über die Anwendung „tödlicher Gewalt“, was die Verantwortlichkeit untergräbt. Darüber hinaus findet selbst dann, wenn menschliche Beteiligung gegeben ist, diese in unterschiedlichen Phasen des Prozesses statt und sie umfasst nicht notwendigerweise die Entscheidungsphase. Folglich wird argumentiert, dass AWS den grundlegenden Mangel aufweisen, dass sie nicht gesetzlich reguliert werden können.
Downloads
Veröffentlicht
Ausgabe
Rubrik
Lizenz
Copyright (c) 2026 Ruvini Katugaha

Dieses Werk steht unter der Lizenz Creative Commons Namensnennung 4.0 International.