Autonome Waffensysteme und algorithmische Kriegsführung sind ernsthaft auf dem Vormarsch. In den aktuellen Kriegen in der Ukraine und in Gaza zeigt sich auf unterschiedliche Weise der Aufstieg des durch moderne Datenverarbeitung gestützten, systematischen Tötens. Militärische KI-Programme auf der ganzen Welt streben danach, die – wie das US-Militär es nennt – «Zeitspanne zwischen Sensor und Schütze» zu verkürzen und die «Tödlichkeit» ihrer Operationen zu «erhöhen». Systeme wie «Lavender» (welches die IDF zur Zielauswahl in Gaza einsetzen) sind keine Autonomen Waffensysteme (aka Killerroboter), aber sie beschleunigen die Tötungskette und machen den Prozess des Tötens zunehmend autonomer. KI-Zielsysteme stützen sich auf Daten von Computersensoren und anderen Quellen, um statistisch zu bewerten, was ein potenzielles Ziel ist.
Systeme wie «Lavender» werfen viele ethische Fragen in Bezug auf Trainingsdaten, Verzerrungen, Genauigkeit, Fehlerquoten und vor allem die Frage nach der Voreingenommenheit der Automatisierung auf. Durch die Automatisierung werden alle Befugnisse, einschließlich der moralischen, an die leidenschaftslose Schnittstelle der statistischen Verarbeitung abgetreten. Durch die Nutzung von Künstlicher Intelligenz wird der Spielraum für menschliches Handeln an den Rand gedrängt. Die Logik des Systems erfordert dies aufgrund der vergleichsweise langsamen kognitiven Systeme des Menschen. Damit entfällt auch das menschliche Verantwortungsgefühl für die vom Computer erzeugten Ergebnisse.
Mit Tödlichen Autonomen Waffensystemen (LAWS) und dem KI-gestützten Töten im weiteren Sinne wird die Gewalt im wahrsten Sinne des Wortes systematisiert. Das System sorgt für die Organisation, die optimierte Funktion, die Distanzierung und das moralische Vakuum, das für die Ausweitung der Tötungsarten erforderlich ist, anstatt Zurückhaltung zu fördern. Das Versprechen dabei: Autonome Waffensysteme könnten durch leidenschaftlose Gewaltanwendung zu ethischeren Akteuren im Krieg werden. Elke Schwarz warnt vor den kalten und leidenschaftslosen Formen systematischer Gewalt, die den moralischen Status menschlicher Ziele ebenso untergraben wie den Status derjenigen, die an dem System selbst beteiligt sind.
Elke Schwarz, Queen Mary University London, International Committee for Robot Arms Control (ICRAC). Moderation und Einführung: Norbert Schepers, Politikwissenschaftler, Rosa-Luxemburg-Initiative – Rosa-Luxemburg-Stiftung Bremen.
Die Veranstaltung ist Teil der Veranstaltungsreihe KI, Klima, Krise, Krieg - Wie Künstliche Intelligenz unser Leben verändert der Rosa Luxemburg Stiftung Hamburg, der Rosa-Luxemburg-Stiftung Baden-Württemberg und der Rosa-Luxemburg-Initiative Bremen.
Kontakt
Rosa-Luxemburg-Stiftung Baden-Württemberg
E-Mail: bawue@rosalux.org
Telefon: +49 711 99797090