Im Juli dieses Jahres legte die US Regierung einen sogenannten “AI Action Plan” vor, der u.a. die Regulierungen von KI Anwendungen im militärischen Einsatz durch Menschen zum Teil aufheben soll. Die in den verschiedenen Teilstreitkräften eingesetzte KI soll zusammengeführt werden und zukünftige Kriegsführungsszenarien sehen hochkomplexe Einsätze von Unmengen an Drohnen, Raketen und anderen Waffen- und Steuerungssysteme vor, die bisher nicht in einem Schlachtfeld Szenario zentral zu steuern sind und zum Teil konventionelle Waffensysteme wie Kriegsschiffe und – Flugzeuge ersetzen sollen. Des Weiteren sollen autonom agierende Drohnenflugzeuge und – Schiffe im Zuge des Replicator-Programms entwickelt werden. KI soll auch die Voraussagen für politische und militärische Entwicklungen optimieren, der Direktor der National Geospatial-Intelligence Agency geht davon aus, “dass wir zeitnah zu 100 % maschinengenerierte Informationen an die Kommandostäbe weitergeben werden”. Als vorbildlich gilt das US-Unternehmen Rhombus Power, das mit einer Wahrscheinlichkeit von über 80% den Angriff Russlands auf die Ukraine mit 4 Monaten Vorlauf vorausgesagt habe. Mittlerweile hat dieses Unternehmen Verträge mit Taiwan abgeschlossen, die auf die Möglichkeiten einer Invasion durch die VR China abzielen.
Noch gilt eine strikte Trennung von KI Anwendungen im militärischen Kontext zwischen der Anwendung im konventionellen und dem nuklearen Bereich. Allerdings betonen militärische Experten, dass es durch die zunehmende Komplexität und neue Entwicklungen wie Hyperschall-Gleitflugkörper, die keine ballistische Flugbahn mehr haben und daher nicht verfolgt werden können, immer schwieriger werde, die gesamte Situation im Konflikt der Großmächte durch Menschen zu beurteilen, außerdem gehe man davon aus, dass das russische “Dead-Man” – System, dass die Durchführung eines nuklearen Vergeltungsschlages trotz Ausfall der militärischen Befehlskette sicherstelle, nach wie vor betrieben werde. Die USA müssten dies unbedingt bei ihren Planungen und Programmen berücksichtigen. Angesichts der sogenannten “Chancen und Risiken” einer KI gestützten Kriegsführung scheint das Prinzip Hoffnung unter den militärischen Verantwortlichen der USA zu herrschen: Ein Verzicht auf die volle Integration von KI in alle militärischen Bereiche, einschließlich der Nuklearwaffen, sei schlicht nicht möglich, da man sonst im Konflikt mit Russland und der VR China hoffnungslos ins Hintertreffen gerate, auf der anderen Seite seien die Entscheidungsprozesse der neuesten Generationen von KI von Menschen gar nicht mehr en détail nachzuvollziehen. Die Defense Advanced Research Projects Agency (DARPA) wurde daher damit beauftragt, den Algorithmus der KI Modelle besser nachzuvollziehen, da man festgestellt habe, dass diese zum Teil dazu neigen, zu “halluzinieren”. Am Ende bleibt also nur noch die Hoffnung auf ein postmodernes “Gottesurteil”: Das die KI gestützten Systeme die Schäden durch einen nuklearen Schlagabtausch für so groß einschätzen, dass ein “Sieg im Atomkrieg” nicht möglich sei und deshalb den nuklearen Flächenbrand nicht auf die Tagesordnung setzen.
Genauso wie der militärische Konflikt heute ein asymmetrischer ist, ist auch der Klassenkonflikt heute asymmetrischer Natur.
„Enjoy The Silence [Part 2]“ weiterlesen