Mehr Battlefield-KI wird den Nebel des Krieges tödlicher machen

Mehr Battlefield-KI macht Kriegstaktiken gefährlicher

Die US-amerikanische Militärstreitkräfte sind nicht mehr die unbestrittene Macht, die sie einst waren, aber Alexandr Wang, CEO des Startups Scale AI, sagte letzte Woche vor einem Kongressausschuss, dass sie einen neuen Vorteil erlangen könnten, indem sie künstliche Intelligenz nutzen.

“Wir haben die größte Flotte an militärischer Hardware weltweit”, sagte Wang vor dem Unterausschuss des House Armed Services Committee für Cyber, Informationstechnologie und Innovation. “Wenn wir in der Lage sind, diese generierten Daten ordnungsgemäß aufzubereiten und zu instrumentalisieren … dann können wir einen ziemlich unüberwindbaren Daten-Vorteil bei der militärischen Nutzung von künstlicher Intelligenz schaffen.”

Wangs Unternehmen hat ein persönliches Interesse an dieser Vision, da es regelmäßig mit dem Pentagon zusammenarbeitet und große Mengen an Trainingsdaten für KI-Projekte verarbeitet. Aber es besteht die Überzeugung innerhalb der US-amerikanischen Militärkreise, dass der zunehmende Einsatz von KI und maschinellem Lernen praktisch unvermeidlich und unerlässlich ist. Ich habe kürzlich über diese wachsende Bewegung geschrieben und wie eine Einheit des Pentagons standardisierte Robotik und KI-Software einsetzt, um große Teile des Ozeans im Nahen Osten effizienter zu überwachen.

Neben den beispiellosen militärischen Daten des Landes sagte Wang in der Anhörung vor dem Kongress, dass die USA den Vorteil haben, Heimat der weltweit fortschrittlichsten AI-Chip-Hersteller wie Nvidia und dem besten KI-Know-how zu sein. “Amerika ist der Ort der Wahl für die weltweit talentiertesten KI-Wissenschaftler”, sagte er.

Wangs Interesse an militärischer KI ist auch deshalb beachtenswert, weil Scale AI an der Spitze einer weiteren KI-Revolution steht: der Entwicklung leistungsstarker großer Sprachmodelle und fortschrittlicher Chatbots wie ChatGPT.

Zurzeit denkt noch niemand daran, ChatGPT in den Militärdienst einzubeziehen, obwohl es bereits einige Experimente mit dem Einsatz großer Sprachmodelle in militärischen Kriegsspielen gab. Aber Beobachter sehen die jüngsten Fortschritte US-amerikanischer Unternehmen bei der Leistungsfähigkeit von KI als einen weiteren wichtigen Vorteil an, den das Pentagon nutzen könnte. Angesichts der schnellen Entwicklung dieser Technologie und ihrer nach wie vor bestehenden Probleme stellen sich neue Fragen nach den erforderlichen Sicherheitsvorkehrungen im Zusammenhang mit militärischer KI.

Dieser Fortschritt in den Fähigkeiten der KI erfolgt zu einer Zeit, in der sich die Einstellungen der Menschen zur militärischen Nutzung von KI ändern. 2017 wurde Google wegen der Hilfe für die US-Luftwaffe bei der Interpretation von Luftbildern im Rahmen von Project Maven des Pentagon heftig kritisiert. Aber die russische Invasion der Ukraine hat die öffentliche und politische Einstellung zur Zusammenarbeit des Privatsektors mit Technologieunternehmen gemildert und das Potenzial kostengünstiger autonomer Drohnen und kommerzieller KI für die Datenanalyse aufgezeigt. Ukrainische Streitkräfte nutzen neuronale Deep-Learning-Algorithmen zur Analyse von Luftbildern und -aufnahmen. Das US-amerikanische Unternehmen Palantir hat angegeben, Zielsoftware an die Ukraine zu liefern. Und Russland konzentriert sich zunehmend auf KI für autonome Systeme.

Trotz weit verbreiteter Ängste vor “Killer-Robotern” ist die Technologie noch nicht zuverlässig genug, um auf diese Weise eingesetzt zu werden. Und während meiner Recherchen über die KI-Ambitionen des Pentagon bin ich auf niemanden im Verteidigungsministerium, den US-Streitkräften oder KI-fokussierten Startups gestoßen, die darauf erpicht sind, vollständig autonome Waffen freizusetzen.

Aber der verstärkte Einsatz von KI wird zu einer wachsenden Anzahl von militärischen Konflikten führen, bei denen Menschen aus der Gleichung entfernt oder abstrahiert werden. Und während einige Leute KI mit Atomwaffen verglichen haben, besteht das unmittelbare Risiko weniger in der zerstörerischen Kraft von KI-Systemen im Militär als vielmehr in ihrer Fähigkeit, Nebel des Krieges zu verstärken und menschliche Fehler wahrscheinlicher zu machen.

Als ich mit John Richardson sprach, einem pensionierten Admiral mit vier Sternen, der zwischen 2015 und 2018 als Chief of Naval Operations der US Navy diente, war er überzeugt, dass KI eine ähnliche Wirkung auf die militärische Macht haben wird wie die industrielle Revolution und das Atomzeitalter. Und er wies darauf hin, dass die Seite, die diese früheren Revolutionen am besten genutzt hat, die letzten beiden Weltkriege gewonnen hat.

Aber Richardson sprach auch über die Rolle menschlicher Verbindungen bei der Bewältigung von militärischen Interaktionen, die von leistungsstarker Technologie angetrieben werden. Während seiner Zeit als Marinechef bemühte er sich, seine Kollegen in den Flotten anderer Nationen kennenzulernen. “Immer wenn wir uns trafen oder sprachen, bekamen wir ein besseres Verständnis füreinander”, sagt er. “Was ich wirklich tun wollte, war sicherstellen, dass ich sie im Falle eines Vorfalls – einer Art Fehleinschätzung oder so – relativ kurzfristig kontaktieren konnte. Du möchtest einfach nicht, dass das dein erster Anruf ist.”

Jetzt wäre eine gute Zeit für die militärischen Führer der Welt, miteinander über die Risiken und Grenzen von KI zu sprechen.