Die KI-gesteuerte, vollständig autonome Zukunft des Krieges ist da

Autonomous future of warfare with AI is here.

Eine Flotte von Roboterschiffen schaukelt sanft in den warmen Gewässern des Persischen Golfs, irgendwo zwischen Bahrain und Katar, vielleicht 100 Meilen vor der Küste des Irans. Ich befinde mich auf dem nahegelegenen Deck eines US-Küstenwachen-Schnellboots und blinzle auf das, was ich für die Steuerbordseite halte. An diesem Morgen im frühen Dezember 2022 ist der Horizont mit Öltankern, Frachtschiffen und winzigen Fischereidhows übersät, die alle in der Hitze schimmern. Während das Schnellboot um die Roboterflotte herumfährt, sehne ich mich nach einem Sonnenschirm oder sogar einer Wolke.

Die Roboter teilen nicht mein jämmerliches menschliches Bedürfnis nach Schatten, noch benötigen sie andere biologische Annehmlichkeiten. Das ist an ihrem Design ersichtlich. Einige ähneln typischen Patrouillenbooten wie dem, auf dem ich mich befinde, aber die meisten sind kleiner, schlanker und liegen näher am Wasser. Eines sieht aus wie ein solarbetriebenes Kajak. Ein anderes sieht aus wie ein Surfbrett mit einem Metallsegel. Ein weiteres erinnert mich an ein Google Street View-Auto auf Pontons.

Diese Maschinen haben sich hier zu einer Übung versammelt, die von der Task Force 59 durchgeführt wird, einer Gruppe innerhalb der Fünften Flotte der US-Marine. Ihr Fokus liegt auf Robotik und künstlicher Intelligenz, zwei sich schnell entwickelnden Technologien, die die Zukunft des Krieges prägen. Die Mission der Task Force 59 besteht darin, sie schnell in die Marineoperationen zu integrieren, indem sie die neueste Technologie von privaten Auftragnehmern erwirbt und die Teile zu einem schlüssigen Ganzen zusammenfügt. Die Übung im Golf hat mehr als ein Dutzend unbemannte Plattformen zusammengebracht – Oberflächenschiffe, Unterwasserfahrzeuge, Luftdrohnen. Sie sollen die dezentralen Augen und Ohren der Task Force 59 sein: Sie werden die Oberfläche des Ozeans mit Kameras und Radar beobachten, unter Wasser mit Hydrophonen lauschen und die gesammelten Daten mit Hilfe von Mustervergleichsalgorithmen analysieren, um die Öltanker von den Schmugglern zu unterscheiden.

Ein anderer Mensch auf dem Schnellboot lenkt meine Aufmerksamkeit auf eines der Surfbrett-förmigen Fahrzeuge. Es klappt plötzlich sein Segel wie ein Springmesser zusammen und gleitet unter die Wellen. Es handelt sich um einen Triton, der so programmiert werden kann, wenn seine Systeme Gefahr erkennen. Mir scheint, dass dieser Verschwindetrick in der realen Welt nützlich sein könnte: Ein paar Monate vor dieser Übung hatte ein iranisches Kriegsschiff zwei autonome Fahrzeuge namens Saildrones, die nicht abtauchen können, beschlagnahmt. Die Marine musste eingreifen, um sie zurückzuerhalten.

Der Triton könnte bis zu fünf Tage unter Wasser bleiben und wieder auftauchen, wenn die Küste frei ist, um seine Batterien aufzuladen und Kontakt aufzunehmen. Glücklicherweise wird mein Schnellboot nicht so lange in der Nähe bleiben. Es startet den Motor und rast zurück zur Anlegestelle eines 150 Fuß langen Küstenwachschiffs. Ich steuere direkt auf das Oberdeck zu, wo ich weiß, dass sich unter einem Markisendach eine Stapel Flaschenwasser befindet. Während ich vorbeigehe, betrachte ich die schweren Maschinengewehre und Mörser, die auf das Meer gerichtet sind.

Das Deck kühlt sich im Wind ab, während das Schiff zurück zur Basis in Manama, Bahrain, fährt. Auf der Reise komme ich ins Gespräch mit der Besatzung. Ich möchte gerne mit ihnen über den Krieg in der Ukraine und den intensiven Einsatz von Drohnen dort sprechen, von Hobby-Quadcoptern mit Handgranaten bis hin zu vollwertigen militärischen Systemen. Ich möchte sie nach einem kürzlichen Angriff auf die von Russland besetzte Marinebasis in Sewastopol befragen, der eine Reihe von ukrainischen Drohnenbooten mit Sprengstoff und eine öffentliche Crowdfunding-Kampagne zum Bau weiterer Boote beinhaltete. Aber diese Gespräche werden nicht möglich sein, sagt mein Begleiter, ein Reservist des Social-Media-Unternehmens Snap. Da die Fünfte Flotte in einer anderen Region operiert, haben die Mitglieder der Task Force 59 nicht viele Informationen darüber, was in der Ukraine vor sich geht, erklärt sie. Stattdessen sprechen wir über KI-Bildgeneratoren und ob sie Künstler arbeitslos machen werden, darüber, wie die Zivilgesellschaft ihren eigenen Wendepunkt mit künstlicher Intelligenz zu erreichen scheint. In Wahrheit wissen wir noch nicht einmal die Hälfte davon. Es ist erst ein Tag her, seit OpenAI ChatGPT 504, die Konversations-Schnittstelle, die das Internet zum Erliegen bringen sollte, gestartet hat.

Kunst: Julien Gobled; Getty Images

Zurück an der Basis begebe ich mich zur Robotics Operations Center, wo eine Gruppe von Menschen die verteilten Sensoren auf dem Wasser überwacht. Das ROC ist ein fensterloser Raum mit mehreren Reihen von Tischen und Computermonitoren – ziemlich charakterlos, abgesehen von den Wänden, die mit inspirierenden Zitaten von Persönlichkeiten wie Winston Churchill und Steve Jobs verziert sind. Hier treffe ich Captain Michael Brasseur, den Leiter der Task Force 59, einen gebräunten Mann mit rasiertem Kopf, einem bereiten Lächeln und einem seemännischen Augenaufschlag. (Brasseur ist seitdem aus der Marine ausgeschieden.) Er geht zwischen den Tischen hin und her und erklärt fröhlich, wie das ROC funktioniert. “Hier werden alle Daten, die von den unbemannten Systemen kommen, fusioniert und wir nutzen KI und maschinelles Lernen, um einige wirklich aufregende Erkenntnisse zu gewinnen”, sagt Brasseur und reibt sich die Hände, während er spricht.

Die Monitore flackern vor Aktivität. Die KI von Task Force 59 hebt verdächtige Schiffe in der Gegend hervor. Sie hat heute bereits eine Reihe von Schiffen markiert, deren Identifikationssignal nicht übereinstimmte, was die Flotte veranlasste, genauer hinzusehen. Brasseur zeigt mir eine neue Schnittstelle in der Entwicklung, die es seinem Team ermöglichen wird, viele dieser Aufgaben auf einem Bildschirm auszuführen, vom Betrachten des Kamerabildes eines Drohnenschiffs bis hin zur Anweisung, näher an die Aktion heranzugehen.

“Es kann autonom handeln, aber wir empfehlen es nicht. Wir möchten keinen dritten Weltkrieg beginnen.”

Brasseur und andere auf der Basis betonen, dass die autonomen Systeme, die sie testen, nur für die Erfassung und Erkennung gedacht sind, nicht für bewaffnete Interventionen. “Derzeit liegt der Schwerpunkt der Task Force 59 auf der Verbesserung der Sichtbarkeit”, sagt Brasseur. “Alles, was wir hier tun, unterstützt die Besatzung der Schiffe.” Aber einige der Roboterschiffe, die an der Übung beteiligt sind, verdeutlichen, wie kurz der Abstand zwischen unbewaffnet und bewaffnet sein kann – eine Frage des Austauschs von Nutzlasten und der Anpassung der Software. Ein autonomes Schnellboot, die Seagull, ist darauf ausgelegt, Minen und U-Boote zu jagen, indem es ein Sonar-Array hinter sich herzieht. Amir Alon, Senior Director bei Elbit Systems, dem israelischen Rüstungsunternehmen, das die Seagull entwickelt hat, erzählt mir, dass es auch mit einer ferngesteuerten Maschinenkanone und Torpedos ausgestattet werden kann, die von Deck aus abgefeuert werden. “Es kann autonom handeln, aber wir empfehlen es nicht”, sagt er mit einem Lächeln. “Wir möchten keinen dritten Weltkrieg beginnen.”

Nein, das möchten wir nicht. Aber Alons Witz berührt eine wichtige Wahrheit: Autonome Systeme mit der Fähigkeit zu töten existieren bereits weltweit. In jedem größeren Konflikt, selbst wenn es weit entfernt von einem dritten Weltkrieg liegt, wird jede Seite bald in Versuchung geraten, diese Systeme nicht nur zu bewaffnen, sondern in einigen Situationen auch menschliche Aufsicht abzuschaffen und die Maschinen mit Maschinengeschwindigkeit kämpfen zu lassen. In diesem Krieg der KI gegen KI werden nur Menschen sterben. Es ist also berechtigt, sich zu fragen: Wie denken diese Maschinen und die Menschen, die sie entwickeln?

Glimmerings autonomer Technologie gibt es seit Jahrzehnten im US-Militär, von der Autopilot-Software in Flugzeugen und Drohnen bis hin zu den automatischen Decksgeschützen, die Kriegsschiffe vor eingehenden Raketen schützen. Aber dies sind begrenzte Systeme, die dazu entwickelt wurden, bestimmte Funktionen in bestimmten Umgebungen und Situationen auszuführen. Autonom, vielleicht, aber nicht intelligent. Erst 2014 begannen die Spitzen des Pentagons über autonomere Technologie nachzudenken, die eine Lösung für ein viel größeres Problem darstellen könnte.

Bob Work, damals stellvertretender Verteidigungsminister, war besorgt, dass die geopolitischen Rivalen des Landes “die Parität erreichen”. Er wollte wissen, wie man “die Überlegenheit zurückgewinnen” könne, sagt er – wie man sicherstellen könne, dass die USA auch bei weniger Soldaten, Flugzeugen und Schiffen als China zum Beispiel aus jedem potenziellen Konflikt siegreich hervorgehen könnten. Also fragte Work eine Gruppe von Wissenschaftlern und Technologen, auf welche Bereiche sich das Verteidigungsministerium konzentrieren sollte. “Sie kamen zurück und sagten, KI-fähige Autonomie”, erinnert er sich. Er begann an einer nationalen Verteidigungsstrategie zu arbeiten, die Innovationen aus dem Technologiesektor fördern würde, einschließlich der neu entstehenden Fähigkeiten des maschinellen Lernens.

Dies war leichter gesagt als getan. Das Verteidigungsministerium ließ bestimmte Projekte realisieren – darunter Sea Hunter, ein experimentelles Kriegsschiff im Wert von 20 Millionen US-Dollar, und Ghost Fleet Overlord, eine Flottille konventioneller Schiffe, die autonom agieren können -, aber bis 2019 stockten die Versuche des Ministeriums, die Big Tech zu nutzen. Der Versuch, eine einzige Cloud-Infrastruktur zur Unterstützung von KI in militärischen Operationen zu schaffen, wurde zu einem politischen Zankapfel und fallengelassen. Ein Google-Projekt, das die Analyse von Luftbildern mit Hilfe von KI beinhaltete, stieß auf heftige öffentliche Kritik und Mitarbeiterproteste. Als die Marine ihren Schiffbauplan für 2020 veröffentlichte, eine Übersicht darüber, wie sich die US-Flotten in den nächsten drei Jahrzehnten entwickeln werden, betonte sie die Bedeutung unbemannter Systeme, insbesondere großer Oberflächenschiffe und Unterwasserfahrzeuge – jedoch wurde vergleichsweise wenig Geld für deren Entwicklung bereitgestellt.

In einem winzigen Büro tief im Pentagon war ein ehemaliger Marinepilot namens Michael Stewart sich dieses Problems durchaus bewusst. Als verantwortlicher Leiter der Entwicklung neuer Kampfsysteme für die US-Flotte war Stewart zu der Erkenntnis gelangt, dass die Marine wie Blockbuster schlafwandelnd ins Netflix-Zeitalter gerät. Jahre zuvor hatte er an der Harvard Business School Klassen bei Clay Christensen besucht, einem Wissenschaftler, der untersuchte, warum große, erfolgreiche Unternehmen von kleineren Marktteilnehmern gestört werden – oft weil sie sich auf das aktuelle Geschäft konzentrieren und neue Technologietrends verpassen. Die Frage für die Marine, wie Stewart es sah, war, wie die Adoption von Robotik und KI beschleunigt werden könnte, ohne in institutionelle Bürokratie zu geraten.

Zu dieser Zeit dachten auch andere in ähnlichen Bahnen. So veröffentlichten beispielsweise im Dezember Forscher des RAND, der staatlich finanzierten Denkfabrik für Verteidigung, einen Bericht, der einen alternativen Weg vorschlug: Anstatt einige extrem teure autonome Systeme zu finanzieren, warum nicht günstigere Systeme in Schwärmen erwerben? Unter Bezugnahme auf mehrere Kriegsspiele einer chinesischen Invasion Taiwans stellte der RAND-Bericht fest, dass der Einsatz großer Mengen kostengünstiger Luftdrohnen die Chancen eines US-Sieges erheblich verbessern könnte. Indem sie ein Bild von jedem Schiff in der Taiwan-Straße lieferten, könnten die hypothetischen Drohnen – von RAND als “Kätzchen” bezeichnet – den USA ermöglichen, die Flotte des Feindes schnell zu zerstören. (Eine chinesische Militärzeitschrift nahm diese Vorhersage damals zur Kenntnis und diskutierte das Potenzial von “xiao mao”, dem chinesischen Begriff für “Kätzchen”, in der Taiwan-Straße.)

Kunst: Julien Gobled; Getty Images

Anfang 2021 erstellte Stewart mit einer Gruppe von Kollegen ein 40-seitiges Dokument namens Unmanned Campaign Framework. Es skizzierte einen unkonventionellen Plan für den Einsatz autonomer Systeme in der Marine, der konventionelle Beschaffung zugunsten der Experimentation mit kostengünstigen Robotikplattformen umging. Die Bemühungen würden ein kleines, vielfältiges Team umfassen – Spezialisten für KI und Robotik, Experten für Marinestrategie – die zusammenarbeiten könnten, um Ideen schnell umzusetzen. “Es geht hier nicht nur um unbemannte Systeme”, sagt Stewart. “Es ist genauso – wenn nicht sogar noch mehr – eine Organisationsgeschichte.”

Stewarts Plan erregte die Aufmerksamkeit von Vizeadmiral Brad Cooper von der Fünften Flotte, deren Gebiet sich über 2,5 Millionen Quadratmeilen Wasser erstreckt, vom Suezkanal rund um die Arabische Halbinsel bis zum Persischen Golf. Das Gebiet ist mit Schifffahrtsrouten gefüllt, die sowohl für den globalen Handel als auch für illegale Fischerei und Schmuggel von großer Bedeutung sind. Seit dem Ende des Golfkriegs, als ein Teil der Aufmerksamkeit und Ressourcen des Pentagons nach Asien verlagert wurden, habe Cooper nach Möglichkeiten gesucht, mehr mit weniger zu erreichen, sagt Stewart. Iran habe seine Angriffe auf Handelsschiffe verstärkt, indem es sie mit bewaffneten Schnellbooten umkreise und sogar mit Drohnen und ferngesteuerten Booten angreife.

Cooper bat Stewart, ihn und Brasseur in Bahrain zu begleiten, und gemeinsam begannen die drei, Task Force 59 aufzubauen. Sie betrachteten die bereits an anderen Orten der Welt verwendeten autonomen Systeme – zum Sammeln von Klimadaten oder zur Überwachung von Offshore-Ölplattformen – und kamen zu dem Schluss, dass die Anmietung und Modifizierung dieser Hardware nur einen Bruchteil dessen kosten würde, was die Marine normalerweise für neue Schiffe ausgeben würde. Task Force 59 würde dann KI-gesteuerte Software verwenden, um die Teile zusammenzufügen. “Wenn neue unbemannte Systeme in diesen komplexen Gewässern operieren können”, sagte Cooper zu mir, “glauben wir, dass sie auf die anderen Flotten der US-Marine ausgeweitet werden können.”

Während sie die neue Task Force aufbauten, wurden diese Gewässer immer komplexer. In den frühen Stunden des 29. Juli 2021 tauchten vor der Küste von Oman zwei schwarze, V-förmige Drohnen am Horizont auf und explodierten im Meer. Ein Tag später, nachdem die Besatzung einige Trümmer aus dem Wasser gesammelt und den Vorfall gemeldet hatte, stürzte eine dritte Drohne auf das Dach des Kontrollraums des Tankschiffs, wobei eine explosive Ladung detoniert wurde, die durch die Struktur riss und zwei Besatzungsmitglieder tötete. Ermittler kamen zu dem Schluss, dass drei in Iran hergestellte “Selbstmorddrohnen” dafür verantwortlich waren.

Die Hauptbedrohung, die Stewart beschäftigte, war China. “Mein Ziel ist es, schnell und kostengünstig – innerhalb von fünf Jahren – zu kommen, um eine abschreckende Botschaft zu senden”, sagt er. Aber China investiert natürlich auch erheblich in militärische Autonomie. Ein Bericht der Georgetown University aus dem Jahr 2021 ergab, dass die Volksbefreiungsarmee jedes Jahr mehr als 1,6 Milliarden US-Dollar in diese Technologie investiert – ungefähr auf demselben Niveau wie die USA. Der Bericht stellt auch fest, dass autonome Schiffe, ähnlich denen, die von Task Force 59 verwendet werden, ein Schwerpunkt der chinesischen Marine sind. China hat bereits einen Klon des Sea Hunter entwickelt, zusammen mit einem angeblich großen Drohnenträgerschiff.

Allerdings hatte Stewart bis dahin nicht viel Interesse an seiner Arbeit bemerkt, bis Russland in die Ukraine einmarschierte. “Leute rufen mich an und sagen: ‘Du weißt, dieses autonome Zeug, über das du gesprochen hast? OK, erzähl mir mehr'”, sagt er. Wie die Seeleute und Beamten, die ich in Bahrain getroffen habe, wollte er sich nicht speziell zur Situation äußern – nicht zum Angriff mit Drohnenbooten auf Sewastopol, nicht zum 800 Millionen Dollar-Hilfspaket, das die USA im letzten Frühjahr an die Ukraine geschickt haben und das eine unbestimmte Anzahl von “unbemannten Küstenverteidigungsschiffen” enthielt, nicht zur Arbeit der Ukraine an der Entwicklung vollständig autonomer Killerdrohnen. Alles, was Stewart sagen würde, ist dies: “Der Zeitplan verschiebt sich definitiv.”

Hivemind ist darauf ausgelegt, das Kampfflugzeug F-16 zu fliegen, und kann die meisten menschlichen Piloten im Simulator besiegen.

Ich bin in San Diego, Kalifornien, einem Hauptstützpunkt der US-Pazifikflotte, wo Verteidigungs-Startups wie Muscheln wachsen. Direkt vor mir in einem hohen Glasgebäude umgeben von Palmen befindet sich die Zentrale von Shield AI. Stewart ermutigte mich, das Unternehmen zu besuchen, das die V-BAT herstellt, eine Luftdrohne, mit der Task Force 59 im Persischen Golf experimentiert. Obwohl sie in ihrem Aussehen seltsam ist – in Form eines umgedrehten T mit Flügeln und einem einzelnen Propeller unten – ist es eine beeindruckende Hardware, klein und leicht genug für ein Zwei-Personen-Team, sie praktisch überall zu starten. Aber es ist die Software im Inneren der V-BAT, ein KI-Pilot namens Hivemind, den ich sehen möchte.

Ich gehe durch die hellweißen Büros des Unternehmens, vorbei an Ingenieuren, die mit Drohnenteilen und Codezeilen herumspielen, zu einem kleinen Konferenzraum. Dort sehe ich auf einem großen Bildschirm, wie drei V-BATS zu einer simulierten Mission in der kalifornischen Wüste aufbrechen. Irgendwo in der Nähe wütet ein Waldbrand, und ihre Aufgabe ist es, ihn zu finden. Die Flugzeuge starten senkrecht vom Boden, kippen dann nach vorne und fliegen in verschiedene Richtungen davon. Nach einigen Minuten lokalisiert eine der Drohnen die Brandstelle und übermittelt die Informationen an ihre Kameraden. Sie passen ihren Flug an und nähern sich dem Feuer, um sein gesamtes Ausmaß zu kartieren.

Art: Julien Gobled; Getty Images

Die simulierten V-BATs folgen nicht direkten menschlichen Befehlen. Sie folgen auch nicht den von Menschen in herkömmlicher Software festgelegten Befehlen – dem starren “Wenn dies, dann das”. Stattdessen nehmen die Drohnen autonom ihre Umgebung wahr, navigieren, planen, wie sie ihre Mission erfüllen können, und arbeiten dabei in einem Schwarm zusammen. – Shield AI’s Ingenieure haben Hivemind teilweise mit Hilfe des verstärkenden Lernens trainiert und es auf Tausenden von simulierten Missionen eingesetzt, um es allmählich dazu zu bringen, die effizienteste Art der Aufgabenerfüllung zu finden. “Dies sind Systeme, die denken und Entscheidungen treffen können”, sagt Brandon Tseng, ein ehemaliger Navy SEAL, der das Unternehmen mitbegründet hat.

Diese Version von Hivemind enthält einen recht einfachen Subalgorithmus, der simulierten Waldbränden identifizieren kann. Natürlich könnten verschiedene Subalgorithmen einem Drohnenschwarm helfen, beliebige andere Ziele zu identifizieren – Fahrzeuge, Schiffe, menschliche Kämpfer. Das System ist auch nicht auf die V-BAT beschränkt. Hivemind ist auch dafür ausgelegt, den Kampfjet F-16 zu fliegen, und er kann die meisten menschlichen Piloten im Simulator schlagen. (Das Unternehmen sieht vor, dass diese KI in neueren Generationen von Kriegsflugzeugen zum “Co-Piloten” wird.) Hivemind betreibt auch einen Quadcopter namens Nova 2, der klein genug ist, um in einen Rucksack zu passen und Innenräume von Gebäuden und unterirdischen Komplexen zu erkunden und zu kartieren.

Für Task Force 59 – oder jede andere Militärorganisation, die relativ kostengünstig auf KI und Robotik umstellen möchte – ist der Reiz dieser Technologien klar. Sie bieten nicht nur eine “verbesserte Sichtbarkeit” auf dem Schlachtfeld, wie Brasseur es ausdrückte, sondern auch die Möglichkeit, Macht zu projizieren (und möglicherweise Gewalt anzuwenden) mit weniger tatsächlich anwesenden Personen. Anstatt Dutzende von menschlichen Drohnenbedienern einer Such- und Rettungsaktion oder einer Aufklärungsmission zuzuweisen, könnte man ein Team von V-BATs oder Nova 2s entsenden. Anstatt das Leben Ihrer teuer ausgebildeten Piloten bei einem Luftangriff zu riskieren, könnten Sie einen Schwarm günstiger Drohnen schicken, von denen jeder von derselben erstklassigen KI gesteuert wird, jeder eine Erweiterung desselben Schwarmgeistes.

Trotz der erstaunlichen Fähigkeiten von maschinellem Lernen können diese Algorithmen inhärent undurchsichtig und unvorhersehbar sein. Während meines Besuchs bei Shield AI habe ich eine kurze Begegnung mit einer der Nova 2-Drohnen des Unternehmens. Sie steigt vom Büroboden auf und schwebt etwa einen Fuß vor meinem Gesicht. “Sie betrachtet dich”, sagt ein Ingenieur. Einen Moment später surrt die Drohne nach oben und fliegt durch ein nachgestelltes Fenster an einer Seite des Raumes. Das Erlebnis ist beunruhigend. In einem Augenblick hat diese kleine Luftintelligenz eine Entscheidung über mich getroffen. Aber wie? Obwohl die Antwort den Ingenieuren von Shield AI zugänglich sein mag, die Elemente der Entscheidungsfindung des Roboters erneut abspielen und analysieren können, arbeitet das Unternehmen immer noch daran, diese Informationen für “Nicht-Expertenbenutzer” verfügbar zu machen.

Man braucht nur in die zivile Welt zu schauen, um zu sehen, wie diese Technologie aus dem Ruder laufen kann – Gesichtserkennungssysteme, die rassische und geschlechtsspezifische Vorurteile zeigen, selbstfahrende Autos, die gegen Objekte stoßen, für die sie nie trainiert wurden. Selbst mit sorgfältiger Ingenieursarbeit könnte ein militärisches System, das KI integriert, ähnliche Fehler machen. Ein Algorithmus, der darauf trainiert ist, feindliche Lastwagen zu erkennen, könnte durch ein ziviles Fahrzeug verwirrt werden. Ein Raketenabwehrsystem, das auf eingehende Bedrohungen reagieren soll, könnte nicht vollständig “erklären” können, warum es einen Fehlschuss hatte.

Diese Risiken werfen neue ethische Fragen auf, ähnlich wie bei Unfällen mit selbstfahrenden Autos. Wenn ein autonomes militärisches System einen tödlichen Fehler macht, wer ist dafür verantwortlich? Ist es der Kommandant der Operation, der Offizier, der das System überwacht, der Computeringenieur, der die Algorithmen erstellt und das Schwarmdenken vernetzt hat, der Händler, der die Schulungsdaten geliefert hat?

Eines ist sicher: Die Technologie entwickelt sich schnell weiter. Als ich Tseng traf, sagte er, dass Shield AI das Ziel habe, “bis 2023 ein operatives Team aus drei V-BATs, bis 2024 sechs V-BATs und bis 2025 zwölf V-BATs” zu haben. Acht Monate nach unserem Treffen startete Shield AI ein Team von drei V-BATs von einer Luftwaffenbasis aus, um eine simulierte Waldbrandmission zu fliegen. Das Unternehmen rühmt sich auch damit, dass Hivemind darauf trainiert werden kann, verschiedene Missionen zu übernehmen – von der Suche nach Raketenbasen bis hin zur Bekämpfung feindlicher Flugzeuge – und dass es bald auch bei eingeschränkter oder unterbrochener Kommunikation einsatzfähig sein wird.

Bevor ich San Diego verlasse, mache ich eine Tour auf der USS Midway, einem Flugzeugträger, der ursprünglich am Ende des Zweiten Weltkriegs in Dienst gestellt wurde und jetzt dauerhaft in der Bucht vor Anker liegt. Jahrzehntelang trug das Schiff einige der weltweit fortschrittlichsten militärischen Technologien und diente als schwimmende Start- und Landebahn für Hunderte von Flugzeugen, die Aufklärungs- und Bombenmissionen in Konflikten von Vietnam bis Irak flogen. Im Zentrum des Trägers, wie ein riesiger metallischer Bauch, befindet sich das Hangardeck. Türen auf einer Seite führen in ein Labyrinth aus Gängen und Räumen, darunter enge Matrosenquartiere, komfortable Offiziersschlafzimmer, Küchen, Krankenstationen, sogar ein Friseursalon und eine Wäscherei – eine Erinnerung daran, dass zu einer Zeit bis zu 4.000 Matrosen und Offiziere dieses Schiff ihr Zuhause nannten.

Stehe ich hier, kann ich spüren, wie tiefgreifend der Übergang zur Autonomie sein wird. Es wird wahrscheinlich noch lange dauern, bis unbemannte Schiffe diejenigen mit Menschen an Bord in der Überzahl sind, noch länger, bis Drohnen-Mutterschiffe die Meere beherrschen. Aber die Roboterarmada des Task Force 59, so jung sie auch sein mag, markiert einen Schritt in eine andere Welt. Vielleicht wird es eine sicherere Welt sein, in der Netzwerke autonomer Drohnen auf der ganzen Welt den Menschen helfen, Konflikte einzudämmen. Oder vielleicht verdunkeln sich die Himmel von Angriffsesschwärmen. Welche Zukunft auch immer am Horizont liegt, die Roboter segeln in diese Richtung.


Dieser Artikel erscheint in der Ausgabe vom September 2023. Abonnieren Sie jetzt.

Lassen Sie uns wissen, was Sie von diesem Artikel halten. Senden Sie einen Brief an die Redaktion an [email protected].