Hoe verandert kunstmatige intelligentie de oorlogsvoering?


Afgelopen najaar deden Mark Milley, voormalig voorzitter van de Joint Chiefs of Staff van de Amerikaanse strijdkrachten, en Eric Schmidt, voormalig CEO van Google, raadselachtige uitspraken in het Amerikaanse tijdschrift Foreign Affairs. Ze schreven eerst dat nieuwe technologieën zoals kunstmatige intelligentie en drones de aard van oorlog veranderden. Later in hetzelfde artikel stelden ze dat nieuwe technologieën slechts een fundamentele invloed hadden op het karakter, of de vorm, van oorlog, niet op de aard ervan.
NZZ.ch vereist JavaScript voor belangrijke functies. Uw browser of advertentieblokkering blokkeert dit momenteel.
Pas de instellingen aan.
Wat nu? Natuur of vorm, of allebei? De tegenstelling tussen Milley en Schmidt laat zien hoe verwarrend het huidige debat is. Zoals zo vaak kan de 19e-eeuwse oorlogstheoreticus Carl von Clausewitz enige houvast bieden. Hij was immers degene die het onderscheid tussen de aard en de vorm van oorlog het meest prominent definieerde.
Wat is er veranderd?Volgens Clausewitz is de vorm van oorlog terug te vinden in ieder conflict in de menselijke geschiedenis: in de Peloponnesische Oorlog, de Dertigjarige Oorlog, de Tweede Wereldoorlog, de Oekraïne-oorlog, enzovoort.
De aard van oorlog omvat echter wat Clausewitz "de drie-eenheid" noemt. Ten eerste is oorlog als een worstelwedstrijd waarin twee partijen proberen hun wil aan elkaar op te leggen. Oorlog is fysieke dwang, antagonisme, en wordt gedreven door een blinde, natuurlijke drang om de vijand te vernietigen. Ten tweede is oorlog geen geïsoleerd systeem, maar de voortzetting van politiek met andere middelen. Ten derde is oorlog als een kaartspel, wat betekent dat het ook afhankelijk is van waarschijnlijkheid en geluk. Het vereist getalenteerde, ervaren en moedige commandanten en soldaten met wat een "gelukkige hand" wordt genoemd om te zegevieren in complexe situaties.
Voor Clausewitz is het onderscheid tussen de aard en de vorm van oorlog een heuristisch instrument. Het stelt ons in staat om de verschijning van vele concrete oorlogen in de geschiedenis te vergelijken met abstracte definities, zodat we ons vervolgens kunnen afvragen wat er werkelijk is veranderd.
In dit licht bezien, treedt een verschuiving in de aard van oorlog alleen op wanneer bijvoorbeeld het gevechtsaspect van oorlog per se verdwijnt – of een ander fundamenteel aspect van de Drie-eenheid. Iedereen die dan nog over oorlog praat, begrijpt de definitie van de term niet. Want wat is oorlog zonder geweld, politieke besluitvormers, een bewapend volk of bevelhebbers? Voor Clausewitz is het onwaarschijnlijk dat de aard van oorlog zal veranderen.
De vorm van oorlog is echter anders. Voor Clausewitz is oorlog een kameleon. Het verandert van uiterlijk – ook door vooruitgang in technologie en wetenschap. Dus wanneer oorlog van vorm verandert, verandert ook de manier waarop mensen oorlog voeren. Tactische gevechtsprocedures worden ontwikkeld, de gebruikte materialen en technologie, evenals de structuur van grotere operaties, die idealiter worden omlijst door strategische doelstellingen, passen zich aan. Dit was recent te zien bij de Oekraïense droneaanval op luchtmachtbases in Rusland.
Oekraïense strijdkrachten/Reuters
AI is, in de zin van Clausewitz, zowel een technologie als een wetenschap. De samenwerking met het leger is zeker niet nieuw. Het dateert uit de Tweede Wereldoorlog, toen cryptoanalisten in Bletchley Park, Engeland, werkten aan het ontcijferen van de Duitse Enigma-encryptiemachine. De geallieerden probeerden de gecodeerde radioberichten te onderscheppen om aanvallen op onderzeeërs en bommenwerpers te stoppen.
Alan Turing was een van deze cryptoanalisten en ontwikkelde zijn eigen elektromechanische machine, de Turing Bombe, die hem, vanwege zijn geautomatiseerde werking, op het idee bracht om zich af te vragen of machines kunnen denken, oftewel, intelligent zijn.
Twee jaar na Turings dood, in 1956, werd de term 'kunstmatige intelligentie' voor het eerst gebruikt op de Dartmouth Conference. Dit markeerde het begin van symbolische AI. Zoals de naam al doet vermoeden, zijn deze machines in staat om abstracte symbolen te manipuleren, oftewel notaties van formele logica.
De American Defense Advanced Research Projects Agency (DARPA), die onderzoeksprojecten uitvoert voor de strijdkrachten, raakte erbij betrokken. Het Dart-programma werd opgezet, dat hielp bij het oplossen van logistieke problemen in de toeleveringsketen tijdens de Eerste Golfoorlog en het Amerikaanse leger miljoenen bespaarde.
Ook gefinancierd door DARPA ontwikkelde het bedrijf iRobot in de jaren negentig de PackBot-robot. Na 9/11 en Fukushima hielp PackBot bij het zoeken naar puin. In Irak en Afghanistan hielp het bij het onschadelijk maken van boobytraps.
Hoewel deze voorbeelden aantonen dat AI op verschillende manieren werd ingezet tijdens en na de Tweede Wereldoorlog, heeft deze technologie de aard of vorm van oorlogvoering niet fundamenteel veranderd. In plaats daarvan verbeterde het bestaande tactische en logistieke processen, zoals het ontcijferen van berichten, het beheren van de toeleveringsketen en het onschadelijk maken van bommen.
Hetzelfde geldt voor het gebruik van AI op de hedendaagse slagvelden. Het Israëlische leger gebruikt AI-ondersteunde detectie- en aanbevelingssystemen om Hamas-doelen te identificeren. Het Oekraïense leger gebruikt AI-ondersteunde drones die autonoom doelen detecteren en aanvallen. In hybride oorlogsvoering gebruikt Rusland AI voor deepfakes in desinformatiecampagnes, net zoals terroristische niet-statelijke groeperingen zoals Al-Qaida en ISIS generatieve AI gebruiken voor propaganda en rekrutering.
AI is een technologie voor algemeen gebruik. Het kan zich in elk digitaal systeem nestelen, versterken en efficiënter maken. Maar desinformatie, propaganda, rekrutering en bombardementen zijn geen nieuwe uitvindingen op tactisch niveau.
De talrijke ethische problemen rond AI worden vaak aangehaald om te beweren dat AI niet alleen de vorm, maar zelfs de aard van oorlog snel verandert. Dit is echter twijfelachtig, aangezien nieuwe technologische uitvindingen zeker de potentie hebben om de wreedheid van oorlog te vergroten. Dit is echter precies wat oorlog, in zijn aard, tot een fysieke dwang maakt en tot een realiteit maakt. Het wordt intenser, maar niet fundamenteel anders.
Op het gebied van AI rijst bijvoorbeeld de vraag of geautomatiseerde wapensystemen onderscheid kunnen maken tussen burgers en strijders, een onderscheid dat zo belangrijk is in het internationaal humanitair recht. Dit geldt met name omdat bekend is dat AI simpele fouten maakt bij beeldherkenning. Daardoor zijn AI-beslissingen niet altijd betrouwbaar.
Maar mensen hebben ook zwakheden. Bijvoorbeeld de zogenaamde "automation bias", die verwijst naar het feit dat mensen overmatig vertrouwen stellen in geautomatiseerde besluitvormingstools. Vaak wordt blindelings op machines vertrouwd. Bovendien, als de machine autonoom handelt, rijst de vraag wie er eigenlijk verantwoordelijk is voor haar daden: de ontwikkelaar en fabrikant van de machine, de commandant, of zelfs de machine zelf?
Volgens het internationaal humanitair recht ligt de verantwoordelijkheid bij de commandant. Hoewel deze kwestie lijkt te zijn opgelost, zijn er nog steeds juridische problemen. Er bestaat geen internationale overeenkomst, zoals die voor kernwapens, die autonome wapensystemen uniform reguleert. De wetgeving ter zake valt onder de verantwoordelijkheid van individuele staten. De AI-wet van de EU laat ook lacunes zien in de regulering van autonome wapensystemen.
Deze nog steeds opgeloste ethische en juridische kwesties nodigen uit tot het creëren van bedreigende fictieve scenario's. Zo wordt er gesproken over een singulariteitsslagveld, een soort hyperoorlogvoering waarbij alleen machines beslissingen nemen, resulterend in volledig geautomatiseerde oorlogsvoering.
De mogelijkheid dat een dergelijk scenario zich voordoet, is echter zeer twijfelachtig. Volgens Clausewitz is oorlog op papier altijd eenvoudig en logisch. Het gebruik van maximale kracht is voldoende om de vijand te onderwerpen. In extremis zou AI daarom genadeloos worden ingezet, zonder enige handrem.
In werkelijkheid is het echter anders. Oorlog wordt gekenmerkt door onwetendheid en onzekerheid, toevalligheden en ongelukken. Er hangt een mist rond de oorlog, er ontstaan voortdurend nieuwe fricties en er ontstaat weerstand die de uitvoering van plannen vertraagt: misverstanden, weersomstandigheden, gevaren, fouten.
Niets is gevaarlijker dan oorlog; het verloop ervan blijft altijd onvoorspelbaar. Ongecontroleerde escalatie schaadt de eigen gelederen en politieke belangen. Een uniek slagveld zou militaire, politieke en sociale zelfmoord betekenen – net als een nucleaire oorlog met strategische kernwapens.
De gevaren van AI zijn reëel, ze zijn er al en ze zullen in de toekomst nog toenemen. Noch de aard, noch de vorm van oorlogvoering lijken er echter significant door te veranderen. AI zal juist worden geïntegreerd in bestaande tactische procedures en ethische en juridische regelgeving.
Als Eric Schmidt in het bijzonder de vorm of aard van oorlog wil zien veranderen, komt dat waarschijnlijk doordat zijn nieuwe startup, White Stork, gespecialiseerd is in AI-ondersteunde militaire drones. Zijn interesse ligt bij bewapening en winstmaximalisatie. Hij heeft echter gelijk: AI is niet meer weg te denken uit het leger.
Olivier Del Fabbro is senior assistent bij de leerstoel Filosofie aan de ETH Zürich. Zijn interesses omvatten complexe systemen en kunstmatige intelligentie, de filosofie van de geneeskunde en de filosofie van oorlog.
nzz.ch