AI is de killer-app in Gaza en Oekraïne

In de hightech-oorlog speelt AI een twijfelachtige hoofdrol. Kunstmatige intelligentie helpt om doelwitten te selecteren en sneller toe te slaan, waarbij het hoge aantal onschuldige slachtoffers voor lief wordt genomen.

Animatie Roel Venderbosch

Terwijl de wereld zich vergaapt aan ChatGPT en andere generatieve AI die tekst en plaatjes kan bedenken, gebruiken militairen dezelfde soort AI-modellen voor oorlogsvoering.

Je zou dit destructieve AI kunnen noemen: kunstmatige intelligentie die niet creëert maar vernietigt. Denk aan drones die zelf doelwitten zoeken, grootschalige verwerking van live data op en om het front, geweren die (bijna) vanzelf schieten of piloten die een stel onbemande vliegtuigen mee op sleeptouw nemen, als gehoorzame wingmen die nooit vragen stellen.

Door digitalisering van wapens verandert het slagveld in een efficiencyslag: wie heeft de slimste en de meest accurate algoritmes? Gaza en Oekraïne, de twee gewapende conflicten waarbij tienduizenden slachtoffers vallen, zijn hightech-oorlogen waarin technologiebedrijven en militaire organisaties experimenteren met nieuwe AI-toepassingen. In Oekraïne selecteren drones zelf hun doel, vertrouwend op herkenning aan de hand van een voorgeprogrammeerde lijst met militaire objecten. En door met AI data van sociale media te analyseren kunnen de Oekraïners zwakke plekken in het Russische leger vinden.

De wereld beleeft dankzij AI opnieuw een ‘Oppenheimer-moment’, denkt Alex Karp, de topman van Palantir. Hij was vorig jaar nog in Den Haag op een conferentie over ‘verantwoord AI-gebruik in het militaire domein’. Zijn bedrijf ontwikkelt software voor onder meer opsporingsdiensten en militaire organisaties. Palantir gebruikt de Oekraïense oorlog om de algoritmes na vijf jaar ontwikkeling uit te proberen en te finetunen aan het front. „Je kunt deze dingen niet in een lab bouwen, je hebt ervaring op het slagveld nodig”, aldus Karp. Hij is te herkennen aan zijn kruidige uitspraken en karakteristieke krullen, zorgvuldig gestileerd alsof er net iets in zijn handen ontploft is.

Met zijn verwijzing naar Oppenheimer, de Amerikaanse natuurkundige die de atoombom hielp ontwikkelen, stelt Karp de macht van AI-systemen gelijk met de slagkracht van een kernwapen. Hoe hightech het ook klinkt, AI-wapens zijn geen waarborg voor een schone of efficiënte oorlog. Het is de schaalvergroting van dood en verderf.

Lavender

Het morele dieptepunt van wapensystemen met AI lijkt de software die het Israëlische leger zou gebruiken om Hamasstrijders uit te schakelen in de Gazastrook. Volgens het Israëlische opinietijdschrift +927 Magazine maakte het Israëlische leger tijdens de eerste maand van de oorlog volop gebruik van een programma dat potentiële doelwitten aanwijst. Na een check door een menselijke beoordelaar worden de doelwitten vervolgens gebombardeerd. Een door The Guardian geciteerde officier vergeleek het met ‘stempelwerk’, waarbij hij binnen twintig seconden moest beslissen of een aanval terecht was. Doorslaggevend was daarbij vaak of het doelwit een man of een vrouw was.

Met Lavender, zoals dit systeem genoemd wordt, kon Israël vijftienduizend doelen bombarderen in 35 dagen tijd; bij eerdere conflicten ging het om vijftig doelen per jaar. Volgens het artikel gebruikte IDF, het Israëlische leger, nog een programma, met de bijnaam ‘Where’s Daddy?’. Deze software zou 37.000 doelwitten volgen en signaleren wanneer ze thuis bij hun gezin kwamen. Dat was het teken dat er een bom op hen afgevuurd kon worden.

De rekensommetjes zijn simpel en gruwelijk. In de regel zouden vijftien tot twintig burgerslachtoffers worden gemaakt voor elke minder belangrijke Hamasstrijder. Voor een tegenstander met een hogere rang zouden tot honderd onschuldige slachtoffers gerechtvaardigd zijn. Deze ‘geautomatiseerde moordfabriek’ zou een accuratesse hebben van 90 procent – één op de tien doelwitten staat dus onterecht op de dodenlijst.

IDF ontkent het bestaan van het systeem niet, maar noemt het een „database met up-to-date informatielagen, die als hulpmiddel dient om doelwitten te identificeren”. „Elke aanval wordt eerst beoordeeld op proportionaliteit”, reageerde IDF. Volgens het leger is er „geen beleid om tienduizenden mensen in hun huizen te vermoorden”.

Doping

Het verslag van +927 en The Guardian is gebaseerd op anonieme bronnen en kan niet geverifieerd worden. Maar volgens Jessica Dorsey past de methodiek in de strategie die het Israëlische leger al enkele jaren toepast. Dorsey is assistent professor aan de Universiteit Utrecht en doet onderzoek naar onbemande wapensystemen. „AI heeft op het slagveld hetzelfde effect als de manier waarop we kunstmatige intelligentie in het dagelijks leven gebruiken: het verhoogt de reactiesnelheid en de schaalgrootte.”

Dorsey omschrijft AI als ‘doping’, als een middel om menselijke vermogens te versterken. „We kunnen de toevloed aan informatie zelf niet verwerken met onze eigen cognitieve vaardigheden en besteden de dataverwerking uit aan machines. Het nadeel van de AI-systemen is dat er een ‘input’ en een ‘output’ is, maar je hebt geen flauw idee wat daartussenin gebeurt.”

Als mens is het moeilijk om je te verzetten tegen de beslissingen van een computer die toegang heeft tot meer data dan je zelf kunt bevatten. Die automation bias zit erin gebakken: ‘we’ hechten van nature veel waarde aan geautomatiseerde systemen, of het nou de aanwijzingen van een navigatie-app zijn of de suggesties van Netflix. In plaats van argwaan overheerst blind vertrouwen. Zelfs bij een geautomatiseerde dodenlijst die zo snel en op zo’n grote schaal wordt toegepast.

Geen terminator

Onnauwkeurige software is dodelijk in de dichtbevolkte Gazastrook (2,1 miljoen mensen op 365 vierkante kilometer). Ter vergelijking: als je alle inwoners van Utrecht en Den Haag naar Rotterdam en Amsterdam verhuist, wonen er 2,3 miljoen mensen op 370 vierkante kilometer. Stel je vervolgens voor dat ze elke dag bestookt worden met een dagelijkse regen raketten. „Wat ik zo triest vind, is dat er altijd iets vreselijks moet gebeuren voordat we iets gaan reguleren”, zegt Dorsey. Over AI voor defensieve taken is weinig tot geen discussie: de luchtafweersystemen zitten bomvol AI-techniek die helpt levens te redden. Het gevaar zit ’m in de offensieve toepassingen. Net zoals er afspraken zijn over biologische en chemische wapens, moeten ook AI-wapens gereguleerd worden.

Tot nu toe was de aandacht van bijvoorbeeld de Verenigde Naties vooral gericht op volledig autonome wapensystemen. Dorsey: „Gebruik alsjeblieft niet het woord ‘terminator’, want zoiets wil niemand.” De sciencefiction-clichés leiden volgens haar de aandacht af van het echte probleem: er zijn geen regels voor de militaire beslissystemen, er is geen zicht op wezenlijke, grondige menselijke beoordeling. Na de komst van ChatGPT haastten politici zich om AI in het dagelijks leven te reguleren. Maar nu is het tijd om de echte killer-apps te beteugelen.