Skip to ContentSkip to Navigation
Over ons Actueel Nieuws Nieuwsberichten

Gebruik van kunstmatige intelligentie in oorlogen

04 oktober 2022

De mogelijkheden van kunstmatige intelligentie (AI) ontwikkelen zich snel en hebben invloed op bijna alle, zo niet alle sectoren van de samenleving. We zijn min of meer gewend aan de civiele toepassingen van AI, zoals beeldherkenning om smartphones te ontgrendelen, spraakassistenten die ons vertellen wat voor weer het is, of het nieuwe Instagramfilter dat je vriend zojuist heeft gebruikt. Deze systemen zijn echter ook geïmplementeerd in toepassingen die velen van ons minder goed kennen. Bijvoorbeeld militaire. Taís Fernanda Blauth onderzoekt de juridische aspecten van deze toepassingen. Ze geeft een korte beschrijving van kwesties rondom autonome wapens.

Tekst: Taís Fernanda Blauth, fotografie: Henk Veenstra

Taís Fernanda Blauth
Taís Fernanda Blauth

Op AI gebaseerde of door AI mogelijk gemaakte wapens zijn niet de futuristische robots die je misschien maar al te goed kent als je van science fiction houdt (moest je ook denken aan The Terminator?), maar de risico's die gepaard gaan met het gebruik van AI in oorlogen kunnen wel grote schade aanrichten en ingrijpende ethische, juridische en sociaal-politieke gevolgen hebben.

AI in wapens

Technologische ontwikkelingen worden niet alleen gebruikt in hardware en apparatuur die we in ons dagelijks leven gebruiken. Ze zijn in de loop der geschiedenis ook voortdurend toegepast in wapens en ander oorlogstuig. Hetzelfde geldt voor AI- technieken. In veel systemen wordt tot op zekere hoogte al gebruikgemaakt van AI maar velen zien de ontwikkeling en invoering van volautomatische wapensystemen, ook wel bekend als ‘Lethal Autonomous Weapons Systems’ (LAWS), als de volgende belangrijke stap.

Wat zijn LAWS?

LAWS zijn systemen die, eenmaal geactiveerd, doelen kunnen traceren, identificeren en aanvallen zonder verder menselijk handelen. Het woord ‘autonoom’ in deze term is niet ideaal, aangezien AI-systemen geen moreel besef hebben. Bovendien hebben deze algoritmen grote hoeveelheden data nodig, en moeten de modellen uitgebreid worden getraind om aan de wensen te voldoen. Maar dit is de bekendste term, die ook wordt gebruikt in de discussies over dit onderwerp in VN-verband.

Autonomie in wapens

AI-technieken worden al geruime tijd ingebouwd in wapensystemen, en er zijn al enkele halfautomatische systemen in gebruik. Er zijn verschillende niveaus van autonomie in wapens. Dit is al decennialang zo. Een voorbeeld is het ‘Close-in Weapons System’ (CIWS), veel gebruikt in de luchtafweer. Daarmee worden met behulp van radartechnieken bedreigingen geïdentificeerd en getraceerd. Zodra er een bedreiging wordt waargenomen, kan een computergestuurd afvuursysteem deze selecteren en zelfstandig aanvallen. Een bekend voorbeeld van een CIWS is de Nederlandse ‘GoalKeeper’. Dit type systeem wordt speciaal ingezet om een bepaald gebied te verdedigen en werkt alleen in eenvoudige, gestructureerde omgevingen. Hoewel ze ook zouden kunnen worden beschouwd als autonome wapens, zijn de inzetmogelijkheden en toepassingen ervan beperkt.

Blauth: Dit is een van de uitdagingen van LAWS: het is moeilijk te controleren wanneer er autonoom, zonder menselijk toezicht, een wapen is gebruikt.
Blauth: Dit is een van de uitdagingen van LAWS: het is moeilijk te controleren wanneer er autonoom, zonder menselijk toezicht, een wapen is gebruikt.

Bestaan er al LAWS?

Tot voor kort was er geen openbare informatie beschikbaar over het offensieve gebruik van autonome wapens. In maart 2021 heeft de VN een rapport gepubliceerd waarin wordt gesuggereerd dat er in 2020, in Libië een luchtaanval met een drone is uitgevoerd, met behulp van een autonoom wapen zonder menselijk toezicht. Dit is een van de uitdagingen van LAWS: het is moeilijk te controleren wanneer er autonoom, zonder menselijk toezicht, een wapen is gebruikt.

Zouden robots mogen doden?

Zoals eerder gezegd, heeft een AI-systeem geen moreel besef, waardoor het dus ook niet in staat is mensen te begrijpen en te zien als morele personen. Wanneer er in een oorlog een autonoom wapen wordt ingezet, is het niet in staat de waarde van het leven, ook die van de ‘doelen’ die het voor zich heeft, te overdenken en te bevatten. Mensen worden gereduceerd tot eenvoudige gegevens, mogelijke doelen die moeten worden uitgeschakeld. Algoritmen kunnen buitengewone dingen doen, maar slagvelden zijn complexe omgevingen die een hoog niveau van morele en ethische afwegingen vereisen. Aangezien dergelijke wapens zouden worden ingezet in ingewikkelde en onvoorziene scenario’s, is het dan wel of niet aanvaardbaar om machines te laten beslissen wie al dan niet moet worden gedood? Dit is een van de fundamentele vragen die om een antwoord vragen en waarover uitgebreid moet worden gesproken.

Grote bezorgdheid

Er heerst grote bezorgdheid over de ontwikkeling en het gebruik van deze wapens. In 2013 is het initiatief “Campaign to Stop Killer Robots” gelanceerd, een coalitie van non- gouvernementele organisaties die pleiten voor een verbod op LAWS. Later, in 2015, hebben AI-experts, robotici en vooraanstaande personen uit het bedrijfsleven een open brief onderschreven, waarin ook werd opgeroepen tot een verbod op dergelijke autonome wapens.

Regulering van LAWS

Verschillende non-gouvernementele organisaties, de burgermaatschappij, regeringsvertegenwoordigers en brancheleden hebben gewezen op het belang van regulering van LAWS. Sommigen zien een compleet verbod als de beste aanpak, met het oog op de risico's. Anderen betogen dat er op zijn minst een vereiste moet zijn voor voldoende menselijke controle bij de inzet van deze wapens. Momenteel wordt het onderwerp in VN-verband door de regeringen bestudeerd. Staten die partij zijn bij het Verdrag inzake conventionele wapens (CCW) hebben van 2014 tot 2016 jaarlijks onderhandelingen gevoerd, en hebben besloten een groep van overheidsexperts in te stellen. De groep komt sinds 2017 bijeen. Tot op heden is er echter nog geen overeenstemming bereikt en is er dus ook nog geen regelgeving vastgesteld.

Blauth: In mijn promotieonderzoek analyseer ik juridische aspecten van het gebruik van AI in militaire toepassingen, waaronder kwesties betreffende het Internationaal Humanitair Recht
Blauth: In mijn promotieonderzoek analyseer ik juridische aspecten van het gebruik van AI in militaire toepassingen, waaronder kwesties betreffende het Internationaal Humanitair Recht

Wat is de bijdrage van mijn onderzoek aan dit onderwerp?

In mijn promotieonderzoek analyseer ik juridische aspecten van het gebruik van AI in militaire toepassingen, waaronder kwesties betreffende het Internationaal Humanitair Recht (IHR). Meer specifiek bespreek ik de toepasbaarheid van de IHR-beginselen proportionaliteit en discriminatie. Ook beoordeel ik de ethische aspecten van LAWS om belangrijke, fundamentele vragen betreffende het gebruik van deze wapens te bespreken. Een diepgaand inzicht in deze aspecten is essentieel om de mogelijkheden voor regulering op dit gebied te beoordelen. Aangezien ik mijn promotieonderzoek doe aan een interdisciplinaire faculteit, Campus Fryslân, kan ik mijn achtergrond op het gebied van rechten en internationaal beleid combineren met mijn onderzoek.

Meer info

Dit artikel is tot stand gekomen in samenwerking met MindMint.

Laatst gewijzigd:04 oktober 2022 09:35
View this page in: English

Meer nieuws