Kontroll over “drapsroboter”

Foto: L.C. Nøttaasen

Bevæpnede roboter roboter kan både respektere folkeretten og trenger ikke minke vår kontroll i krig. Bruken er imidlertid betenkelig på andre områder.

Kjetil Holtmon Akø
Om Kjetil Holtmon Akø (1 artikler)
Kjetil Holtmon Akø er Etiker og skribent.

Forrige uke skrev Fredrik Heldal, daglig leder i Norges Fredslag, et innlegg om robotenes inntog i arbeidslivet og på slagmarken. Jeg ønsker i dette innlegget å ta opp to påstander Heldal fremmer: i) roboter vil ikke være i stand til å respektere folkeretten, og ii) økt autonomi i roboter medfører mindre menneskelig kontroll. Selv om jeg avdekker to påstander, så velger jeg behandle de sammen i innlegget fordi de i stor grad er overlappende. Først og fremst, la det være klart at drapsrobotene (et særs uheldig begrep) ikke nødvendigvis må være helautonome, og denne typen uavhengig våpensystem stiller andre krav til etterrettelighet og funksjonalitet enn delautonome systemer.

LES OGSÅ Fredrik Heldals tekst: Politisk kontroll over roboter, men ikke drapsroboter?

Respektløse roboter?
Det er ikke umiddelbart klart akkurat hva Heldal påstår når han skriver at «Det er lite trolig at en drapsrobot vil være i stand til å respektere folkeretten». Det er uklart fordi han ikke forklarer ytterligere akkurat hva han mener her, spesielt siden det i streng forstand kun er mennesket som respekterer lover og regler. Jeg tar meg derfor friheten til å fortolke utsagnet til å bety noe lignende: det er vanskelig å designe og bruke roboter på en slik måte at folkeretten ikke brytes.

Vi kan nå si at det hovedsaklig er to grunner til at folkeretten ikke vil respekteres. Enten så foreligger det slett utforming av roboten eller så er den situasjonsbestemte informasjonen nødvendig for å opprettholde folkeretten, for komplisert for roboten, og den vil handle i strid med folkeretten. Begge grunnene sier at man har designet, produsert, plassert ut og brukt en robot som rett og slett ikke holder mål med tanke på viktige retningslinjer og lover. Jeg har vanskelig for å forestille meg at dette vil forekomme basert på de mange stadiene en slik teknologisk utvikling må gå gjennom, spesielt militær våpenteknologi.

Utvikling av teknologi foregår ofte ved at berørte aktører (med særinteresser) forhandler hva produktet er og hva det skal kunne gjøre. Ettersom det her er snakk om helautonome våpensystemer, det vil si et systemer som handler uten menneskelig inngripen, så kan en forvente at disse forhandlingene i høyeste grad vil ta høyde for å minimere muligheten at retningslinjer og lover brytes. En kan også forvente og forlange at relevante lover og regler i krigføring vil ligge til grunne for et våpensystems handlingsmuligheter – slik som sjakkens regler ligger til grunne for Deep Blue sine trekk.

Et annet viktig poeng å innse er at selv om våpensystemet velger mål og handling, så er det mennesker som har definert hva som er mål og hvilke handlinger som er passende. Det er dermed heller ikke nødvendigvis uklart hvordan ansvarlighet skal fordeles, spesielt ikke med tanke på at militæret har forholdsvis rigide systemer for beslutningsautoritet. Det er også viktig å påpeke at bruken av våpensystem, hvor det på forhånd er vanskelig å fordele ansvar, er i seg selv lite sannsynlig i krigssituasjoner da vi stiller strenge krav til krigføring og plassering av ansvar. Selv om det vil oppstå uforutsette situasjoner, så er det ikke nødvendigvis disse som burde ligge til grunn for behandlingen av tematikken.

LES OGSÅ: Folkerettslig tragisurrealisme — Syria 2016

Ukontrollerbare roboter?
Den andre påstanden Heldal fremmer sier at den økte autonomien som våpensystemene besitter gjør at vi mister kontroll. Det er altså en overføring av kontroll fra oss selv og til teknologien, og det fremsettes nær sagt som om det følger nødvendig av teknologiutviklingen. Forhandlingene mellom aktører i utviklingsprosessen nevnt ovenfor, er en måte man kan beholde kontrollen, og i praksis så betyr dette at ikke alt om teknologiens utvikling er gitt på forhånd. Med andre ord, en slik overføring av kontroll som Heldal fremmer, er ikke noe som hverken må eller skal skje.

Det ble også nevnt ovenfor at selv om våpensystemet velger mål og passende handling, så er kriteriene for disse valgene allerede forutbestemt av oss mennesker. Dette er en annen måte å vise at det ikke nødvendigvis er et tap av kontroll selv om man delegerer handlinger – man har kun kontroll på en annen måte enn tidligere. Dette betyr også at «beslutninger som berører liv og død» til syvende og sist allerede er tatt av de menneskelige aktørene bak maskinen. Med andre ord så beholder vi kontrollen over robotens handlingsmønster gjennom å bestemme hvordan den «oppfører» seg.

Fordeler ved slike våpensystemer?
For å balansere Heldals innlegg ytterligere, spesielt med tanke på at han betegner disse våpensystemene som «drapsroboter», så vil jeg trekke frem noen av de mulige fordelene ved å innføre denne teknologien.

Ronald Arkin, en amerikansk robotiker og robotetiker, har arbeidet mye med utvikling og bruk av militær robotteknologi, med det formål å skape roboter som kan forstå og anvende krigens regler. Han tar selv utgangspunkt i at roboter forhåpentligvis vil gjøre langt færre feil enn det mennesker gjør på slagmarken, og håpet er som sådan en slagmark som minsker unødvendig menneskelig lidelse. Blant annet viser han til en rapport fra Irak-krigen hvor funnene om soldaters holdninger og handlinger ovenfor medsoldater og sivile er mildt sagt bekymringsfulle. For eksempel mente 47% av soldatene at ikke-stridige skulle behandles med respekt og verdighet, mens 17% mente ikke-stridige burde behandles som opprørere. 43% av soldatene var enige i at de ville rapportere medsoldater som hadde skadet eller drept ikke-stridige, mens rundt 10% rapporterte at de endret stridsreglene (rules of engagement). Hva er så fordelene ved å bruke autonome roboter og våpensystemer? Flere hvis vi skal tro Arkin.

Roboter føler ikke nødvendigvis et behov for selv-opprettholdelse, og kan derfor ofres hvis situasjonen krever det. Det innebærer også at man kan tilnærme seg usikre situasjoner uten å måtte risikere menneskeliv. Videre så har ikke maskiner et indre følelsesliv, noe som innebærer at sinne, hat eller stress ikke påvirker avgjørelser og det blir lettere å forholde seg til lover og regler. Roboten kan i tillegg bearbeide en massiv mengde informasjon, mye mer enn et menneske, som kan ytterligere redusere mulighetene for dårlige valg. Til sist, det er ingenting som tilsier at roboter heller ikke kan observere og rapportere uetiske og lovstridige handlinger i felten, og dermed heve den gjennomsnittlige soldatens utførelse av forpliktelser.

Heldal har rett i en rekke ting han tar opp i innlegget sitt, blant annet at det er en rekke juridiske og sosiale spenninger tilknyttet vidstrakt innføring av autonom teknologi. Han har også helt rett i at det er et stort behov for at samfunnsborgere diskuterer disse saksfeltene.

Liker du det du leser?

VIPPS noen kroner til 137267
eller betal direkte til konto 1254.05.88617
Støtt oss med fast bidrag hver måned