AUTONOME VÅPEN: En kampanjefilm laget av mostandere av autonome våpen viser hvordan «drapsdroner» kan bli brukt til å drepe folk ved å bruke ansiktsgjenkjenning. Forskningsleder ved Forsvarets forskningsinstitutt, Andre Pettersen, sier til Dagbladet at hel-automatiske «drapsroboter»fortsatt er et stykke unna å eksistere. Video: Future of life Vis mer

Den lille drapsdronen penetrerer skallen på sitt offer - så smeller det!

Forskere krever forbud mot «drapsroboter»

(Dagbladet): Droner har i flere år blitt brukt i krigføring, blant annet av USA. Men der dronene må styres av et menneske, finnes det nå teknologi til å lage såkalte autonome våpen, som ofte har blitt omtalt som «drapsroboter».

I en kampanjefilm, laget av motstandere av denne typen våpen, vises det hva som kan være framtida. Spesielt dersom autonome våpen utvikles og havner i gale hender.

- Ikke science fiction

«Drapsroboter» som flyr inn i klasserom, i en sverm, og dreper studenter, eller flyr på gata og henretter politikere. Ifølge kampanjefilmen vil de autonome våpnene kunne bli sendt inn i en by og «ta ut» halve byen. «Den slemme halvdelen».

- Teknologien som er illustrert i filmen er rett og slett bare en integrasjon av eksisterende muligheter. Dette er ikke science fiction. Det er faktisk enklere å få til enn å lage selvkjørende biler, som krever en mye høyere prestasjonsstandard, sier Stuart Russel, som forsker på kunstig intelligens ved Berkeley, ifølge The Guardian.

Det som altså skiller autonome våpen fra konvensjonelle droner, er at de kan operere på egen hånd. Altså, man vil kunne programmere dem til å kjenne igjen fienden, og angripe.

En drapsrobot utstyres altså med muligheten til å bestemme hvem den dreper.

Allerede her mener mange at man krysser en etisk grense, ved å gi kunstig intelligens makta til å bestemme over hvem som skal få leve og ikke.

- Å fortsette utviklingen av dødelige autonome våpen vil drastisk redusere internasjonal, nasjonal, lokal og personlig sikkerhet, sier Russel.

Motstandere av autonome våpen peker også på hvor farlig det er om våpnene havner i gale hender.

- Vi er ikke der i dag

Forskningsleder ved Forsvarets forskningsinstitutt, Andre Pettersen, sier at debatten om autonome våpen er litt vrien, fordi det ikke finnes noen klar definisjon for hva autonomi er. Og fordi automatiske og autonome våpen ofte blandes sammen.

- Det automatiske våpenet er preprogrammert til å håndtere ulike hendelser på en viss måte. Autonome kan håndtere uforutsette hendelser, og vi kan til og med snakke om systemer som er i stand til å lære, men de systemene er nok langt fram i tid, sier Pettersen til Dagbladet.

Forskeren peker på at allerede i dag kan våpen finne målet sitt selv.

- Et våpensystem kan finne en tanks og en båt. Det får du til i dag. Men det å si at et system er helt autonomt, og selv vurderer hva som er trusler og ikke, før det begynner å angripe det våpenet selv mener er riktig; der er vi ikke i det hele tatt, sier Pettersen.

Systemer som kan detektere alle soldater i et område og skyte dem «er ikke så langt unna», ifølge Pettersen. Men:

- Da har de fått beskjed om at de skal gjøre det, også finner de målene og tar de ut, uten at de er selvtenkende og gjør krumspring du ikke har kontroll over, sier Pettersen.

Dessuten handler forbudsdiskusjonen om hvordan nasjoner skal forholde seg til våpnene, sier FFI-forskeren.

- Når teknologien blir så lett tilgjengelig, så kan for eksempel terroristorganisasjoner lage våpnene selv, selv om de ikke er en stat. Det krever ikke så mye kunnskap, det blir noe de kan lage uansett hva man gjør. Du klarer ikke begrense det. Diskusjonen om forbud handler egentlig om nasjoners krigføring, sier Pettersen.

Når er mennesket tilstrekkelig involvert?

Han peker på det han mener er en langt mer interessant debatt. Ifølge Genèvekonvensjonen skal det nemlig være «tilstrekkelige menneskelige beslutninger» når man ska ta liv. Spørsmålet er da:

Når er mennesket i tilstrekkelig grad involvert i avgjørelsen om å drepe noen?

- Da kan det være alt fra at det må være et menneske som trykker på en knapp, til at det er ok å sende inn et system i et område. Vi vet at det er bare fiendtlige tanks der, og våpenet kommer ikke til å treffe noe annet. Er det da ok at våpenet får velge mål selv? spør Pettersen.

Han mener også det er mer relevant å diskutere når det er greit å bruke ulike våpen, i stedet for å forby.

Pettersen eksemplifiserer ved å skissere opp to scenarioer, som man kan støte på allerede i dag.

Man kan se for seg at man har bestemt seg for å skyte et missil mot en tanks i ørkenen. Det finnes ikke noe annet i nærheten, og man programmerer missilet til å treffe tanksen og sender det inn for å ta ut målet.

- Da har du vurdert om det vil føre til utilsiktet skade og hva som kan skje, sier Pettersen.

Dette vil være en relativt ukontroversiell måte å bruke våpenet på.

Skulle man derimot bruke akkurat det samme våpenet for å ta ut en bil midt i en by med sivile, stiller det seg annerledes.

- Det er akkurat det samme våpenet, men du må vurdere konsekvensen. Det er hvordan du bruker autonome våpen som skal vurderes. Bruker du det der og der, så er det over grensen. I andre situasjoner kan det vise seg å være ok. Det vil være lettere å vurdere det enn å si at en teknologi er ulovlig, sier Pettersen.

Eksperter ønsker forbud

Men mange ønsker altså et forbud. I august gikk mer enn 100 av verdens ledende eksperter på robotikk og kunstig intelligens ut og krevde et forbud mot utvikling og bruk av drapsroboter. Blant dem som skrev under på det åpne brevet var Tesla-sjef, Elon Musk.

I brevet sier ekspertene at et forbud er påkrevet for å forhindre «en tredje revolusjon innen krigføring», etter krutt og atomvåpen. 19 land har så langt tatt til orde for et forbud, blant dem Argentina, Egypt og Pakistan.

En som lenge har advart mot farene ved autonome våpen, er Noel Sharkey ved Sheffield University. Han sier at filmen, som du kan se utdrag av øverst i saken, fikk hårene hans til å reise seg.

- Det er et voksende våpenkappløp blant de høyteknologiske nasjonene for å utvikle autonome ubåter, jagerfly, krigsskip og tankser, som kan finne sine egne mål og bruke voldelig kraft uten at det er menneskelige beslutninger involvert. Alt som skal til er en stor krig, så vil disse våpnene slippes fri med tragiske humanitære konsekvenser og destabilisere den globale sikkerheten, sier Sharkey.