AUTONOME VÅPEN: En kampanjefilm laget av mostandere av autonome våpen viser hvordan «drapsdroner» kan bli brukt til å drepe folk ved å bruke ansiktsgjenkjenning. Forskningsleder ved Forsvarets forskningsinstitutt, Andre Pettersen, sier til Dagbladet at hel-automatiske «drapsroboter»fortsatt er et stykke unna å eksistere. Video: Future of life Vis mer

Rekrutteres til å utvikle «drapsroboter»

Kina har plukket ut 31 av landets smarteste tenåringer til et studieprogram som skal lære dem å utvikle autonome våpen. Det får amerikanske forskere til å reagere.

I fjor advarte Tesla-sjef Elon Musk mot autonome våpen, altså selvtenkende våpen - også omtalt som drapsroboter. Han mente blant annet at framtidas våpenteknologi kan løpe fra oss.

Nå har Kina plukket ut 31 av sine smarteste tenåringer til å delta i et studieprogram som skal lære dem å utvikle våpen for det kinesiske militæret ved hjelp av kunstig intelligens.

- Disse tenåringene er eksepsjonelt smarte, men det er ikke nok. Vi ser etter andre kvalifikasjoner når vi støter på utfordringer: Lidenskap for å utvikle våpen er et krav, og de må også være patrioter, sier en ikke navngitt professor ved universitetet til South China Morning Post.

Bekymring i USA

Blant 5000 søkere ble 27 gutter og fire jenter under 18 år plukket ut til å det fireårige studieprogrammet ved Beijing Institute of Technology (BIT), som går under navnet «eksperimentelt program for intelligente våpensystemer», skriver skolen på sine hjemmesider.

BIT har et av landets beste forskningsinstitutter for militære våpen, og lanseringen av det nye prestisjestudiet vitner om landets begjær til å utnytte kunstig intelligens til våpenutvikling - noe som også har skapt bekymring i USA.

I februar omtalte Dagbladet at Kina har rullet ut en rekke høyteknologiske våpen som eksperter mener kan true USAs rolle som verdensledende på feltet.

- USA er ikke lenger dominant innen militærteknologi. Og Kina vokser raskt fram som en supermakt innen vitenskap og teknologi, sa Elsa B. Kania til amerikanske NBC News. Hun er stipendiat i tankesmia Center for a New American Security.

FATTIGMANNENS ATOMBOMBE: til tross for å ikke være like ødeleggende som atombomber, er kjemiske bomber fremdeles meget effektive. Se historien bak de dødelige våpenet som har tatt livet av flere sivile i Syria. Vis mer

Optimistiske Kina

Hver og en student vil følges opp av to erfarne våpenforskere, én med akademisk bakgrunn og én med bakgrunn fra våpenindustrien, ifølge beskrivelsen av programmet.

Etter at studentene har fullført det fireårige studieprogrammet, er de forventet å ta en doktorgrad - for så å lede utviklingen av framtidas våpen.

- Vi gjør noe ingen andre har gjort før oss, sier studentrepresentant ved skolen, Cui Liyuan.

Men til tross for at kineserne uttrykker stor optimisme for programmet, tas ikke nyheten like godt imot av amerikanske forskere.

- Dette er det første universitetsstudiet i verden som er designet til å aggressivt og strategisk oppmuntre den neste generasjonen til å tenke, designe og distribuere kunstig intelligens for militær forskning og bruk, sier professor innen cyberteknologi ved United Nations University, Eleonore Pauwels, ifølge Politico.

Det skal også nevnes at USA har hatt liknende studieprogrammer, men i motsetning til Kina skal disse studiene ha vært for etablerte forskere - ikke tenåringer.

- Dette konseptet er både ekstremt kraftig og problematisk, sier Pauwels.

Advarsel

Nevnte Musk var en av 116 spesialister fra 26 forskjellige land som advarte mot utviklingen av automatiserte våpen i et åpent brev til FN i fjor. Utviklerne ønsket å forby robotvåpen blant annet fordi de vil kunne hackes og slik skape stor skade.

- Når de først er utviklet, vil dødelige automatiske våpen muliggjøre væpnede konflikter på en skala vi aldri har sett før og raskere enn folk kan fatte.

- Våpenet kan hackes til å oppføre seg på uønskede måter av blant annet terrorister og tyranner som vil skade uskyldige mennesker, sto det i brevet.

Direktør ved senter for intelligente systemer ved universitetet Berkeley i California, Stuart Russel, omtaler BITs nye studieprogram som «en dårlig idé».

- Maskiner skal ikke tillates å drepe mennesker. Slike våpen kan raskt utvikle seg til å bli brukt til masseødeleggelse. Ikke minst øker det sannsynligheten for at krig bryter ut, sier han ifølge Politico.

I april innrømmet Kina overfor FN at det gjenstår noen diskusjoner før man kan konkludere om hvilke konsekvenser utvikling av autonome våpen kan få.

- Inntil slike diskusjoner har blitt tatt, bør det ikke legges ned forhåndsdefinerte retningslinjer som kan hindre utviklingen av kunstig intelligens, sto det i dokumentet.