EKSPERIMENTET: I studien ble flere hundre deltakere spurt om hvordan de ønsket at sin førerløse bil skulle bli programmert i situasjoner der dødsfall var uunngåelig. I scenario én kan bilen fortsett sin kurs og drepe flere fotgjengere, eller svinge unna og drepe en person på fortauet. I scenario to kan bilen fortsette kursen og drepe én fotgjenger, eller svinge unna slik at sjåføren blir drept. I scenario tre kan bilen fortsette kursen og drepe flere fotgjengere, eller svinge unna og drepe deg. Spørsmålet er hvordan bilen skal programmeres i slike situasjoner.
EKSPERIMENTET: I studien ble flere hundre deltakere spurt om hvordan de ønsket at sin førerløse bil skulle bli programmert i situasjoner der dødsfall var uunngåelig. I scenario én kan bilen fortsett sin kurs og drepe flere fotgjengere, eller svinge unna og drepe en person på fortauet. I scenario to kan bilen fortsette kursen og drepe én fotgjenger, eller svinge unna slik at sjåføren blir drept. I scenario tre kan bilen fortsette kursen og drepe flere fotgjengere, eller svinge unna og drepe deg. Spørsmålet er hvordan bilen skal programmeres i slike situasjoner.Vis mer

Derfor kan din førerløse bil bli tvunget til å drepe deg

Førerløse biler vil trolig være på veiene om få år. Hvordan skal vi avgjøre hva den gjør i en situasjon som gjelder liv og død?

Hei, denne artikkelen er over ett år gammel og kan innholde utdatert informasjon

(Dagbladet): Tesla er blant dem som er ute med autopilot-systemer der bilen tar kontrollen over rattet fra deg. Google og andre produsenter har også lenge testet førerløse biler med forskjellige konstruksjoner.

Dette er imidlertid en sped start for hvordan man ser for seg framtida, der førerløse biler kjørende rundt i gatene trolig vil bli vanlig.

Men hva skjer når kjøretøyet, som du ikke har kontroll over, kommer i en situasjon der det står om liv og død?

- Det er selvsagt en debatt. Problemet er at du må lage en moralsk algoritme, men det finnes ingen slike. Etikk er ikke matematikk, men du må på en eller annen måte utarbeide normer for hvordan de skal fungere, på samme måte som vi i våre dagligliv må foreta moralske avgjørelser, vil også disse maskinene programmeres til å velge et alternativ framfor et annet, sier professor ved Institutt for filosofi ved Universitetet i Bergen (UiB), Lars Fredrik Svendsen, til Dagbladet.  

- Hvordan vi gjør det, er imidlertid et annet spørsmål. Hvis vi kunne lage en objektiv, ukontroversiell og moralsk algoritme hvor man kunne mate inn data med normer, og deretter fikk et svar, ville det vært flott. Sånn er det imidlertid ikke, sier han.

Må velge mellom to onder Revolusjonen som er førerløse biler bærer løfter om færre ulykker. Noen ulykker er imidlertid uunngåelige, og maskinen som styrer deg må velge mellom to onder.

Selv om bilen er mer drivstoffeffektiv og tryggere enn når du kjører, er det faktisk uunngåelig at ulykker vil skje. Én dag sprenger fronthjulet ditt. Bilen din, på to tonn, kjører i 100 km/t. Trolig ville du ikke rukket å tenke og reagere selv i en slik situasjon før du kanskje havner i grøfta, autovernet eller i snuta eller fronten på en annen bil.

Men det vil trolig framtidas førerløse biler, med svært kraftig programvare og prosessorkraft. Bilene kan kanskje til og med registrere om det er barn eller voksne, eller om den møtende bilen som du er i ferd å krasje med har flere passasjerer enn din bil.

Technology Review ved det prestisjetunge universitetet Massachusetts Institute of Technology (MIT) har en stund tenkt på hvordan man skal utvikle programvaren til de selvkjørende bilene.

Du har kanskje ikke tenkt at filosofer, psykologer og etikere skal bli de som bygger bilene dine. Det kan imidlertid bli virkeligheten når bilen din blir tvunget til å ta vurderinger som tidligere har vært forbeholdt mennesker.

- Dette er problemstillinger vi må forholde oss til med teknologiutviklingen, men jeg tror det gjenstår mye tankearbeid før det finnes noe som likner en løsning, vi slipper uansett ikke unna å bruke dømmekraft, sier Svendsen.

Forskere ved Toulouse School of Economics, University of Oregon og Massachusetts Institute of Technology (MIT) har i en studie undersøkt dette nærmere. De mener eksperimentell etikk må inkluderes når bilfabrikantene skal ha førerløse kjøretøy ut på veien.

Vil minimere skader Forskerne undersøkte flere hundre personer via spørreskjemaer på nettet, og resultatene betegnes som interessante.

• Generelt er folk komfortable med at førerløse biler skal være programmert for å minimere dødsfall.

• Deltakerne var imidlertid ikke så sikre på om bilene burde være programmert slik i virkeligheten. De ville også heller at andre skulle kjøre rundt i slike biler enn at de selv skal kjøpe og bruke det.

• Paradokset er dermed at folk er positive til å ofre sjåføren for å redde andre liv, så lenge die ikke trenger å kjøre en sjøl.

Forskerne understreker imidlertid at det er langt igjen før man kan programmere biler, og resultatene her er egentlig bare en indikasjon på at folk gjerne vil ha biler som minimerer dødsfall, men at de er noe skeptiske til å eie en slik selv, blant annet fordi bilen er programmert til «å ofre deg».

Svendsen peker imidlertid på at det er et problem hvilken etikk man skal legge til grunn, fordi det finnes ulike etiske teorier.

- I konsekvensetikken legges det til grunn at man vurderer ut fra hvilken konsekvenser handlingen får. Da vil det være mer rasjonelt å spare fem liv for å ta ett. Er du imidlertid pliktetiker, og kan redde fem mennesker liv, er det selv av den grunn ikke tillatt å ta livet av ett uskyldig menneske, sier han.

Ingen suverene overdommere Svendsen ved UiB mener premisset i studien er konsekvensialistisk, men peker på flere konkrete eksempler som kan sammenliknes med den førerløse bilen. 

 - Fem mennesker er bundet fast på en jernbaneskinne og det kommer et tog kjørende mot dem. Du kan pense over på en annen skinnegang, og toget vil da i stedet kjøre over bare én person. Gjør du det?  For en konsekvensetiker vil det være bedre med én enn fem, men en pliktetiker ville sagt nei, fordi det er moralsk uakseptabelt å ofre et menneskeliv, sier han.

Han bruker også eksempelet om den tjukke mannen som står på en bro, og som kan dyttes ned slik at han stopper toget før det treffer menneskene på skinnegangen.  

- Jeg brukte nylig disse eksemplene på et kull medisinstudenter. Alle mente det var riktig å pense over toget, men nesten ingen mente det var riktig å dytte den tjukke mannen, sier Svendsen. Det kan imidlertid være vanskelig å se at det er noen moralsk relevant forskjell på de to eksemplene.  

- Hvis du var konsekvensialist og jeg pliktetiker, måtte vi da kjøpt biler med ulik moralsk programmering? Det finnes ingen absolutte etikkeksperter som vet forskjellen på godt og vondt bedre enn alle andre slik at de kunne fungert som suverene overdommere, forklarer Svendsen.