DEBATT

Bruken av kunstig innteligens

Vesentlig for likestilling

Kunstig intelligens er et fraværende tema i ombudets saker. Bør vi være bekymret?

BARE TIL HJELP?: Hvor ligger ansvaret for diskriminerende avgjørelser som er fattet av kunstig intelligens? Og hvordan skal vi sikre at de som utvikler teknologien, har kjennskap til diskrimineringslovverket, spør innsenderen. Foto: Shutterstock/NTB
BARE TIL HJELP?: Hvor ligger ansvaret for diskriminerende avgjørelser som er fattet av kunstig intelligens? Og hvordan skal vi sikre at de som utvikler teknologien, har kjennskap til diskrimineringslovverket, spør innsenderen. Foto: Shutterstock/NTB Vis mer
Eksterne kommentarer: Dette er en debattartikkel. Analyse og standpunkt er skribentens egen.
Publisert
Hanne Bjurstrøm

Hanne Bjurstrøm


Vis mer

Teknologien og likestillingen er blant våre to største framskritt. Nå må vi klare å kombinere dem.

I 2017 vakte en video fra en Facebook-ansatt i Nigeria både harme og latter på grunn av en såpedispenser som ikke ble aktivert da han holdt hånda under den. Både denne videoen, og flere som likner, er seinere blitt brukt som argument for at kunstig intelligens bokstavelig talt ikke er tilpasset forskjellige hudfarger. Selv om manglende håndvask er spesielt lite gunstig i disse dager, har vi sett langt mer alvorlige eksempler på at teknologien kan være like mangelfull som menneskene som utvikler den. Vi vet at kunstig intelligens vil bli en sentral brikke i framtidas likestillingsarbeid.

Først og fremst har vi teknologien å takke for mange av framskrittene vi har gjort, noe vår stadig mer heldigitale korona-hverdag har vist. Foruten å være en venn i pandemi-nøden, har kunstig intelligens bidratt til å effektivisere enkle hverdagsoppgaver. Den kan slå oss i sjakk på nettet, og den kan luke ut avvik for å avdekke bankkortsvindel mye raskere og bedre enn noe menneske. Det er en perfekt samarbeidspartner, dersom den brukes riktig.

En fersk rapport fra Kilden kjønnsforskning, som blir lansert under ombudets årskonferanse i slutten av oktober, slår fast at det ikke er forsket mye på kunstig intelligens og likestilling- og diskrimineringsspørsmål i norsk sammenheng. Likevel finner vi nylige eksempler på hva forhåndsprogrammerte systemer kan gjøre, blant annet utregningene som gjorde at norske IB-studenter gikk så mye ned i karakter at de risikerte å miste studieplassen.

Nå pågår det diskusjoner om hvilken rolle kunstig intelligens skal spille i bosettingen av flyktninger i norske kommuner.

I Finland har Esbo kommune eksperimentert med hvordan kunstig intelligens kan brukes for å anslå utviklingen i innbyggernes helsetilstand, og for å identifisere sannsynligheten for at barn vil motta hjelp fra barnevernet. De mente prosjektene var gode, selv om algoritmebruken kunne oppfattes som kontroversiell.

Mønsteret er gjenkjennelig: Justissektoren, helsevesenet, og andre sentrale deler av samfunnet står alle overfor viktige avgjørelser om hvordan kunstig intelligens vil styre måten de jobber på, og hvilke konsekvenser det får for brukerne og deres personvern. Dette arbeidet er viktig.

Er det grunn til bekymring i et norsk diskrimineringsperspektiv? Ikke hvis vi skal tro vår egen empiri. Søk i Likestillings- og diskrimineringsombudets systemer viser at saker om kunstig intelligens kan telles på under fem fingre, og problemet kan derfor virke minimalt. Samtidig ser vi at de få sakene som dukker opp, dreier seg om hvordan informasjon kan skjules for andre.

Kombinasjonen av disse to elementene er interessant, og berører noe av kjernen av kritikken mot utviklingen vi er vitne til. Vi vet at forslagene til neste Netflix- serie gjøres på bakgrunn av tidligere søk, og at mindre sannsynlige forslag holdes borte. Hvis mindre sannsynlige utfall på samme måte resulterer i at høyinntektsjobber bare blir annonsert mot menn, at etnisitet blir vektlagt under utmåling av fengselsstraff, eller at en lånesøknad blir avslått på bakgrunn av postnummer, så har vi et stort problem.

Konkurransehensyn og datasikkerhet blir nevnt som noen årsaker til at det er vanskelig å vite nøyaktig hvordan algoritmene virker. Da blir det enda vanskeligere å vite hvem som blir urettmessig forskjellsbehandlet, spesielt hvis brukere selv ikke vet hva de utsettes for. Det gjør både vårt og andres arbeid mer krevende.

Vi i ombudet ser fram til å arbeide mer med spørsmålene rundt kunstig intelligens framover, men noen av spørsmålene trenger vi myndighetenes hjelp til å svare på. Blant disse er: Hvor ligger ansvaret for diskriminerende avgjørelser som er fattet av kunstig intelligens? Hvordan skal vi sikre at de som utvikler teknologien, har kjennskap til diskrimineringslovverket? Har Datatilsynet og andre relevante aktører nok kompetanse til å kunne føre tilsyn med lovverket, eller trenger vi andre fagmiljøer i tillegg?

Det er positivt at regjeringen nevner likestilling og ikke-diskriminering i sin nye strategi for kunstig intelligens. Strategien gir likevel ikke tilstrekkelige svar på hvordan tematikkene skal følges opp.

Den teknologiske utviklingen vil kunne bidra til mer likestilling og mangfold. Som EU-kommisjonen påpeker, kan også kunstig intelligens tjene både næringslivs- og forbrukerinteresser dersom det bygges tilstrekkelig tillit til bruken av den.

Når EU jobber med et regelverk om bruken av kunstig intelligens fra 2021, og amerikanske teknologikjemper sier at de ikke vil levere programvare som kan brukes til ansiktsgjenkjenning i politiet før en tilstrekkelig lovgivning er på plass, ser vi at menneskelig klokskap ikke er fraværende.

Det er helt vesentlig for likestillingsarbeidet at denne klokskapen settes i system.

Skrive til oss? Send innlegg her

Tekstlengde:

  • Kronikk: 5000 tegn
  • Hovedinnlegg: 3600 tegn
  • Underinnlegg: 2800 tegn

Vi bryr oss om ditt personvern

dagbladet er en del av Aller Media, som er ansvarlig for dine data. Vi bruker dataene til å forbedre og tilpasse tjenestene, tilbudene og annonsene våre.

Les mer