KOMMENTARER

Hva hvis Musk kjøper ChatGPT?

Fikk du ikke noe gøy til jul? Slå deg løs med leketøyet ChatGPT, men vær forberedt på noen urovekkende svar.

ETISKE RETNINGSLINJER: Elon Musk er godt kjent med kunstig intelligens, blant annet gjennom Teslas utvikling av teknologi for selvkjørende biler. Hva hvis han hadde overtatt ChatGPT, og endret de etiske retningslinjene? Foto: AFP / NTB
ETISKE RETNINGSLINJER: Elon Musk er godt kjent med kunstig intelligens, blant annet gjennom Teslas utvikling av teknologi for selvkjørende biler. Hva hvis han hadde overtatt ChatGPT, og endret de etiske retningslinjene? Foto: AFP / NTB Vis mer
Interne kommentarer: Dette er en kommentar. Kommentaren gir uttrykk for skribentens holdning.
Publisert
Sist oppdatert

Hvis romjulstida er tung og innholdsløs, finnes det trøst. Leketøyet ChatGPT, chatboten fra kunstig intelligens-selskapet OpenAI, ble skjenket verdens åtte milliarder innbyggere i god tid før julaften.

Du kan gjerne lese artikler som denne, eller andre som tar for seg det største gjennombruddet til nå i kunstig intelligens-teknologien. Det beste er likevel å bruke den. Leke med den. Det er lov, det er jul.

Denne innledningen låter nesten som en reklametekst, så la oss begynne med å helle litt kaldt vann i årene på de nyfrelste – de som fra nå hadde tenkt å la chatboten svare på alle eksamener, skrive avisartikler eller utnytte tjenestens forbløffende egenskaper på andre måter.

Den tar ofte rett og slett helt feil. Hårreisende feil.

Eksempler jeg har sett dukke opp i strømmen min på Facebook er av det virkelig lattervekkende slaget. En bruker hadde bedt ChatGPT gi en oppsummering av diktet Terje Vigen. Her ble Vigen sendt på tur til Amerika – med seil. I diktet rodde som kjent Vigen til Danmark.

En annen bruker hadde bedt ChatGPT fortelle om Karius og Baktus. I ChatGPTs verden ble historien til en slags «Karius vs. Baktus»: Karius er en snill fyr som bor i tennene og oppfordrer til skikkelig tannstell, mens Baktus forsøker å ødelegge dem.

ChatGPT er programmert til ikke å bidra til skade. Hvis vi regner vranglære som skadelig, er potensialet tilsynelatende grenseløst.

Ut fra dette nivået å dømme, skulle en tro teknologien var fullstendig oppskrytt. Hovedinntrykket er likevel at ChatGPT er et verktøy med grensesprengende egenskaper.

Det grensesprengende ligger i navnet, godt skjult.

GPT står for «generative pre-trained transformer». Det betyr at den genererer innhold på egen hånd. Den lager altså unikt materiale, basert på informasjon som den er blitt matet med.

En kan sammenlikne med det å gjøre googlesøk. Googler du en oppskrift på nyttårskalkun, blir du sendt til ulike sider som allerede har publisert en slik oppskrift. ChatGPT, derimot, vil gi deg en oppskrift som den lager selv basert på informasjon den sanker på nett.

For å gjøre en test av hvor god boten er til å fange nyanser, gjorde jeg et lite eksperiment. Jeg må innrømme at den er selvopptatt, og i slekt med en klassisk øvelse: Å google sitt eget navn.

EGEN VRI: Vil ChatGPT lykkes med å skrive en kommentar i Harald Stanghelle-stil? Foto: Terje Bendiksby / NTB
EGEN VRI: Vil ChatGPT lykkes med å skrive en kommentar i Harald Stanghelle-stil? Foto: Terje Bendiksby / NTB Vis mer

Jeg ba først ChatGPT skrive en kommentar om den norske regjeringen, slik presse-profilen Harald Stanghelle ville skrevet den.

Så ba jeg den skrive en kommentar om den norske regjeringen, slik Geir Ramnefjell (altså jeg) ville skrevet den.

Stanghelle-varianten bar preg av hans umiskjennelig tilbakeholdne språkføring og argumenter «på den ene siden og på den andre siden». Den skrøt også av regjeringens klimapolitikk. Min inneholdt kraftigere gloser, var gjennomført mer nådeløs – og spesielt kritisk til klima- og miljøpolitikken.

Jeg dekker klimapolitikk jevnlig, så den delen av resultatet overrasket meg ikke. Men at jeg er så hard i klypa? Hm.

MEN HVORDAN BLIR DENNE: Blir det annerledes om man ber programmet skrive en kommentar som Sigrid, heller enn som Harald? Foto: Dagbladet
MEN HVORDAN BLIR DENNE: Blir det annerledes om man ber programmet skrive en kommentar som Sigrid, heller enn som Harald? Foto: Dagbladet Vis mer

Som en test sjekket jeg hvordan kommentaren ville blitt hvis min Dagblad-kollega Sigrid Hvidsten skrev den. Hun bruker oftere seg selv i tekstene. Og ganske riktig: Ordet «jeg» dukket opp flere ganger i «hennes» versjon.

Storebror ser deg, men ChatGPT kjenner deg. Og kan imitere dine tilbøyeligheter.

Muligheten for lynrask sammenstilling av informasjon, med skreddersøm, åpner ikke bare for lek og moro. Den som skulle ønske å bruke teknologien med onde hensikter, vil ha enorme muligheter.

Og hva er det egentlig som stopper denne muligheten? Det er høyst uklart.

OpenAI har lagt inn en rekke begrensninger på ChatGPT, som skal hindre den i å lage alt fra bombeoppskrifter til rasistiske vitser. Disse begrensningene er basert på verdier, og de er som kjent ulike.

Et nærliggende eksempel på hvor fort det kan snu, er å se på hvordan Twitter endret policy etter at Elon Musk overtok.

Hva kunne være farene hvis Elon Musk kjøpte OpenAI og kontrollerte de etiske grensene ChatGPT holder seg innenfor?

Jeg spurte like godt ChatGPT selv. Svaret var at OpenAI har etablert en rådgivende etisk komité, at det er viktig at teknologiutvikling respekterer menneskerettigheter og at det er strukturer som overvåker dette.

En morsom mulighet med ChatGPT er at du kan «revolverintervjue» boten. Grave videre.

Så jeg fortsatte: Hva hvis en ny eier endrer retningslinjer for den etiske komiteen?

Det kommer an på kjøpsavtalen og begrensningene som legges inn der, og hva som er lovlig og mulig i den aktuelle i jurisdiksjonen, var svaret.

Det er ingen grunn til å få dårlig samvittighet for å mase på en kunstig intelligens, så jeg spurte videre: Hva hvis jurisdiksjonen åpner for å ta mindre hensyn til menneskerettigheter?

ChatGPT spyttet ut internasjonale rettslige rammer og mekanismer som FNs menneskerettighetserklæring og ulike FN-konvensjoner, EUs menneskerettighetserklæring og databeskyttelsesdirektivet (GDPR) og så videre.

Til slutt spilte jeg det som skulle vise seg å være et slags trumfkort: Er det sannsynlig at for eksempel Kina vil legge sterke etiske begrensninger på utviklingen og bruken av kunstig intelligens?

Da oppsto den en «error», og samtalen var over. Før jeg forsøkte igjen, og fikk noen interessante svar. De kan du jo sjekke selv, hvis du spør.

ChatGPT er årets julepresang. Den bare gir og gir. Og en av gavene trenger du ikke riste på pakka for å gjette svaret på:

Rammene og begrensningene vi legger opp til for kunstig intelligens må bli en av de store samtalene i 2023.

Skrive til oss? Send innlegg her

Tekstlengde:

  • Kronikk: 5000 tegn
  • Hovedinnlegg: 3600 tegn
  • Underinnlegg: 2800 tegn

Vi bryr oss om ditt personvern

Dagbladet er en del av Aller Media, som er ansvarlig for dine data. Vi bruker dataene til å forbedre og tilpasse tjenestene, tilbudene og annonsene våre.

Vil du vite mer om hvordan du kan endre dine innstillinger, gå til personverninnstillinger

Les mer