Den nye utdanningsvirkeligheten

VI HAR I DE SISTE

ukene sett mange avisoppslag knyttet til forsøk på rangeringer av norske utdanningsinstitusjoner. Først ute var resultatene fra en kartlegging Shanghai Jiao Tong universitet i Kina har utført. Denne rangeringen plasserte Universitetet i Oslo som det beste i Norge, som nummer 15 i Europa og som nummer 65 i verden. Universitetet i Tromsø kom ikke engang med blant de 500 beste universitetene i verden. Ukebrevet Mandag Morgen har i etterkant utarbeidet sin egen rangering av norske høgskoler der Høgskolen i Lillehammer kom ut som den beste, og der Høgskolen i Gjøvik ble plassert sist.

Reaksjonene fra universiteter og høgskoler på disse forsøkene på rangering er interessante: Prinsipielt er man mot den slags forsøk på å forenkle virksomheten ved lærestedene, men de som kommer øverst på lista kan likevel ikke dy seg for å ta i mot rosen og forklare for omverden hvorfor de er «best». Reaksjonene er forståelige ut fra at lærestedene i etterkant av Kvalitetsreformen opplever en større grad av konkurranse om nye studenter og økonomiske midler. Spørsmålet er likevel om disse forsøkene på rangeringer bidrar til å gi et sannferdig bilde av hva de ulike lærestedene står for, og hvilke utilsiktede effekter de eventuelt kan ha?

ET NÆRMERE BLIKK

på disse rangeringene avslører både store skjevheter i utvalget av kriterier, manglende forståelse av hva kriteriene eventuelt betyr, samt feiltolkninger av resultatene. La oss gi noen eksempler: listen Shanghai Jiao Tong universitetet presenterte legger stor vekt på artikler publisert i tidskiftene Nature og Science, antallet nobelprisvinnere og artikler publisert i tidskrift indeksert i den såkalte ISI-databasen i USA. Alle disse kriteriene favoriserer universiteter som er tunge på medisinsk og naturfaglig forskning. De fleste nobelpriser utdeles i disse fagene, både Nature og Science har en hovedvekt av artiklene knyttet til disse fagfeltene, og i ISI-databasen er det store forskjeller på hvordan tidskrift fra ulike fagfelt er representert. Enkelte naturfaglige og medisinske tidskrift publiserer opp mot 5000 artikler årlig, mens det tilsvarende antall artikler i tidskrift innen samfunnsfag og humanistiske ofte er langt færre. Det er også flere tidskrift indeksert innen naturfaglige og medisinske fagområder enn eksempelvis i humaniora og samfunnsfag. Til sammen skaper rangeringen en systematisk skjevhet i hva som telles som «god forskning». Konsekvensene er at universiteter, og til syvende og sist, enkeltforskere som ikke har en forskningsprofil som passer med kriteriesettet, vil komme langt ned på listen. Det er ikke lenge siden professor Francis Sejersted uttalte til Forskerforum at han er bekymret for tendensen til forenkling når det gjelder hva som skal gi økonomisk uttelling av forskningspublisering. Tar man utgangspunkt i det kinesiske kriteriesettet, ville en kapasitet som Sejersted neppe nådd opp i det hele tatt.

STORT BEDRE ER IKKE

det kriteriesettet som tidsskriftet Mandag Morgen har benyttet i sin rangering av norske høgskoler. Noen av de kriteriene som der er benyttet kan det stilles store spørsmålstegn ved: strykprosent høres eksempelvis ut som et tilforlatelig mål på kvalitet. Samtidig er det høyst uklart hvordan tidsskriftet har brukt dette kriteriet. Både høy og lav strykprosent kan nemlig fortolkes som et uttrykk for kvalitet. Høy strykprosent kan være en indikasjon på at kun de aller dyktigste kommer igjennom, eller være et uttrykk for at man på det angjeldende lærested i liten grad bryr seg om studentene. Lav strykprosent kan være et uttrykk for at det er (for) lett å komme gjennom studiene, eller at lærestedet kanskje har arbeidet hardt for å tilrettelegge studiene til studentens behov og kunnskaper. Avlagte studiepoeng, som i stor grad er en konsekvens av strykprosenten, er et annet av kriteriene som dermed blir noe diffust. Antallet internasjonale studenter, eller hvor mange av de vitenskaplige ansatte som er kvinner, er kriterier benyttet av Mandag Morgen som også er interessante som et uttrykk for kvalitet. Disse kriteriene avspeiler vel heller hvilke type studier en høgskole tilbyr enn kvaliteten på studiene som sådan.

I det marked for høyere utdanning som nå er i ferd med å oppstå i Norge, kan ulike former for rangeringer sees på som en slags «forbrukerinformasjon» til foreldre, studenter og andre som er interessert i hvilke resultater norske utdanningsinstitusjoner produserer. Slik informasjon bør interesserte ha full tilgang til, ikke minst i disse tider når tusener av unge er i ferd med å bestemme seg for hvor man ønsker å studere. I utgangspunktet er derfor informasjon om det norske utdanningssystemet et gode. Når kriteriene som rangeringene bygger på er dårlig, kan imidlertid mange uintenderte effekter oppstå.

ET INTERESSANT SPØRSMÅL

i denne forbindelse, er selvfølgelig hvorvidt slike rangeringer har noen betydning for studentenes valg av lærested? Vi mangler studier fra Norge på dette feltet, men fra USA vet vi at majoriteten av studentene i svært liten grad lar seg styre av ulike rangeringer. Hos en mindre prosentandel av studentene i USA, som ønsker å velge lærested ut fra kvalitetshensyn, har disse rangeringene likevel stor betydning. Paradokset som dermed kan oppstå er at de (relativt få) studentene som faktisk ønsker å velge ut fra kvalitetshensyn nettopp er de som foretar sine valg på feilaktig eller sviktende grunnlag.

Det største problemet med slike rangeringer er likevel den effekt disse ofte har på universiteter og høgskoler. Fra USA vet man at mange universiteter etter hvert bedriver ganske så utstrakt og bevisst manipulering knyttet til ulike kriteriesett der formålet er å forbedre egen plassering på gitte rangeringslister. Ikke overraskende har forskere funnet ut at disse lærestedene ikke legger vekt på pedagogisk eller faglig utviklingsarbeid eller på å møte nye studentbehov. Det som vektlegges er å score høyt på de utvalgte kriteriene, og foreta «strategiske grep» som kan bidra til topplasseringer. I tillegg til at denne aktiviteten synes å være lite produktiv sett i et samfunnsperspektiv, kan den noen ganger også direkte motarbeide sentrale utdanningspolitiske målsettinger. Et eksempel. I USA er forholdstallet mellom antallet søkere og antallet som tas opp ved et lærested er ofte brukt kriterium på kvalitet i ulike rangeringer. Jo høyere avvisning av søkere, jo høyere opp på rangeringen. Dette har ført til at enkelte universiteter driver «tvetydig» markedsføring av seg selv. Først arbeider man hardt for å få flest mulig studenter til å søke (noe som for studentene heller ikke er gratis), dernest avvises majoriteten av søkerne. Studentene blir lurt, mens universitetene hopper oppover på rangeringslisten. Sett i et samfunnsmessig perspektiv er imidlertid resultatet at studentenes tilgang til høyere utdanning ikke blir enklere.

INFORMASJON OM HVA

universiteter og høgskoler gjør og hvilke resultater de oppnår er både etterspurt og ønskelig. La oss derfor være en smule kritiske også til den «forbrukerinformasjon» vi tilbys i det nye markedet for høyere utdanning, og prøve å lære av de feil andre har gjort på dette feltet. De studenter som nå er i ferd med å søke seg til høyere utdanning bør i alle fall ha en bredere informasjonstilgang enn de siste ukers rangeringer har bydd på.