Planøkonomi i forskningen?

De fleste kjenner vel fortellingen om planøkonomisk spikerproduksjon i Sovjetsamveldet. Problemet var å lage et resultatmål som effektivt kunne brukes til fordeling av produksjonsressursene slik at samfunnets behov for spiker ble tilfredstillet. Man forsøkte seg både med total vekt av produserte spiker og med antall spiker. Men i det første tilfellet ble det katastrofal mangel på små spiker og i det andre en like katastrofal mangel på de store. Forsøk med inndeling i forskjellige kategorier av spiker, etter vekt, form, rustfrihet osv. førte heller ikke frem. Selv meget kompliserte modeller hadde for dårlig kontakt med de faktiske behovene for spiker.

Norsk forskning har en stund vært preget av forsøk på å måle resultater og styre ressurser ved telling av publikasjoner. Men antall publikasjoner er, som antall spiker, et dårlig mål på verdi eller samfunnsnytte. Det gjelder like mye grunnforskningen som den anvendte forskningen. Ny kunnskap kommer ikke pent pakket i hver sin publikasjon, og effektivitet i løsning av praktiske problemer er slett ikke proporsjonal med antallet publikasjoner. Antall publikasjoner er i seg selv av begrenset interesse. Det er innhold og bruk det kommer an på. Det er gode grunner til de høyst forskjellige publiseringstradisjoner i forskjellige fag. Med et enhetlig målesystem som skal dekke alle forskningsfelter mangedobles problemene.

Kunnskapsdepartementet ba i 2003 Universitets- og Høyskolerådet om hjelp til å utvikle «et enhetlig system for fullstendig dokumentasjon av vitenskapelig publisering ved universiteter og høyskoler». Hensikten var å bruke slik statistikk som en del av grunnlaget for «resultatbasert» tildeling av forskningsmidler. Systemet forelå ved slutten av 2004 og inngår nå i departementets budsjettmodell. Rapporten fra Rådet understreket at systemet bare var egnet til bruk på høyt nivå til måling av institusjonenes prestasjoner og ikke til måling av resultatene fra individuelle forskere eller grupper. Men den slo seg selv på munnen ved å peke på at i et slikt system vil forskerne nærmest uunngåelig bli opptatt av «hvilken publisering som vil gi institusjonen størst mulig uttelling».

Det er en åpenbar fare for at forskerne tilpasser seg tellekantsystemet på måter som avsporer fra god praksis for publisering i egen disiplin, og som dessuten undergraver påliteligheten av systemet som indikator på kvalitet av forskning. Men verken departementet eller ledelsen på de største forskningsinstitusjonene, som f. eks. Universitetet i Oslo (UiO), ser ut til å ha tatt dette problemet særlig alvorlig.

Arild Underdal gikk inn for tellekantsystemet i sin tid som rektor ved UiO. I sitt forsvar for systemet hevder han: «Den mest fundamentale innvendingen har vært at selve prinsippet om resultatbasert tildeling perverterer motivasjonen for å drive forskning – bort fra genuin nysgjerrighet, over mot materiell belønning.» (Morgenbladet 27.04.07) Men dette er tåkelegging. Resultater har alltid vært et hovedkriterium i vurdering av forskere og forskningsinstitusjoner.

Det er derfor høyst misvisende når Underdal argumenterer som om det eneste alternativet er å vende tilbake til noe som likner det gamle systemet og dermed «frikoble finansieringen av forskning fra ethvert krav om resultater». Den viktigste forskjellen til det gamle systemet er at vurderingen var mindre mekanisk. Det var større rom for å ta hensyn til fagenes og institusjonenes egenart. En mekanisk vurdering har den fordelen at den forenkler virkeligheten. Man slipper å hanskes med mange, kryssende hensyn, som må anvendes og avveies med skjønn. Men sannheten om hva som er god og støtteverdig forskning er ikke enkel å avdekke.

Underdal synes også å ta for gitt at publisering i prestisjetunge internasjonale tidsskrifter som regel er best. I likhet med Nils Petter Gleditsch (Morgenbladet, 30.03.07), går han ut fra at kvalitetskontrollen er sterkere jo større konkurransen er. Begge glemmer å nevne at sjansen for å komme til i internasjonale tidsskrifter avhenger av mangt og mye. Det hjelper for eksempel å arbeide på et felt som allerede omfattet med stor interesse av andre forskere. Det hjelper også å arbeide med populære metoder og tilnærminger. Dessuten hender det at «ledende» tidsskrifter gir god plass til bidrag som ikke fyller andre relevanskrav enn forskeres begeistring for metodisk sofisteri. Selvsagt kan konkurranse om å komme til i disse kanalene føre mye godt med seg. Men registrering og telling av hvor arbeider publiseres, kan aldri erstatte innholdsvurderingen.

Det norske tellekantsystemet «er kommet for å bli» forklarer Gunnar Sivertsen, ekspert på statistikk om vitenskapelig publisering, for et dansk publikum (Magasinet Humaniora, nr. 2, 2007). Kanskje er vi nødt til å leve med systemet en stund. Men de åpenbare svakhetene i forsvaret for tellekanter gir grunn til å vente at troen på forenkling snart forvitrer. Den naive koblingen mellom publiseringsstatistikk og kvalitetsvurdering har neppe noen stor fremtid, verken internasjonalt eller i Norge.

Med den enorme veksten i omfanget av forskning de siste par årtiene er det helt naturlig at behovet for radikale reformer trenger seg på. Bak innføringen av tellekantsystemet ligger et politisk ønske om oversikt, innsyn og muligheter til styring eller tilrettelegging i fellesskapets interesse. Spørsmålet er om de som utformet systemet har hatt tilstrekkelig oversikt over virkningene. Kanskje vil uheldige og ikke planlagt virkninger overskygge de planlagte.

Vi har fått ett forskningsråd, én lov for alle universiteter og høyskoler, og en felles metode for måling av forskningsresultater. Språkbruken har utviklet seg i samme forenklende retning. I kulturell og politisk debatt er begrepet «vitenskap» i stor utstrekning avløst av det mer omfattende «forskning», og det sistnevnte brukes ofte synonymt med det enda mer omfattende «forskning og utviklingsarbeid». Enkelhet er viktig for godt byråkrati og forståelig politikk. Men er vi tjent med den sentraliserte og enhetlige styringen som har utviklet seg i norsk forskning?

Kan forenklingene føre til at forskjellen mellom god og dårlig forskning glipper for oss?

Det er tankevekkende at mens planøkonomi generelt er blitt et belastet begrep, har sentral planlegging av vitenskapelig forskning fått økt gjennomslagskraft.