Kunnskapssenteret har undersøkt om dødelighet kan brukes som generelt kvalitetsmål. Svaret er nei
«Alle norske sykehus undersøkt: Her er det størst dødsrisiko» stod det med krigstyper på forsiden av VG onsdag 9. november 2005. Og de fortsatte over tre sider inne i avisen: «Dramatisk forskjell på dødsrisiko. På enkelte sykehus døde hver femte pasient med hjerteinfarkt. På andre overlevde nesten alle. Helseministeren ber om en forklaring.» Bakgrunnen for reportasjen var en rapport Nasjonalt kunnskapssenter for helsetjenesten hadde offentliggjort to dager tidligere (1). I ingressen på nettsidene skrev Kunnskapssenteret: «Dødelighetstall for hjerneslag, hjerteinfarkt og lårhalsbrudd varierer mye mellom sykehusene, viser en studie fra Kunnskapssenteret». De la riktignok til at «tallene kan ikke brukes til å si om ett sykehus er bedre eller dårligere enn et annet» (2), men samtidig så de grunn til «umiddelbart å orientere helse- og omsorgsminister Sylvia Brustad om funnene». Da er det ikke underlig at alarmklokkene begynner å ringe både i massemedier og hos ministeren.
Hva dreier denne saken seg om? Den dreier seg om minst to spørsmål. Det første er om dødelighet i forbindelse med sykehusopphold kan brukes som en generell kvalitetsindikator. Det andre er om kvaliteten på norske sykehus varierer dersom man bruker denne indikatoren. Det er selvsagt viktig å vite om det er kvalitetsforskjeller i behandling ved norske sykehus – ikke minst kvalitetsforskjeller som er så store at de gir seg utslag i forskjeller i dødelighet. Men det vanskelige er å velge riktig metode for å undersøke dette.
I 1999 publiserte det daværende HELTEF, som nå er en del av Kunnskapssenteret, en rapport om dødelighet i norske sykehus som ble ganske kraftig kritisert pga. metodiske svakheter (3). Den foreliggende rapporten er en oppfølging av rapporten fra 1999 og har gått atskillig mer grundig til verks. Den har bl.a. anvendt langt mer avanserte statistiske metoder. Rapporten er på nesten 200 sider og har bare tatt mål av seg til å svare på det første av spørsmålene, altså om 30-dagers dødelighet kan brukes som kvalitetsindikator. Problemet er at man ikke har klart å besvare spørsmålet. Eller som Kunnskapssenteret presiserer på sine nettsider: «Kunnskapssenterets hovedpoeng er at selv når tallene er justert, er det knyttet så stor usikkerhet til resultatene at de ikke kan brukes til å sammenlikne sykehus med hverandre, verken for hjerneslag, hjerteinfarkt eller lårhalsbrudd. Usikre resultater skyldes at datagrunnlaget er for dårlig» (4). Sagt på en annen måte: Til tross for at man har brukt store ressurser og avanserte metoder, får man ikke 30-dagers dødelighet til å fungere som kvalitetsindikator.
Et annet spørsmål er: Hvis det hadde vist seg at 30-dagers dødelighet hadde vært brukbar som generell kvalitetsindikator, hva ville den i så fall ha fortalt noe om? Den ville iallfall ikke kunnet fortelle noe om behandlingskvalitet. Generelle kvalitetsindikatorer kan – i beste fall – si noe om systemene, altså hvordan sykehusene styres og drives. Behandlingskvalitet monitoreres på helt andre måter – f.eks. gjennom kvalitetsregistre, drevet og forankret i den utøvende helsetjenesten selv. Dette er det skrevet mye om både nasjonalt og internasjonalt (5 – 8).
I dette tilfellet har man imidlertid konkludert med at man ikke har klart å finne en god nok indikator. Spørsmålet er da hvorfor man har valgt å gå til ministeren og mediene med disse resultatene. Har man ingen konklusjon eller er konklusjonen at man ikke har gode nok data, bør man vanligvis ikke sette i gang tiltak eller gjøre inngrep.
Kunnskapssenterets litt underlige stilling som «et faglig uavhengig ordinært forvaltningsorgan uten myndighetsfunksjoner» (§ 3 i Kunnskapssenterets vedtekter) har vært diskutert i Tidsskriftet tidligere i år (9, 10). Diskusjonen har bl.a. dreid seg om hvor uavhengig man kan bli når man organisasjonsmessig er plassert som del av forvaltningen. Denne saken illustrerer en annen side av dette, nemlig hvor vanskelig det er å oppføre seg som en «vanlig» forskningsinstitusjon når veien er så kort både til dem som finansierer forskningen (Sosial- og helsedirektoratet) og dem som treffer beslutninger (departement og helseminister).
Hvis denne forskningsrapporten hadde vært utarbeidet ved en «vanlig» forskningsinstitusjon, hadde man hatt to muligheter: Enten hadde man konkludert med at prosjektet hadde vært mislykket. Man hadde stilt et spørsmål som det viste seg umulig å besvare med den metoden man hadde valgt. Slikt kan skje når man forsker. I så fall burde rapporten vært lagt i en skuff – og forblitt der. Alternativt hadde man bestemt seg for at den erfaringen man hadde gjort i dette prosjektet var viktig å dele med andre. I så fall ville man bearbeidet rapporten og forsøkt å få den publisert. Dermed ville den også blitt kvalitetssikret gjennom uavhengig fagvurdering. Muligens ville den til slutt kunne bli publisert – som en metodeartikkel. Men det er lite sannsynlig at den da ville fanget VGs eller ministerens interesse. Sannsynligvis ville den heller ikke kommet igjennom Kunnskapssenterets eget nåløye, hvis de f.eks. skulle lage en metodevurdering eller komme med en anbefaling om dette emnet (11, 12).
Problemet her er altså ikke selve forskningen. Men at den ble formidlet videre – så å si uten filter.