Troværdige kulturvaner?

Kulturvaneundersøgelsen – den nye, monumentale, tilbagevendende, og særdeles grundige – har fået megen medieomtale de seneste uger. Men ikke den slags omtale, som Kulturministeriet (rekvirent), Epinion og Pluss Leadership på forhånd kunne håbe på.

Sagen tog sin begyndelse, da Stig Jarl, lektor i teatervidenskab, i Politiken leverede en analyse med det hovedbudskab, at danskernes rapporterede teaterbesøg var skudt helt forbi og dermed løgn. Det blev startskuddet til en serie af kritiske artikler om undersøgelsens validitet og troværdighed generelt. Jeg blev selv interviewet til Information om undersøgelsen i sidste uge.

Men hvad er egentlig op og ned i sagen? Lad mig starte med at slå fast, at der er tale om en omfattende og grundig undersøgelse, som rent metodisk ikke lader meget tilbage at ønske.

Man må stille to grundlæggende kritiske spørgsmål til en undersøgelse af denne type, nemlig 1) Hvad vil man undersøge, og hvordan er spørgsmålene formuleret? og 2) Hvordan er svarpersonerne udvalgt, og er de faktisk repræsentative for os danskere?

Til det sidste kan man konstatere, at der er tale om store og i udgangspunktet repræsentative stikprøver; at den overordnede svarprocent ligger omkring 50%, hvilket er normalt, men naturligt har givet anledning til en grundig bortfaldsanalyse, som ikke peger på ret store skævheder. Dog er børnefamilier overrepræsenterede. Det problem har man efterfølgende vægtet sig ud af. Repræsentativiteten er derfor ikke et stort problem.

Til det første kan man konstatere, at 1) undersøgelsesemnet – kulturvaner (og herunder medievaner) – er et følsomt område, forbundet med forskellige grader af social status og knyttet til de kulturværdier, vi hver især bærer rundt på. Forskning på området viser, at socialt følsomme emner ikke kan afdækkes præcist gennem spørgeskemaundersøgelser. Det er med andre ord et grundlæggende problem, som ikke handler om kvaliteten af den konkrete undersøgelse. Noget af usikkerheden kan naturligvis afdækkes ved at sammenholde svarene med registerbaserede oplysninger, fx om solgte teaterbilletter og operabilletter. 2) En række spørgsmål er formuleret anderledes i 2012-undersøgelsen i forhold til den seneste tilsvarende undersøgelse fra 2004. Det er der en række gode grunde til, som der argumenteres sagligt for i undersøgelsen. Bl.a. hensyn til den teknologiske udvikling i den mellemliggende periode og hensyn til sammenlignelighed med internationale undersøgelser på området.

Problemet er med andre ord ikke undersøgelsen an sich. Problemet er i stedet, hvis man

1) ukritisk tager konklusionerne om vores alle sammens kulturvaner som sandhedsvidne – og ikke blot som det pejlemærke eller fingerpeg, det vitterligt er;

2) konkluderer om udviklingen fra 2004-2012 uden smålig skelen til, hvordan man faktisk har spurgt, herunder om man har ændret i formuleringer og definitioner mellem de to undersøgelser.

Der mangler med andre ord en nuanceret og kritisk læsning og formidling af undersøgelsen. Her kunne kulturministeren passende selv gå forrest i stedet for at lade begejstringen løbe af med sig, når han i ministeriets egen pressemeddelelse udtaler, at børnene “… er meget aktive og læser for eksempel markant flere bøger end i 2004, hvor den forrige kulturvaneundersøgelse fandt sted.” Det ved vi så faktisk ikke noget om, da man i 2012-undersøgelsen har spurgt børnene hvor ofte de læser/hører bøger. Mens man i 2004 spurgte børnene, hvor ofte de læser bøger. Det er dog to forskellige ting.

Har du brudt al kontakt med dine forældre/søskende/børn?

Skal man tro DR’s teaser til den nye programserie “Rod i familien”, så har fire ud af ti – altså flere end hver tredje – af jer, som læser dette indlæg, brudt al kontakt med forældre, søskende eller børn. Altså forudsat, at læserne af denne blog er repræsentative for den voksne danske befolkning.

Okay, den præmis holder givetvis ikke. Der er et problem med repræsentativiteten. Men DR’s påstand er ikke desto mindre, at “I fire ud af ti danske familier har forældre, børn eller søskende kappet al kontakt til hinanden”. Det er et højt tal, som har affødt flere “kan det passe?”-henvendelser til DR’s eget faktatjek-program Detektor.

Detektor dykkede i denne uge ned i den Megafon-undersøgelse, som påstanden refererer til. Jeg deltog selv i Detektors  indslag, som blotlægger, hvorfor der – af flere forskellige grunde – ikke er belæg for påstanden. Megafon-undersøgelsen stiller dette spørgsmål: “Har du på et tidspunkt brudt kontakten til et medlem af din nærmeste familie i længere tid eller permanent pga personlige uoverensstemmelser?” Men dels er der forskel på, om man på et tidspunkt i sit liv i en periode har brudt kontakten – eller om man nu og her (når man får spørgsmålet) har brudt kontakten. Og dels kan “nærmeste familie” ikke oversættes direkte til forældre, børn og søskende.

Det korrekte tal er nærmere, “at ca. hver tiende dansker har brudt kontakten til en mor, far, søster, bror eller barn”. Det viser en undersøgelse fra Rambøll.

Se hele indslaget her. (starter efter ca. 16 minutter i DR2-programmet fra 30. oktober)

Berlingske vildledte om vuggestueundersøgelse

Den seneste uges debat om forholdene i de danske vuggestuer har handlet om fordrejede tal og spørgsmålstegn ved forskerens (Ole Henrik Hansen) undersøgelse. Uden at nogen dog tilsyneladende har set selve undersøgelsen. Debatten er med andre ord kørt af sporet.

I går bragte Berlingske så en rettelse: De beklager, at de kom til at skrive, at der i undersøgelsen var sendt spørgeskemaer ud til 40.000 pædagoger, når der nu rettelig kun var sendt skemaer ud til 38.487 potentielle respondenter. 40.000 er ikke det helt korrekte tal, og det beklager de.

Men hør nu lige her: Det er slet ikke pointen. Om tallet hedder 40.000 eller 38.500 er bedøvende ligegyldigt.

Det egentlige problem er, at Berlingske fandt det fornuftigt i første omgang at nævne det gigantiske antal mulige svarpersoner i stedet for at forholde sig til, hvor mange der faktisk havde svaret (1274). Og den lave svarprocent (3,3 procent samlet set).

Hvis Berlingske faktisk har troet, at der var tale om 40.000 svar fra relevante fagpersoner, så skal der nye batterier i bullshit-detektoren. Man må da som minimum bede forskeren bekræfte dette helt usandsynlige tal.

Hvis de derimod fra starten har været klar over, at der måtte være tale om en meget mindre svargruppe og en muligvis ringe svarprocent… Ja, så har de vildledt læserne med fuldstændig uvedkommende information, der uvilkårligt giver indtryk af meget større pondus og troværdighed, end tilfældet faktisk er.

Er det for store krav at stille til en avis som Berlingske? Kom nu med en seriøs beklagelse, som går på substansen. Det andet er noget pjat, som almindeligt begavede læsere alligevel gennemskuer.

 

Ledende spørgsmål hos Sex & Samfund

P1s Detektor havde forleden generalsekretær for Sex & Samfund, Bjarne B. Christensen, i studiet og svare på kritik af en undersøgelse, foreningen havde lavet i forbindelse med Uge Sex 2012-kampagnen.

Sex & Samfund havde spurgt 605 folkeskolelærere, om de oplever faste kønsrollemønstre blandt deres elever, og konkluderede på baggrund af svarene, at næsten hver anden af dem (47,8 procent) har oplevet meget fastlåste opfattelser blandt deres elever af, hvad drenge og piger kan og bør.

Undersøgelsen og formidlingen af samme er et fint (negativt) studie i kunsten at formulere gode spørgsmål og vinkle sobert på svarene. Her følger en gennemgang.

Man formulerede hovedspørgsmålet på denne måde:

Oplever du – eller har du oplevet – meget faste opfattelser blandt dine elever af, hvad man kan og bør som henholdsvis dreng og pige? (for eksempel hvordan man skal opføre sig, hvilke fritidsaktiviteter man kan gå til, hvilket tøj man kan/skal have på, hvor mange man må kysse etc.)

 Spørgsmålet rummer adskillige spørgetekniske problemer, som til sammen gør svarene ubrugelige at konkludere på.

1) Oplever du – eller har du oplevet: Med formuleringen eller har du oplevet ved man ikke, om lærerne svarer ud fra deres aktuelle oplevelser eller noget, de engang har oplevet. Det bliver dermed umuligt at konkludere noget aktuelt ud fra svarene. Der mangler en tidsafgrænsning på spørgsmålet.

2) Blandt dine elever: Der mangler en styrkemarkør. Hvad betyder blandt dine elever? Ganske få elever? Halvdelen af eleverne? Flertallet af eleverne?

3) Som henholdsvis dreng og pige: Man slår kønnene sammen, hvor man med fordel kunne have bedt lærerne svare for henholdsvis drenge og piger. Hvem ved på forhånd, om de samme mønstre gør sig gældende på tværs af køn?

4) (for eksempel hvordan man skal opføre sig, hvilke fritidsaktiviteter man kan gå til, hvilket tøj man kan/skal have på, hvor mange man må kysse etc.): Man forsøger med disse eksempler at give lærerne en fælles referenceramme, når de skal svare. I praksis virker det mod hensigten. Hvis man blot oplever problemer på ét af de nævnte områder, skal man i princippet svare ja, men i så fald svarer folk ja på baggrund af vidt forskellige oplevelser.

Som spørgsmålet er stillet, er det voldsomt ledende i retning af at få lærerne til at svare, at de oplever faste mønstre. Man skal blot på et eller andet tidspunkt i et eller andet omfang have oplevet meget faste opfattelser på ét af de nævnte områder… og hvem har ikke det? Set i det lys, er det faktisk overraskende, at blot 48 procent af lærerne svarer ja. Det ligger lige for at vinkle på, at så lav en andel tilsyneladende oplever faste holdninger. I stedet gør Sex & Samfund det modsatte. Vinkler på, at næsten hver anden lærer har oplevet faste holdninger blandt eleverne. Den vinkel havde vist skrevet sig selv på forhånd.

Men hvordan skulle man have stillet spørgsmålet? Svaret er, at man skal lade være med at stille den slags komprimerede, sammenfattende spørgsmål, hvor det hele skal med på én gang. Fremgangsmåden er grundlæggende forkert. I stedet skal man – som Sex & Samfund også er på sporet af – stille åbne, enkle og konkrete spørgsmål a la:

Tag stilling til hvert af de nævnte eksempler på “faste opfattelser” og angiv, om du oplever dem blandt dine elever i din dagligdag som lærer:

  • Drenge går til fodbold
  • Piger går ikke til fodbold
  • Drenge leger med biler, krig og lignende
  • Piger har langt hår
  • osv.

Læreren skal altså tage stilling til en række konkrete eksempler på (stereotype) opfattelser. I tilfælde af, at læreren svarer ja, kan man efterfølgende bede læreren vurdere styrken/udbredelsen af den pågældende opfattelse og vurdere, om opfattelsen er kønsspecifik. Man kan eventuelt også bede læreren tage stilling til, om han/hun oplever opfattelserne som et problem for eleverne.

På baggrund af svarene på disse enkle og konkrete spørgsmål, kan man lave sin sammenfatning og – med belæg – konkludere

  1. om lærerne oplever meget faste opfattelser blandt eleverne i deres dagligdag som lærere
  2. om opfattelserne er udbredte blandt eleverne
  3. om opfattelserne er kønsspecifikke
  4. om lærerne oplever det som et problem for eleverne

Det ville ikke bare være mere retvisende, men også langt mere interessant.

Karakterer til ministrene

Ministerholdet er – som det efterhånden er sædvane op til jul – blevet bedømt af den danske befolkning i to offentliggjorte meningsmålinger; den ene for Jyllands-Posten; den anden for Ugebrevet A4.

Repræsentative udsnit af befolkningen har givet ministrene karakterer på forskellige skalaer, og de to undersøgelser kommer frem til nogenlunde enslydende resultater: Margrethe Vestager er topscorer fulgt af Mette Frederiksen og Bjarne Corydon; Carsten Hansen og Ole Sohn som bundskraberne.

Men hvad med den statistiske usikkerhed? Den forbigås i tavshed i mediernes hovedartikler, men betyder den egentlig noget for konklusionerne, og hvordan beregner man den overhovedet?

Lad os starte med metoden. Da der er tale om karaktergennemsnit (i modsætning til andele af vælgertilslutning ved de allestedsnærværende politiske meningsmålinger), kan man IKKE bruge de to beregningsmodeller, som er tilgængelige på denne blog. Grunden er denne: Når man beregner statistisk usikkerhed (konfidensintervaller) for gennemsnitsmål, skal man tage højde for det, der i fagterminologien hedder standardafvigelsen. Til hver enkelt ministers beregnede karaktergennemsnit knytter der sig en standardafvigelse. Populært sagt er standardafvigelsen et tal, der udtrykker, hvor tæt de afgivne karakterer til en minister ligger på vedkommendes gennemsnit. Det kan variere meget. Et gennemsnit på 5 kan fremkomme ved, at alle faktisk giver karakteren 5. Men det kan også fremkomme ved, at halvdelen giver karakteren 1, og resten giver karakteren 9. Jo tættere de enkelte karakterer ligger på gennemsnittet, jo mindre er standardafvigelsen, og jo mindre er også den statistiske usikkerhed, når man generaliserer målingen til hele befolkningen.

Vil du se medierne efter i kortene og beregne usikkerheden, kræver det altså, at det enkelte medie udleverer en oversigt over standardafvigelser, antal svarpersoner og de målte karaktergennemsnit – for hver minister. Herefter skal det hele blot plottes ind i et regneark. En simpel formel (=KONFIDENSINTERVAL) gør resten af arbejdet for dig.

Jeg kontaktede Jyllands-Posten, og de sendte mig uden videre tallene. Her er resultatet:

 

N er antal svar for hver enkelt minister. Øvre og Nedre er konfidensintervallernes grænseværdier. Der er i formlen anvendt et 95 procents sikkerhedsniveau.

Men er folk ikke flintrende ligeglade med standardafvigelser og konfidensintervaller? Sikkert, men kan man som medie eller journalist være ligeglad med, om vinklingen og konklusionerne holder?

Heldigvis lader hverken Jyllands-Posten eller Ugebrevet A4 til at være ligeglade. Jyllands-Posten var, trods den manglende formidling af usikkerheden, i stand til at sende mig overbevisende dokumentation. Og den statistiske usikkerhed rokker ikke ved, at Margrethe Vestager faktisk ER den aktuelle vinder, og at Carsten Hansen og Ole Sohn får den ringeste bedømmelse i befolkningen. Så formidlingen af resultaterne er også i orden. Tjek selv tallene.

 Note: Jeg har kun kontaktet Jyllands-Posten, da formålet med indlægget primært er at demonstrere metoden. Ugebrevet A4s tilsvarende undersøgelse er nævnt for fuldstændighedens skyld. Berlingske har gennemført en tilsvarende undersøgelse, men de tager betaling for adgang til resultaterne, som derfor ikke er umiddelbart tilgængelige.

Undersøgelse forvrænger ældres tilfredshed

Altinget kritiserer i denne uge den netop offentliggjorte tilfredshedsundersøgelse blandt ældre, der modtager praktisk hjælp eller personlig pleje.

Undersøgelsen viser, at

  • 87 procent af de ældre er tilfredse eller meget tilfredse med den praktiske hjælp
  • 91 procent er tilfredse eller meget tilfredse med den personlige pleje

Undersøgelsen er gennemført af Epinion for KL og Social- og Integrationsministeriet. Den bygger på svar fra i alt 1401 modtagere af praktisk hjælp og/eller personlig pleje.

Blandt kritikerne af undersøgelsen er direktør i Danske Patienter, Morten Freil, medieforsker Preben Sepstrup og undertegnede.

Der peges på tre grundlæggende problemer ved undersøgelsen:

1) Ældre har en tendens til at svare i sympati med personalet. Det er jo ikke “deres skyld”.

2) Der svares udelukkende via tilfredshedsskalaer (meget utilfreds – meget tilfreds). Når man udelukkende anvender skalasvar og ikke i tillæg giver mulighed for, at man kan uddybe og adressere sin kritik via åbne svar, afholder det nogle fra at udtrykke kritik.

3) Kategorierne “tilfreds “og “meget tilfreds” lægges sammen i fortolkningen og formidlingen af undersøgelsens resultater. Dermed forsvinder den moderate kritik, der kan ligge i at svare “tilfreds”.

Alle tre problemstillinger er dokumenteret gennem forskning i tilfredshedsundersøgelser, bl.a. i forskningsartiklen Er otte ud af ti patienter tilfredse? (Nordisk Sygeplejeforskning, 2011).

Problemerne betyder ikke, at undersøgelsen er uden værdi. Men det betyder, at man skal være meget forsigtig med at konkludere, at næsten alle er tilfredse med den hjælp, de får. Og hvis undersøgelsen skal bruges til at ændre og eventuelt forbedre hjemmehjælpen, er der behov for at supplere med kvalitative undersøgelser.

For mange ældre går med ble

De fleste beboere på danske plejehjem går med ble, skrev Politiken sidste søndag i en artikel, hvor data var indhentet via en spørgeskemaundersøgelse til plejehjemsledere. Avisen skal have ros for at bruge det udmærkede rundspørge-værktøj til at sætte fokus på et væsentligt emne, som generelt ikke giver så mange prestige-point blandt journalister. Efter valgkampen er det faktisk også ganske befriende med en afbrydelse i den evindelige strøm af undersøgelser, der viser marginale udsving i meningstilkendegivelser fra ”et repræsentativt udsnit af den danske befolkning”.

En væsentlig detalje i Politikens undersøgelse, som avisen da også valgte at vinkle på i forsidehenvisningen, er plejehjemsledernes holdning: ”For mange ældre går med ble”. Nærlæsning viser, at den overskrift er baseret på, at 92,1 pct. af de plejehjemsledere, der har svaret på rundspørgen, tilkendegiver holdningen ”meget enig” eller ”enig” i udsagnet: ”De ældre bør komme på toilettet og i mindre grad gå med ble”.

Man kan indvende, at udsagnet er tæt på at være farvet, så det er vanskeligt at være uenig i. På den anden side må man også gå ud fra, at svarpersonerne kender til de faktiske forhold i plejehjemsbranchen og derfor også de argumenter, der taler for, at ældre bør går med ble, fx problemer med inkontinens. Derfor kan man godt konkludere, at det har været med i overvejelserne hos svarpersonerne, inden de tilkendegav deres grad af enighed i spørgsmålet.

92,1 pct. er en overbevisende andel også selv om svarpersonerne ikke er repræsentative for alle plejehjemsledere. Og det er de faktisk ikke, skriver Politiken selv. I faktaboksen ved undersøgelsen er der nemlig denne ”varedeklaration”:

”Politiken Research har i en spørgeskemaundersøgelse fået svar fra 381 ledere af plejehjem og -boliger ud af i alt 886 mulige. Plejehjemsledere fra i alt 86 kommuner har deltaget. Rundspørgen, som ikke er statistisk repræsentativ, men udtrykker en tendens, er foretaget i perioden 24.2.-7.3.2011”.

Det er faktisk en deklaration, som mange andre medier kunne lære af. Avisen har fået svar fra under halvdelen (43 pct.) af de mulige svarpersoner. Det er en ret lille andel, og avisen har åbenbart ikke grundlag for at påstå, at de, der har svaret, er repræsentative for alle plejehjemsledere. Derfor nøjes man med at kalde resultatet af undersøgelsen for ”en tendens”.

Andre steder i formidlingen er der malet med en mere bred pensel på den måde, at man uden forbehold generaliserer til alle plejehjem i Danmark med ordene ”på halvdelene af plejehjemmene” og ”på hvert andet plejehjem”. Det vælger jeg i denne omgang at se mindre alvorligt på, når forbeholdet er nævnt i en forbilledlig deklaration. Og ”tendensen” i avisens undersøgelse er da både interessant, alvorlig og tankevækkende.

Når svarpersoner pynter på virkeligheden

Forleden kunne man i Politiken læse en større undersøgelse af danskernes kulturforbrug. Megafon havde spurgt 1.026 danskere om følgende:

Har du inden for det seneste år gjort én eller flere af nedenstående ting? (Her er et udpluk af de svarmuligheder, man kunne krydse af)

  • Besøgt et kunstgalleri
  • Været til klassisk koncert
  • Været til koncert med rytmisk musik
  • Købt billedkunst
  • Været til opera
  • Hørt radioteater

Det viste sig, at blandt de universitetsuddannede svarpersoner havde halvdelen været i teatret, hver tredje købt billedkunst, hver fjerde været til opera og knap hver tredje været til klassisk koncert. Inden for det seneste år. Hvis man altså tager svarpersonerne på ordet.

Men kan man faktisk stole på den slags svar? Eller har folk en tilbøjelighed til at pynte lidt på virkeligheden? Ja, det har mange mennesker faktisk. Effekten kaldes i fagsproget social desirability bias – en betegnelse, som henviser til, at undersøgelser i almindelighed viser forkert, når de spørger folk om emner, der er socialt følsomme. Socialt følsomme emner kan fx være seksualitet, generøsitet, intolerance, intellektuel formåen og adfærd, som er forbundet med høj eller lav status. Fænomenet (socially desirable responding) er særlig udtalt, når man spørger folk direkte om deres egen adfærd/egne holdninger. Det er ikke nødvendigvis, fordi svarpersonerne lyver. Ofte husker de forkert og tror selv på det, de svarer. Men det hjælper lige lidt.

Hvordan skal man så undersøge folks kulturvaner – og alle mulige andre vaner – og få valide svar? Èn mulighed er at lade være med at spørge! I stedet kan man via Danmarks Statistik og kulturinstitutionerne undersøge, hvor mange billetter, der faktisk er solgt over en 1-årig periode. Men det besvarer jo ikke spørgsmål om køb af billedkunst m.v.

En anden mulighed er at gøre svarene mere forpligtende. Man kan fx bede svarpersonerne konkretisere, hvor og hvornår de har været i operaen, og eventuelt fortælle, hvad de har set. Det kan man problem- og omkostningsfrit gøre i en webbaseret undersøgelse, og det vil gøre det noget vanskeligere for svarpersonerne at pynte på virkeligheden. Det vil provokere svarpersonen til faktisk at tænke efter. Måske ligger operaturen og kunstkøbet et par år tilbage, når det kommer til stykket?

En anden problemstilling ved undersøgelsen er Megafons nedbrydning af stikprøven på 6 undergrupper (længste gennemførte uddannelse). Det er legitimt at gøre, men giver stor statistisk usikkerhed på de konkrete tal, når den samlede stikprøve ikke er større end 1.026 danskere. Denne betydelige usikkerhed forbigås i rungende tavshed.

Alt i alt er der god grund til at tage undersøgelsens resultater med et stort gran salt. Desværre bliver ingen af disse oplagte fejlkilder og forbehold nævnt i artiklen. Tværtimod. Undersøgelsens resultater tages for pålydende:

“Mens for eksempel 26 procent af kandidaterne fra universiteterne har været til opera inden for det seneste år, så gælder det 6 procent af håndværkerne og 9 procent af de ufaglærte.”

Det er for skråsikkert. For ukritisk. Og formentlig forkert. Og det havde faktisk ikke krævet meget at gøre det bedre.

Rullende meningsmålinger og journalistiske fatamorganaer

Meningsmålingsinstitutterne benytter rullende målinger under valgkampen. En rullende måling består typisk af 2/3 svar, som er 1-3 dage gamle, og så 1/3 nye svar. Det betyder, at de målinger, vi præsenteres for som dugfriske og øjebliksbilleder, i virkeligheden for hovedpartens vedkommende består af gamle svar. Derfor ligner de hinanden. Derfor bider forskelle mellem institutterne sig fast. Og derfor er det et journalistisk fatamorgana, når man tror, at politisk spin, nye væksttal eller ny fnidder hos blå blok kan aflæses umiddelbart i de seneste målinger.

Læs hele blogindlægget på DMJXs valgblog

Læs også interview på journalisten.dk om samme

Eller hør indslag på P1-programmet  Detektor fra 7. september

500 forskere undsiger deres rektor

Når 500 medarbejdere mener, at deres øverste chef bør forlade sin stilling, er det da ganske opsigtsvækkende. Derfor er der ingen tvivl om, at Berlingske havde en god historie, da avisen omtalte en rundspørge, der var sendt til videnskabelige medarbejdere på Københavns Universitet.

Allerede i det indledende afsnit begår Berlingske imidlertid den fejl at konkludere, at ”op mod hver anden videnskabelig medarbejder” ønsker rektors afgang, og straks derefter citere en kilde for, at ”godt halvdelen af medarbejderne ønsker, at den ledende figur skal gå af” – også bortset fra tvivl om betydningen af udtrykket ”godt” fra enten kildens eller journalistens side.

Ifølge Berlingske svarede nemlig 48,3 procent af svarpersonerne ”Ja” til spørgsmålet: ”Mener du, at Ralf Hemmingsen bør gå af efter Penkowa-sagen?”. Problemet er, at avisen har spurgt 5.500 videnskabelige medarbejdere, og kun 1.049 har valgt at svare. En svarprocent på 19 er meget lav, og det er nærliggende at antage, at mange af dem, der har undladt at svare, enten ikke har nogen mening om den fremsatte påstand eller måske ligefrem hælder til et ”Nej”, men i øvrigt ikke synes, at deres holdning til den komplekse sag om rektors rolle i Penkowa-sagen kan destilleres til et svar på et så unuanceret spørgsmål.

Fagbladet Journalisten bringer historien om, at Universitetsavisens redaktør er kommet under beskydning efter at have forsøgt at kopiere Berlingskes rundspørge, men med universitetets studerende og øvrige grupper af ansatte som svarpersoner. I Journalisten er Nils Mulvad og jeg blevet bedt om en vurdering af rundspørgernes lødighed. Nils har derudover lavet sin egen grundige gennemgang, som er værd at læse, hvis man vil klæde sig på til at undgå lignende fejl, eller hvis man blot ønsker at blive bedre rustet til at være en kritisk læser af rundspørgeresultater.

Links

Artiklen i Berlingske, 23. juni 2011

Journalisten: Ansvarsløs og skandaløs, 10. august 2011

Journalisten: Eksperter: Undersøgelsen er for tynd, 10. august 2011

Nils Mulvad: Dårlig rundspørge fra Berlingske i Penkowa-sagen, 10. august 2011