Så jämställs blickar med övergrepp
När genussekretariatet likställer blickar med övergrepp trissas siffrorna upp rejält. När forskaren Lisa protesterar mot metodfelen blir hon utfryst. Nu sprids siffrorna i EU:s miljonprojekt.
Del 1 av 2. Publicerades första gången den 27 april 2025.
Trapphuset är tyst och ödsligt. Lisa står längst ner, med handen på räcket, blickar upp mot fjärde våningen. Där ligger hennes arbetsplats – Nationella sekretariatet för genusforskning – men dit når hon inte längre. Det finns ingen hiss, och hennes lungproblem gör trapporna omöjliga. När hon först påpekade problemet blev reaktionen från ledningen nonchalant: ”Det får vi se över sen.” Men ingen såg över det. Snart började hon misstänka att placeringen kanske inte var helt slumpmässig. Det var kollegorna och cheferna hon hamnat i konflikt med, och ingen tänkte anstränga sig för att lösa hennes situation.
Lisa disputerade i psykologi med en avhandling om professionellas bemötande av personer utsatta för övergrepp. Hon hade publicerat artiklar i internationella tidskrifter och lett forskningsprojekt finansierade av bland annat Brottsoffermyndigheten. Metodologi och trovärdighetsbedömning var hennes specialitet. Hon hade sett mer än de flesta, och visste att slarv eller metodfel kunde ge katastrofala resultat när man forskade om utsatthet.
När hon bad att få vara med på sekretariatets möten via länk nekades hon. De andra satt tillsammans, hon satt ensam hemma vid köksbordet och försökte hänga med. ”Det var inte bara svårt praktiskt – det kändes som en medveten strategi för att tysta mig,” säger hon.
Under hösten 2022 besvarades hennes mejl alltmer sällan. Viktiga beslut fattades utan hennes vetskap. Det borde aldrig ha blivit så här. Våren 2025, två år efter vårt första samtal, har Lisa lämnat sekretariatet efter en lång tids sjukskrivning och utfrysning. Men problemen började långt tidigare.
Den svenska rapporten skrevs inom ramen för UniSAFE (2021–2024) var ett EU-finansierat forskningsprojekt med deltagare från 46 universitet i 15 europeiska länder. Projektets enkät besvarades av drygt 42 000 personer, med resultatet där 62 procent angav att de hade upplevt minst en form av genusbaserat våld (56% av männen och 66% av kvinnorna). Vad som aldrig nämndes i officiell kommunikation var att svarsfrekvensen endast var 3,9 procent.
Första gången Lisa såg siffran från Latcheva-skalan blev hon kall. Femtiotre procent – mer än varannan kvinnlig doktorand skulle vara utsatt. Hon visste exakt vad det innebar: allvarliga övergrepp blandades ihop med obehagliga blickar och opassande kommentarer. Projektets egen metodrapport erkände att skalan hade brister, ändå lyfte projektledningen fram den högsta siffran. Fredrik Bondestam, chef för sekretariatet och vetenskapligt ansvarig för projektet, var drivande i hur siffrorna presenterades. Lisa anade tidigt hur forskningen riskerade att politiseras. Men när hon ifrågasatte varför just den mest spektakulära siffran användes utan reservationer möttes hon av undvikande svar. Hon såg även ett annat problem: skalan hade aldrig validerats externt, något som projektets egen metodrapport erkände.
”Jag ifrågasätter inte kvinnors utsatthet – tvärtom har jag forskat om detta under hela min karriär”, säger Lisa. ”Men forskningen måste göras rätt. När jag såg hur siffrorna användes förstod jag direkt att något gått allvarligt fel.”
Lisa var heller inte ensam i sin kritik. Flera etablerade forskare, däribland Christina Björklund från Karolinska Institutet och KI:s tidigare prorektor Karin Dahlman-Wright, uttryckte samma metodologiska invändningar. Men projektledningen under Bondestams ledning förblev orubblig. Situationen blev snabbt ohållbar.
”Jag orkade inte längre. Jag insåg att jag var tvungen att lämna”, säger hon.
Hon visste inte då hur långt historien skulle sträcka sig, eller att hon snart skulle behöva kämpa för att återfå sin hälsa.
Siffror som inte fick ifrågasättas
Projektets kärna var en paneuropeisk enkät – i Sverige genomförd av en grupp lärosäten och ledd av Nationella sekretariatet för genusforskning – som skulle kartlägga utsatthet i svensk högskola. Huvudmåttet byggde på elva frågor konstruerade av den österrikiska forskaren Rossalina Latcheva. Metoden – en beteendelista – frågade inte direkt om trakasserier eller övergrepp utan räknade alla svar utom ett »nej« som utsatthet. En obehaglig blick hamnade därmed i samma stapel som ett fysiskt övergrepp.
Latcheva-skalan ifrågasattes redan internt. Den hade aldrig validerats externt och saknade en tydlig tidsavgränsning. Måttet fångar om respondenterna någon gång under sin tid i akademin upplevt genusbaserat våld, oavsett allvarlighetsgrad eller när det skedde, vilket gör resultaten svårtolkade och ännu svårare att använda praktiskt. EU-kommissionens metodhandbok (Eurostat, 2021) betonar att enkäter om våldsutsatthet bör ha tydligt definierade referensperioder – ”livstid” och ”senaste 12 månaderna” – för att minska risken för minnesfel och göra resultaten jämförbara. Manualen understryker också vikten av att frågeinstrument genomgår kognitiva tester och pilotstudier före bredare användning i policyarbete. Även om UniSAFE genomförde interna tester, uppfyller inte Latcheva-skalan EU-kommissionens rekommendationer fullt ut, vilket påverkar resultatens tillförlitlighet och användbarhet.
Lisa påpekar när vi pratar att de faktiskt inte behövde förlita sig enbart på en enda skala:
Utöver Latcheva använde vi en validerad skala – Copenhagen Psycho-Social Questionnaire – där vi ställde frågan om personen under de senaste tolv månaderna hade du blivit utsatt för icke önskvärd sexuell uppmärksamhet, men den siffran hamnade i fotnoterna.
Den validerade och 12-månadersbundna Copenhagen Psycho-Social Questionnaire (COPSOQ) visade att 3,5 procent varit utsatta. Och COPSOQ har just de kvaliteter Latcheva-skalan saknar: psykometrisk validering, tydlig tidsram och hög reliabilitet – kontrasten kunde knappt bli tydligare. Trots detta presenterade projektledningen – med Fredrik Bondestam i spetsen – Latcheva-skalans högsta siffra, 53 procent, som huvudresultat. Doktorander och anställda angav främst kollegor som förövare, medan studenter pekade ut andra studenter – nyanser som aldrig nådde pressmeddelandet.
I sitt skriftliga svar till mig berör Strid inte kritiken mot Latcheva-skalan – att den saknade validering och tidsavgränsning – trots att dessa brister nämnts i projektets egna metodrapporter.
Ironiskt nog hade Bondestam själv redan 2018 varnat för just denna typ av listor. I Vetenskapsrådets översikt Sexuella trakasserier i akademin konstaterade han, ihop med medförfattaren Maja Lundqvist, att prevalens kan pendla “från två till nittiotre procent” beroende på metod, och varnade för risken med sådana variationer. Ändå användes 2021 en metod som gav just en mycket hög siffra, med de kända bristerna (ingen validering, ingen tidsavgränsning).
Det var flera forskare reagerade på hur Latcheva-skalan användes.
När jag pratar med Karin Dahlman-Wright, då prorektor vid Karolinska Institutet, konstaterar hon att det sammanslagna måttet var svårt att använda i praktiken: ”Utan en tydlig tidsram blir resultaten omöjliga att följa upp eller förebygga.”
Projektets kvantanalytiker Christina Björklund invänder särskilt mot det binära räknandet:
Att bli tittad på likställs med ett övergrepp. Man borde ha utforskat det mer. Jag är ju kvantforskare och tycker att det är viktigt med empiri. När man använder skalor ska de mäta det man har tänkt att det ska mäta.
Liknande kritik återfinns internationellt. En färsk studie i Scottish Journal of Political Economy visar hur beteendelistor kan ge mycket högre siffror än direktfrågor. Forskaren Reshma Jagsi har länge varnat för att vaga listor blåser upp siffror och skadar trovärdigheten. Latcheva själv betonar att skalan bör kompletteras med andra mått för att ge en rättvisande bild. I den svenska studien justerade dessutom Statistiska centralbyrån (SCB) flera av svarsalternativen – något som enligt Lisa ytterligare kan ha försvårat internationella jämförelser och försvagat skalans validitet.
När Lisa pressade på om validitet (mäter skalan verkligen rätt sak?) svarade Bondestam med resonemang om reliabilitet (samma resultat vid upprepning).
”Validiteten, själva kärnfrågan om skalan verkligen mäter det den ska, var aldrig säkerställd”, säger Lisa.
Trots intern kritik och metodologiska reservationer fortsatte den uppblåsta siffran att spridas utan förbehåll – först i Sverige, sedan i hela Europa.
När jag mejlar Sofia Strid, vetenskaplig koordinator för UniSAFE, uppger hon att hon inte kände till någon specifik intern reservation, men medger att metodologiska risker, inklusive bortfallsbias, diskuterats i projektets offentliga rapporter. UniSAFE:s egen metodrapport konstaterar uttryckligen att den låga svarsfrekvensen innebär en ”risk för en snedvriden bild”.
I sitt skriftliga svar hävdar Strid att svarsfrekvensen “inte ogiltigförklarar resultaten” och att robusta statistiska viktningar använts. Samtidigt slår metodrapporten, som Strid alltså varit med och samordnat, fast att viktningsmetoder inte kan undanröja risken för snedvridning vid ett så omfattande bortfall. Rent vetenskapligt kan inga viktningar i världen rädda ett så extremt skevt urval. En svarsfrekvens på endast 3,9 procent innebär att de som valt att delta kan skilja sig systematiskt från dem som inte svarat – vilket gör det omöjligt att generalisera resultaten till hela populationen, oavsett hur stabila svaren är inom gruppen.
Problemet med viktning är ännu mer fundamentalt än så. UniSAFE:s viktningar baserades enbart på kön och yrkesstatus (student/doktorand/anställd), vilket ignorerar att urvalet sannolikt är systematiskt snedvridet på andra avgörande punkter. Om benägenheten att svara främst styrts av egen utsatthet för genusbaserat våld eller av ett särskilt starkt intresse för genusfrågor – två variabler som helt saknas i registren och därmed inte kan viktas in – hjälper det inte att väga på kön och status. Tvärtom kan detta förfarande förstärka den skevhet man försöker kompensera för.
Som flera surveymetodologer påpekat (Bethlehem 2008; Kulas 2018) kan vikter endast korrigera skevheter om bortfallet är slumpmässigt betingat av observerade variabler. Finns det systematiska skillnader i något man inte har mätt – exempelvis erfarenhet av eller benägenhet att rapportera trakasserier – kvarstår denna skevhet som en dold och okorrigerbar felkälla.
I klartext: Man kan bara justera för det man faktiskt har information om. Situationen påminner därmed om Donald Rumsfelds klassiska resonemang om knowns unknowns och unknown unknowns. De faktorer man känner till – kön och yrkesroll – går att justera. Men det verkliga problemet är alla de unknown unknowns, alltså alla faktorer vi varken har data på eller ens fantasi nog att föreställa oss, men som ändå kan explodera som statistiska blindgångare. Finns viktiga skillnader mellan de få som svarat och den stora majoritet som inte gjort det, kan resultaten därför ge en missvisande bild – oavsett hur avancerade statistiska metoder man använder.
Ändå fortsatte Strid att offentligt lyfta fram siffran om 62 procent som ett huvudresultat, utan att tydligt redovisa omfattningen av de metodologiska risker som dokumenterats i UniSAFE:s egen metodrapport. Hon underlät att nämna att bortfallsbias och bristande validering kunde ge systematiska mätfel – en varning som fanns i det material hon själv haft ansvar för att samordna och kommunicera.
När siffran väl etablerats i den svenska debatten spreds den snabbt vidare i medier och politiska sammanhang, där resultaten återgavs utan kritiska förbehåll. Mönstret från Sverige skulle snart upprepas på europeisk nivå.
Marginaliserad för att hon påtalade brister
Den kritik som växte fram mot mätmetoderna inom projektet speglar en bredare oro inom akademin. I en essä i Kvartal varnar filosofen Fredrik Svenaeus för att begreppet sexuella trakasserier i akademin håller på att ”förvandlas till något som i många fall upplevs som bagatellartat eftersom det är frågan om oblyga blickar, klumpiga skämt eller pinsam flört, inte om tafsande eller sexuella kommentarer.” En sådan urvattning, menar han, riskerar att ”skada både forskningens trovärdighet och det konkreta arbetet mot verkliga övergrepp”.
Den tendens Svenaeus pekar på – där kritiska röster marginaliseras och begrepp urvattnas – blev för Lisa en konkret verklighet i arbetet med UniSAFE. Inifrån projektet såg hon hur metodkritik snabbt kom att uppfattas som ett hot mot hela satsningen. ”När jag ändå försökte lyfta problemen, blev jag marginaliserad”, säger hon.
Det räckte med att någon en enda gång fått en obehaglig blick för att hamna i samma kategori som fysiska övergrepp – något Lisa kallar absurt: ”Att likställa att någon tittar obehagligt med att bli fysiskt fasthållen – hur kan man kalla det samma sak? Det är inte vetenskap, det är en ideologisk slutsats förklädd i forskningsdräkt.”
Fredrik Bondestam hade samtidigt en unik maktposition som chef, talesperson och ansvarig forskare. Trots en intern metodbilaga som uttryckligen varnade för risker med missvisande resultat lät han den mest uppseendeväckande siffran – över 50 procent – spridas utan förbehåll. Kritiker pekade på en intressekonflikt: varje invändning mot metoden uppfattades snarare som ett politiskt angrepp än som en vetenskaplig diskussion.
Mönstret var inte nytt. Tidigare medarbetaren Anna-Karin Wyndhamn har beskrivit hur metodkritik möttes av kyla och gradvis uteslutning.
När Latcheva-siffran (53 procent i Sverige, 62 procent i EU) publicerades, slog påståendet ”två av tre kvinnor utsatta för genusbaserat våld” igenom omedelbart i svenska medier. På bara några månader återgavs siffran i ett stort antal artiklar, ledare och debattinlägg – utan att någon gång nämna att den centrala siffran byggde på en svarsfrekvens så låg att den enligt vedertagen vetenskaplig standard borde ha diskvalificerat hela undersökningen. Enligt vad som framkommer i mediegenomgången tycks ingen journalist heller ha ställt några frågor till projektledningen om varför de valt att använda en siffra med så uppenbara metodologiska svagheter, trots att dessa nämndes i de egna rapporterna. Denna typ av okritisk spridning är typisk för vad Svenaeus beskriver som ”politiska normer som ersatt sanningssökandet” inom delar av dagens akademi.
När jag mejlar honom om det svarar Fredrik Bondestam att den låga svarsfrekvensen hanterades med en statistisk metod (multi-level RIM) där svaren vägts efter kön, personalkategori och ämnesområde. Tanken med detta är att resultaten ska bli representativa för hela universitetsbefolkningen. Men UniSAFE:s egen metodrapport medger att denna viktning endast kan kompensera för kända skevheter. Rapporten erkänner också att det kan finnas osynliga faktorer, exempelvis att personer med egna erfarenheter av trakasserier oftare väljer att delta. Därför går det enligt rapporten inte att säga med säkerhet åt vilket håll eller hur mycket resultaten fortfarande kan vara snedvridna.
I Sverige var svarsfrekvensen förvisso högre (31,9 procent), men bland studenter – den grupp medier och fackförbund oftast fokuserade på – var den endast 24 procent. Dessutom hade bara tolv procent av dem som rapporterat utsatthet gjort en formell anmälan, något som UniSAFE:s egna analytiker beskrivit som ”ett otillräckligt policymått”.
Ändå framställdes UniSAFE som Europas mest robusta evidens – “den mest omfattande studien hittills”. I en debattartikel i fackförbundet Publikt (november 2022) krävde Sofia Strid och Fredrik Bondestam en nollvision mot genusbaserat våld – utan att nämna metodbristerna eller metodrapportens varning om att resultaten kunde ge en felaktig bild. Inte heller nämndes den lägre siffran som framkommit med COPSOQ.
Under 2023–2024 användes UniSAFE-siffrorna offensivt i workshops, upprop och ansökningar till nya EU-projekt – där resultaten inte bara legitimerade krav på åtgärder utan också blev ett strategiskt verktyg för att säkra fortsatt finansiering. Trots kända metodproblem användes siffrorna som centrala bevis i ansökan till GenderSAFE, som senare beviljades stöd från EU:s forskningsprogram. Varken i ansökan eller i projektpresentationerna nämndes de omfattande bortfallsproblemen eller risken för snedvridna resultat – trots att UniSAFE:s egen metodrapport tydligt varnat för båda.
I efterhand har Bondestam hävdat att UniSAFE-resultaten inte “säkrade” ansökan. Projektets dokumentation visar dock att siffrorna lyftes fram som en central del av ansökan och behovsbeskrivningen.
Samtidigt som ansökningarna rullade vidare på siffrornas kraft, blev Lisa alltmer utfryst. Lisas mejl besvarades alltmer sällan, hon uteslöts från möten, och hennes namn plockades bort från officiella projektlistor. Hon fick kämpa för att få bort sitt namn från EU-projektets dokumentation. Till slut placerades hon på ett kontor fyra trappor upp utan hiss, trots sina lungproblem. Hösten 2022 nådde hon sin gräns:
Jag förstod att jag måste lämna. Det blev en vändpunkt – inte för att något blev bättre, utan för att jag vägrade låta siffrorna stå oemotsagda.
Ivar Arpi
Fotnoter och komplett källförteckning hittas här.
Utgivaren ansvarar inte för kommentarsfältet. (Myndigheten för press, radio och tv (MPRT) vill att jag skriver ovanstående för att visa att det inte är jag, utan den som kommenterar, som ansvarar för innehållet i det som skrivs i kommentarsfältet.)







Att det kan vara så illa i den samhällsvetenskapliga forskningen kunde jag inte föreställa mig. Jag är f.d forskare i matematisk statistik och har i något sammanhang deltagit i en workshop med samhällsvetenskaplig forskning. Det värsta jag kommer ihåg från den är enkäter med svarsfrekvens runt 30%, vilket jag menar är så lågt att om ingen seriös analys av bortfallet gjorts så borde resultatet inte publiceras. Och nu får man höra att svarsfrekvensen är under 4%. Jag baxnar, för att ta till ett alldeles för milt uttryck.
Tack Ivar, för att du publicerade detta ännu en gång. Jag ser fram emot att läsa eller lyssna på det 2.