Category Archives: science

Domestic abuse and football

In the past weeks, the following graphic poster has been shared frequently on social media:

Poster made by the J. Walter Thompson agency for the National Centre for Domestic Violence.
Poster made by the J. Walter Thompson agency for the National Centre for Domestic Violence.

The small print is pretty small; it reads: “if England get beaten, so will she. Domestic violence increases 26% when England play, 38% if they lose”.

Tomas van Dijk, a journalist working for the Dutch newspaper De Volkskrant contacted me this week. He’s writing a piece factchecking these numbers and asked me for my opinion.  As these numbers, 26% and 38%, are taken from a paper from 2013, he suggested to look at this years data as well. Furthermore, he noted that it is known that there is a relation between temperature and domestic violence (more violence when it is too warm), so he asked if I could have a look at the role of temperature as well.

Continue reading Domestic abuse and football

The problem of unadjusted sequential analyses

Yesterday, my attention was grabbed by a paper, published in Nature Communications, titled “Regulation of REM and non-REM sleep by periaqueductal GABAergic neurons“.  It seems to be a very complicated paper, where the authors put in a lot of hard work. In addition, the journal deserves praise for having an open peer review system (the reviews are available online), something which I strongly support.

The reason I looked at this paper – being so outside of my own field of work – is because of one of the last paragraphs, one sample size. Here, the authors write:

For optogenetic activation experiments, cell-type-specific ablation experiments, and in vivo recordings (optrode recordings and calcium imaging), we continuously increased the number of animals until statistical significance was reached to support our conclusions.

I was extremely surprised to read this, because of three reasons:

  1. This is not a correct way to decide upon the sample size. To be more precise: this is a very wrong way of doing so, kind of invalidating all the results;
  2. The authors were so open about this – usually questionable research practices are more hidden;
  3. None of the three reviewers, nor the editor, has spotted this blatant statistical mistake – even though it’s a textbook example of a QRP and the journal has an astronomical impact factor.

The second reason is reassuring to some extent: it is clear that there’s no ill intent from the authors. Without proper and thorough statistical training, it actually sounds like a good idea. Rather than collecting a sample of, say, size n = 50, let’s see step by step if we can work with a smaller sample. Especially when you are conducting animal studies (like these authors are), it’s your ethical obligation to select the sample size as efficient as possible.

My tweet about this yesterday received quite some attention: clearly I’m not the only one who was surprised to read this. Andrew Gelman wrote a blog post after seeing the tweet, in which he indicates that this type of sequential analysis doesn’t have to be problematic, if you steer away from null hypothesis significance testing (NHST). He makes some valid points but I think that in practice researchers often want to use NHST anyway. Below, I will outline (i) what the problem is with sequential analyses with unadjusted testing; (ii) what you could do to avoid this issue.

Unadjusted sequential testing

The story here holds true for all kinds of tests, but let’s stick to a straightforward independent t-test.  You begin with 2 mice in each group (with 1 mouse per group, you cannot compute the within-group-variance, thus cannot conduct a t-test). You put some electrodes in their brains, or whatever it is you have to do for your experiment, take your measurements and conduct your t-test. It gives a p-value above 0.05. It must be because of the small sample, let’s add another mouse per group. Again, non-significant. You go on, and on, and on, until you reach significance.

If there is no effect, a single statistical test will yield a false positive, so p < 0.05, in 5% of the times. This 5% is something we think is an acceptable percentage for the false discovery rate (although you can make a motivated choice for another rate – but that’s another discussion). If you would do two independent tests (and there is no effect), you would reach a significant result 1 – (1 – 0.05)2 = 90.25%, and with k tests, this is 1 – (1 – 0.05)k, which goes towards 1 pretty fast if k goes up. This is the basis behind the Bonferroni correction.

Here, the situation is slightly different: you’re not performing independent tests. The p-value for a t-test with 30 measurements will be not too dissimilar from a p-value for a t-test with those 30 measurements and 1 more. Still, the multiple testing issue remains – albeit not as severe as with independent tests. You can prove mathematically (don’t worry, I won’t do that here) that with this sequential approach it actually is guaranteed (i.e. probability of 1) that you will reach significance at some point. Even if there is no effect! This approach will give a guaranteerd false discovery rate of 1 – and that is as bad as it sounds…

Example

We can use a computer simulation to see what happens. This is a situation in which H0 is true: there is no effect, i.e. both groups are not different. Rejecting H0 in this situation is an error (Type I error). In the picture below, I did just what I described: starting with n = 2, I kept on increasing n by 1. As you can see, the p-value ‘converged to significance’ at n = 42. But it also moved away from it! At n = 150, we’re kind of back where we started, with a very non-significant p-value.

Sequential p-values: at n = 42, we ‘dive under’ the 5% threshold.

 

Simulation

So, in this instance it happened at n = 42. With a new simulation it might happen at some other point, but two things are for sure: you will reach significance and you will reach non-significance after that…

Let’s now study how bad the problem is. I simulated 1000 of these sequential strategies, and recorded at what value of n significance was reached for the first time. Sometimes you’re “lucky” and have it with a small n, sometimes you have to wait for ages. The simulation results are as follows:

False discovery rate for sequential strategy.
The blue curve indicates independent tests, the red one dependent tests.
Same picture as above, now zoomed in to the area with n < 25.

As you can see, the problem is huge. Even if you would apply some rule where you stop the strategy once n = 25, your False Discovery Rate exceeds 25%, more than five times what you want.

Note that this problem not only affects the p-values, but also the estimates. Using this strategy, the distance between the means of both groups will sometimes increase, sometimes decrease – just as a consequence of coincidence. If we continue sampling until the means of the experimental and control group are sufficiently far apart in order to call it significant, it means we overestimate the effects. Not only is the significance biased, so is the effect size.

So, in an attempt to ‘use’ as few animals as possible – something that should be applauded – the authors actually and accidentally invalidated their study, leading to more test animals that are used unnecessarily…

So, what can we do?

Hopefully, I’ve managed to explain that unadjusted sequential analysis is problematic. It is, however, possible to still apply this approach – increasing your sample size in small bits until you meet some threshold. The main difference is that the threshold should not be taken fixed at 5%, but should take the issue of multiple testing into account. The mathematical backbone to this approach was developed in the 1940’s by Abraham Wald, with a pivotal paper in 1945. Around the same time, and independent of Wald, British war hero and polymath Alan Turing derived a similar approach based on Bayesian reasoning. This sequential approach helped Turing to crack the German Enigma machines and thus saved millions of lives.

These sequential approaches are more technical than the standard t-test, and they are usually not included in easy to use software packages. Recently, several people have written accessible tutorial papers on how to perform such a sequential analysis. A good starting point is this paper by Daniel Lakens.

Conclusion

In their paper, Franz Weber and colleagues used an incorrect method to decide upon the sample size. As a consequence, all test results in this paper are invalid. How this passed peer review in a top journal, is difficult to understand, but these things happen. It’d be interesting to see how Nature Communications deals with the aftermath of this paper…

Amsterdam is geweldig (maar dat is toeval)

NWO heeft afgelopen week 35 Vici-beurzen uitgedeeld.  Er lopen nu zo’n 35 dolgelukkige onderzoekers rond die meer geld krijgen dan ze nodig hebben. (NWO had ook zo’n 250 onderzoekers met een kleinere beurs, goed voor een promovendus, blij kunnen maken, maar dit soort megabeurzen schijnen goed te zijn voor de rankings ofzo – dat verder geheel terzijde.)

Een opvallend iets aan die beurzenregen is dat de Universiteit van Amsterdam het verrassend goed doet: 11 van de 35 beurzen gaan naar de UvA. En dit is natuurlijk reden voor ophef op de sociale media.

Zelfs de Amerikaanse president bemoeit zich ermee (fake news alert).

Het Amsterdamse universiteitsblad Folia heeft geen verklaring hiervoor kunnen vinden. Een verklaring die dan overblijft, is dat het toeval is. Maar hoe uitzonderlijk is zoiets?

Laten we in de cijfers duiken. Landelijk zijn 233 aanvragen gedaan en zijn er 35 (15%) gehonoreerd. Bij de UvA zijn 11 van de 31 (35%) aanvragen gehonoreerd. Dus bij de rest van het land zijn 24 van de 202 (12%) aanvragen gehonoreerd. Omdat 35% best veel meer is dan 12% – bijna 3x zoveel – klinkt dit als een enorm verschil. Maar met kleine aantallen maakt een beursje meer of minder flink wat verschil: toeval kan een behoorlijke rol spelen. We kunnen toetsen hoe toevallig deze uitkomst is.

UvA Rest van Nederland
Aangevraagd

31

202

Gehonoreerd

11 (35%)

24 (15%)

Een manier om dit te doen is via de exacte toets van Fisher. (Detail: er zijn verschillende manieren. In grote lijnen geven ze voor deze data dezelfde conclusies.) Er van uitgaande dat de honoreringskans bij de UvA niet afwijkt van die in de rest van het land, is de kans op minstens een zo opvallende uitkomst als nu 1,1%. Dat klinkt onwaarschijnlijk. Doorgaans gebruikt men een 5% kans als grens tussen ‘significant’ en ‘niet significant’ (ook al zijn er prima redenen niet altijd maar 5% te nemen) dus het klinkt zelfs significant onwaarschijnlijk.

Maar: er is een aantal maren in te brengen. Ten eerste zijn er meer universiteiten dan de UvA. De kans op zulk toeval precies bij de UvA gebeurde is dan wel slechts een op de 90, de kans op zulk toeval bij een van de 14 VSNU-universiteiten is een stuk groter: zo’n 14% (1 – (1 – 0,011)14). Ook keert de NWO elk jaar ongeveer dit aantal Vici’s uit. De kans, puur gebaseerd op toeval, dat het eens in de vijf jaar ergens zo opvallend goed gaat als nu bij de UvA, is al meer dan 50% (1 – (1 – 0,011)5*14 = 0,54).

Vergelijk het met een loterij. De kans dat jij bij de volgende trekking wint, is behoorlijk klein (tip: niet meedoen is, gemiddeld genomen, voordeliger). De kans dat iemand wint, is echter 100%. Maar ook die persoon had van tevoren een behoorlijk kleine kans. Zo ook hier. Had je van tevoren voorspeld dat de UvA het in 2017 onwaarschijnlijk goed had gedaan, dan was dat een knappe voorspelling geweest. Maar dat zoiets zo nu en dan ergens gebeurt, is niks geks aan. En ook wel zo leuk voor de UvA. Ze halen daar al ja-ren-lang geen Spinozapremies of Nobelprijzen, het dak waait van de gebouwen en je moet college volgen in een drijvende tent. Vanuit hun underdog-positie gun je ze ook wel eens een pleziertje. 😜

Een andere mogelijke verklaring zit hem o.a. in de scheve verdeling van toekenningen. Bèta-aanvragen doen het zo’n 1,5 tot 2x beter dan aanvragen uit de alfa- en gamma-hoek. Universiteiten die bovengemiddeld veel aanvragen van natuur- en scheikundigen hebben, geven zichzelf daarmee een mooie voorsprong.

Samengevat: het klinkt opvallend, maar eigenlijk valt dat dus wel mee. (Statistiek doet dat wel vaker, interessante feitjes verpesten met nuance.) Maar als NWO als gevolg van dit toeval volgend jaar bewust meer geld naar andere universiteiten wilt sturen (hint: Groningen), heb ik daar geen bezwaar tegen.

Nieuwe Ranking: Meest Groningse Universiteiten

Hier in Groningen houden de beleidsmakers wel van een ranking waar Groningen goed in scoort. Zo zijn wij onlangs verkozen tot een van de top 12 Groenste universiteiten van de hele wereld en bij het overzicht van de beste universiteiten van minimaal vierhonderd jaar oud staan we zelfs in de top 8. Het aantal verschillende rankings groeit explosief en de Wet van de Grote Getallen dicteert dat er uiteindelijk wel een ranking moet komen waar Groningen niet gewoon goed scoort, maar het allerbeste van de hele wereld. Om het toeval een handje te helpen, presenteren we bij dezen een nieuwe ranking: die van de Meest Groningse Universiteiten™. Weinig verrassend staat de RUG fier bovenaan deze ranking. De opmars van Duitse universiteiten in de top van de lijst toont het internationale karakter van Groningen aan, hetgeen natuurlijk terugvloeit tot de in Greetsiel geboren Ubbo Emmius. Opvallende afwezige is de Hanze University of Applied Sciences. Hoewel er geografisch zeer goed gescoord werd door dit instituut, werd zij gediskwalificeerd omdat zij in het Nederlands geen universiteit is. Hetzelfde geldt voor de Martinitoren.

We hebben zelfs een logo geknutseld!
Kosten nog moeite: We hebben zelfs een logo geknutseld!

 

We houden je niet langer in spanning, hier is de top 10:

  1. Universiteit Gent, België

Hoewel deze academie sinds 2003 anders heet, wordt hij nog steeds liefkozend “die andere RUG” genoemd. Nèt goed genoeg voor een plekje in de top 10!

  1. University of Minnesota, Minneapolis & St. Paul, VS

Op een kleine anderhalf uur rijden van Groningen, Minnesota ligt de universiteit van Minnesota. Aangezien er in Groningen, Minnesota geen hogere onderwijsinstelling is, zijn de 30 inwoners van Groningen aanwezen op de University of Minnesota in de twin cities.

  1. University of Tasmania, Australië

De enige universiteit ter wereld die (indirect) vernoemd is naar een Lutjegaster. Absoluut een +1 voor Abel, want dat zien we Arjen Lubach of Klaasje van K3 nog niet zo snel voor elkaar krijgen.

  1. Universiteit van Basel, Zwitserland

Vloeistoffen zouden zich maar raar gedragen als ze zich niet zouden houden aan de Wet van Bernoulli. Bernoulli publiceerde hierover toen hij in Bazel werkte, maar de inspiratie kwam ongetwijfeld uit zijn jeugd in Groningen.

  1. University of North Carolina, Chapel Hill, VS

Elke ranking heeft wel zo’n universiteit er tussen waarvan je denkt “wat doet die daar?” Om deze ranking zo echt mogelijk te laten lijken, is hier de wenkbrauwfrons-universiteit.

  1. Universiteit Leiden, Nederland

Leiden teert qua reputatie graag op de Nobelprijs voor de Natuurkunde die haar werknemer Heike Kamerlingh Onnes ontving. (Dat mag, hier in Groningen vernoemen we hele stadsdelen naar Amsterdammer Frits Zernike.) HKO had die prijs natuurlijk nooit gewonnen, als hij niet eerst geboren en gepromoveerd was. Beiden in Groningen, waar anders.

  1. University of Glasgow, Glasgow, Schotland, VK

Als je op “University of G” googlet, is deze universiteit de eerste suggestie na de RUG.

  1. Carl von Ossietzky Universität Oldenburg, Duitsland

Dit is de enige universiteit buiten de provincie Groningen op minder dan een uur reisafstand per weg.

  1. Georg-August-Universität Göttingen, Duitsland

Het begint met een ‘G’ en eindigt met ‘ingen’. Weinig universiteiten zijn zo dicht bij Groningen als deze.

  1. Rijksuniversiteit Groningen, Nederland

Hashtag ergaatnietsbovengroningen.

No, the resit exam is not more difficult

It’s January. Exam time. And for the unfortunate ones, next month is resit-exam time. Each year I get the same complaints after the resit exam, so I’ve decided to write a blog post about it. From now on, complaining students will receive no more than the hyperlink to this blog.

Each year, I end my course with an exam. For those that have to miss the exam due to force majeure, a resit opportunity exists. Fortunately, it’s a relatively small number of students that have to miss the exam due to illness, bereavement, etc. The resit opportunity is also open to students that did participate in the first exam, but failed.

Most of the time, the pass rate of the resit exam is considerably lower than the pass rate on the first exam. Students – and especially those that failed the resit exam – see this as proof of some evil plan of mine: I made the resit much more difficult than the first opportunity. Why else would the pass rate be lower? Statistics don’t lie!

True, they don’t. But people – including students that fail a statistics course two times in a row – are prone to misinterpreting statistics. And they are misinterpreting the numbers here.

The grade a student receives at an exam depends on three aspects: (1) his/her proficiency (usually a combination of motivation and intelligence); (2) the difficulty level of the exam; (3) coincidence (being (un)lucky with guessing multiple choice questions, ‘not having a good day’, etc.).

Let’s make a thought experiment. Suppose that all students would participate in both the first opportunity as the resit exam. That way, you end up with two grades for everyone. Let’s keep things easy and only look at whether a student passes or fails the exam opportunity.

Let’s make up some numbers now (homework exercise: re-do this example with different numbers and observe that the conclusion still holds true). Suppose we’ve got 100 students  (because 100 is easy to compute with). Here they are:

Opportunity 2
Pass Fail
Opportunity 1 Pass 48 10
Fail 12 30

As you can see, the pass rates of Opportunity 1 (48% + 10% = 58%) and Opportunity 2 (48% + 12% = 60%) are comparable; the performance on the resit is actually even slightly better.  Nearly half the students are able to pass twice, nearly a quarter of students passes once, and 30 students won’t pass this year.

This, however, is not data that you would observe in reality. The students that pass the first opportunity need not take the second one. (Even more so: if you pass the first and earn the course credits, you will lose these again by failing in the resit). Thus, we only observe the resit-results for those that failed the first opportunity:

Opportunity 2
Pass Fail
Opportunity 1 Fail 12 30

Now the pass rate suddenly is 12/42 = 28.6%, much lower than the 58% pass rate of the first opportunity. Thus, the fact that the resit exam has a much lower pass rate than the first opportunity exam does not imply that the resit exam is more difficult. If you still believe it does, you don’t receive a passing grade on your statistics exam.

Thanks to Nynke for proofreading.

One more time: NWO, Gender Bias and Simpson’s Paradox

As an introduction, a summary of the history behind this blog post:

  1. On September 21st, Romy van der Lee and Naomi Ellemers published a paper in PNAS in which they claim to have found compelling evidence of gender bias against women in the allocation of NWO Veni-grants in the period 2010-2012.
  2. The day after, I posted a blog post in Dutch criticising this study (and they day after that an abridged version in English). In these posts, I explained how the significance of the result is due to Simpson’s paradox – thus a statistical artefact rather than true evidence for gender bias. This blog post sparked an amount of public interest which was new to me. I normally publish on linear algebra, (minor) improvements to statistical procedures and other topics that are generally regarded as boring. This time, I’ve been interviewed by Nature, Science and various Dutch academic newspapers. (Great evidence on how post-peer review and blog posts are Science 2.0 – but that’s another topic).
  3. Last week, an abbridged and updated version of my blog post appeared as a peer-review letter in PNAS.
  4. Independently, Beate Volker and Wouter Steenbeek had their letter published in PNAS a few days later.
  5. Van der Lee and Ellemers responded to both letters (response 1 and 2). In their response they misinterpret the consequences of the Simpson’s paradox. I wasn’t planning on responding again – my time is limited – but since they repeat this incorrect interpretation in multiple responses as well as in the newspaper, I find it important to outline why their statistical reasoning is flawed.

In this blog post I will outline that a correct interpretation of Simpson’s paradox results in insignificance of many p-values and not just the one I focussed on in my criticism. In their response to my letter, Van der Lee and Ellemers wrote:

“Further, Simpson’s paradox cannot explain that fewer women than men are selected for the next phase in each step of the review procedure”

In their response to Volker and Steenbeek, they phrased this as:

“Simpson’s paradox also cannot account for the observation that in every step of the review procedure women are less likely than men to be prioritized.”

With this response, they refer to Figure 1:

Figure 1 from Van der Lee and Ellemers (2015)
Figure 1 from Van der Lee and Ellemers (2015)

It is clear from this figure that the gender bias seems to increase in each step of the process. It is true that I, in my letter, focussed on gender bias in the final step – the number of awarded grants. This, however, was due to the word count limit that PNAS imposes and not because the other steps cannot be explained by Simpson’s paradox as well: they can.

It is easier to show this through a constructed example, rather than the true NWO data. Suppose that the setting is as follows. The funding agency has two research disciplines, A and B. Both receive 100 applications and through three stages (pre-selection, interviews, awards) it is decided who gets funded. In neither field A nor field B gender bias is present: gender is no issue in this example. However, the percentage of applications by women differs per field, and so does the amount of applications that receives funding.

Field A receives 100 applications: 75 by men and 25 by women. Finally, 40 applications will be funded. So 60 applicants receive bad news, which is equally distributed over the three steps: in each step, 20 scientists will be disappointed. In the case of total absence of gender bias (and coincidence), this leads to the following table:

 Field A # M # F % M % F
Step 0: Applications 75 25 75% 25%
Step 1: Pre-selection 60 20 75% 25%
Step 2: Interviews 45 15 75% 25%
Step 3: Funding 30 10 75% 25%

As you can see, in each step the gender ratio is 75%-25%. No gender bias at all.

Field B also receives 100 applications: 50 by men and 50 by women. Out of these 100, only 10 will be funded: in each step 30 applications lose out. This leads to the following table:

 Field B # M # F % M % F
Step 0: Applications 50 50 50% 50%
Step 1: Pre-selection 35 35 50% 50%
Step 2: Interviews 20 20 50% 50%
Step 3: Funding 5 5 50% 50%

Thus also no gender bias in Field B. If we combine the tables for fields A and B (by simply adding up the frequencies for each cell), we obtain:

 Field A + B combined # M # F % M % F
Step 0: Applications 125 75 62.5% 37.5%
Step 1: Pre-selection 95 55 63.3% 36.7%
Step 2: Interviews 65 35 65.0% 35.0%
Step 3: Funding 35 15 70.0% 30.0%

Converting these percentages into a graph similar to Van der Lee and Ellemers’ Figure 1 provides:

Figure 1 example

The pattern from the table and figure is very clear: in each step of the process men seem to be favoured at the cost of women. Although the percentages for this example are obvious different than those from the NWO-data, the type of pattern is the same. Since in my example there is no-gender bias whatsoever, Van der Lee and Ellemers’ claim that “Simpson’s paradox also cannot account for the observation that in every step of the review procedure women are less likely than men to be prioritized” evidently is false. The power of paradoxes should not be underestimated.

As a final note: as outlined above, the significant results claimed by Van der Lee and Ellemers is lost once correct statistical reasoning is applied. It is important though to realise that the absence of  significant gender bias does not imply that there is no gender bias. There could be and it is important to find out whether – and where! – this is the case or not. To conclude, I quote Volker and Steenbeek, who write:

More in-depth analyses with statistical techniques that overcome the above-mentioned issues are needed before jumping to conclusions about gender inequality in grant awards.

Vraagtekens bij LSVb-onderzoek dat vraagtekens bij Engelse vaardigheid van docenten zet

English summary: A Dutch Student Union did some research and complains about the stone coal english of university teachers. I complain about the quality of the research.

TL;DR: het onderzoek van de LSVb trekt duidelijke conclusies. Die hadden niet getrokken mogen worden omdat (i) de feitelijke steekproef te klein is en (ii) de steekproef niet representatief is.

De LSVb kwam vandaag in het nieuws met haar onderzoek naar taalvaardigheid van docenten bij hbo en universiteit. Dit onderzoek kan grote impact hebben – zo vindt morgen in de Tweede Kamer een hoorzitting over Engels in het Hoger Onderwijs plaats, waar iemand namens de LSVb dit onderzoek zal verdedigen. Het zou dus fijn zijn als de conclusies uit dit onderzoek hout snijden. En dat doen ze niet. Niet eens een beetje.

Qua gebruikte methodologie zitten er twee grote haken en ogen aan het onderzoek: de steekproefomvang en de representativiteit van de steekproef.

Steekproefomvang. Voor het onderzoek hebben n = 269 studenten enkele vragen beantwoord (p.5). Omdat het onderzoek grotendeels gaat over (de kwaliteit van) Engelstalig onderwijs, zijn studenten die alleen maar Nederlandstalig onderwijs krijgen niet zo relevant voor dit onderzoek.  Bijna een kwart van de deelnemers (24%, p.8) heeft geen enkel studie-onderdeel in het Engels. Dit zijn 64 of 65 studenten (ik ken alleen de afgeronde percentages), zodat er maar 204 a 205 relevante studenten overblijven (laat ik aardig zijn en van 205 uit gaan). Da’s niet veel (ongeveer 4 à 5 studenten per onderwijsinstelling). Vooral omdat een volgend kwart van de studenten (26%) minder dan de helft van de vakken in het Engels heeft. Zij moeten hun uitspraken dus baseren op misschien wel dat ene college dat ze ooit in het Engels hadden. Het spreekt voor zich dat zij daarmee een minder goed beeld van de algemene Engelse taalvaardigheid van docenten hebben dan van studenten die 60ECTS per jaar in het Engels doen. Het aantal studenten in de steekproef dat minimaal een halve studie in het Engels krijgt, is dus zo’n 135.

Wat is nu het probleem met een kleine steekproef? Onzekerheid. Je bent niet geïnteresseerd in de mening van de steekproef, maar in die van de populatie van alle duizenden studenten in het hoger onderwijs. Je gebruikt de steekproef enkel om daar iets over te kunnen zeggen. En hoe kleiner de steekproef, hoe minder je kan zeggen. Stel je gooit 4x met een dobbelsteen en werpt daarbij twee keer een zes. In je steekproef heb je bij 50% van de worpen zes gegooid, maar het zou niet bij je opkomen om daaruit te concluderen dat de dobbelsteen onzuiver is. Het kan gewoon toeval zijn.

Zo ook hier. Een van de hoofdconclusies in het rapport is dat de meerderheid van de studenten het niveau van Engels van docenten ondermaats vindt. (Althans, deze conclusie is de kern van de kop boven het bericht.) In de steekproef heeft namelijk 57% dit aangegeven. Maar dat betekent niet dat in de populatie ook precies 57% dit vindt: door toeval kan het zo zijn dat de steekproef wat te kritisch, of juist niet kritisch genoeg is. En hoe kleiner de steekproef, hoe groter de rol van het toeval.

Een veelgebruikte manier om die onzekerheid uit te drukken is via een betrouwbaarheidsinterval. Kort door de bocht gezegd neem je met zo’n interval een onzekerheidsmarge mee. Er zijn verschillende manieren om in deze context zo’n interval te maken (als je daar meer over wilt weten, Wikipedia is een goed startpunt) en een snelle, makkelijke manier is via de benadering met een normale verdeling. Een 95% betrouwbaarheidsinterval voor een geschatte proportie p wordt dan gegeven door de formule p ± √(p (1 – p) / n). In dit geval komt het er op neer dat het betrouwbaarheidsinterval gegeven wordt door (50%, 64%).  Waarschijnlijk wel een meerderheid, maar hoe sterk die meerderheid is, is niet goed te schatten. En zelfs “waarschijnlijk wel een meerderheid” is niet hard te maken vanwege het probleem met representativiteit.

Steenkool
Het obligate blogplaatje. Ditmaal: steenkolen

Representativiteit. De LSVb maakt gebruik van een eigen studentenpanel van 5000 studenten. Er wordt niet duidelijk gemaakt hoe dit panel is samengesteld. Mogelijk is het een mooie, representatieve afspiegeling van de Nederlandse studentenpopulatie. Maar het kan ook zijn dat dit 5000 studenten zijn die “ja” antwoordden op de vraag “wil je in het panel” van de LSVb. En dan kan het best een vertekend panel zijn: bij een vakbond zie je bovengemiddeld vaak van die aktivistiese (zo spellen ze dat), shag-rokende types. De bedrijfseconomiestudent die bij het corps zit omdat hij, net als z’n pa, later iets bij een bank wil doen, is wat ondervertegenwoordigd. Maar het representativiteitsprobleem houdt hier niet op – het begint juist: van die 5000 hebben er maar 269 meegedaan met deze enquête. Dat is 5,4%. Dat is weinig. Dat is een probleem. Met name omdat je niet weet welke vijf procent meegedaan heeft. Zijn het de vijf procent die best tevreden zijn, de vijf procent die graag hierover willen klagen, of een mooie willekeurige steekproef? Je weet het niet en je kan het ook niet te weten komen. Het minste dat de onderzoekers hadden moeten doen, is in de discussie van hun rapport hierop reflecteren, maar er staat geen letter over in. Ze zouden er goed aan doen om dit recente stuk van Sanne Blauw en Armen Hakhverdian te lezen: Sanne en Armen leggen haarfijn uit wat voor rare uitspraken je kan krijgen als je niet goed over de representativiteit nadenkt.

Ten slotte. De conclusies die het LSVb trekt, had zij niet op deze manier mogen trekken. Op basis van dit onderzoek zijn slechts twee open-deur-conclusies te trekken:

  • Uit het onderzoek blijkt dat een deel van de studenten tevreden is over de taalvaardigheid van hun docent.
  • Uit het onderzoek blijkt dat een deel van de studenten ontevreden is over de taalvaardigheid van hun docent.

Dat betekent niet dat er morgen in de Tweede Kamer geen debat hierover kan plaatsvinden. Er zijn goede inhoudelijke redenen om Engels in het hoger onderwijs toe te juichen en er zijn goede inhoudelijke redenen om Engels in het hoger onderwijs juist niet te willen. Een inhoudelijk debat kan gevoerd worden. Maar niet op basis van dit LSVb-rapport.

NWO, Gender bias and Simpson’s paradox

This blog post is an abridged and translated version of  my blog post in Dutch. A version of this blog post, further abridged to fit within the 500 word limit, has been submitted to PNAS as comment to the paper Gender contributes to personal research funding success in The Netherlands.

In the early seventies, the University of California, Berkeley received sincere negative attention due to supposed gender bias in graduate admissions. The data for fall 1973 clearly seemed to point in this direction:

Nr. of applications admissions
Male 8442 44%
Female 4321 35%

Out of 8442 male applicants, 44% was admitted, whereas out of the 4321 female applicants, only 35% was admitted. The χ2-test on the 2×2 frequency table (or any other sensible test for 2×2 tables) will give a very significant result, with a p-value smaller than one in a billion. A scrutiny of the data in Science by Bickel, Hammel and O’Connel (1975) revealed that there was no evidence for gender bias. This apparent counterintuitive result was due to the interaction with an external variable. Not all departments at the university had the same admission rate, and there was a relation between the proportion of female applications and the admission rate.

Competitive departments such as English received relatively many female applications, whereas departments such as chemistry, with a surplus of male applications, where much less selective. When studying the male/female admissions on a departmental level, the supposed gender bias disappeared. (For the fall 1973 data, there even was evidence of bias in favour of women.) This paradox is termed spurious correlation or Simpson’s paradox, after the British statistician Edward Simpson. (For a recent open access paper on Simpson’s paradox in psychological science, see Kievit, Frankenhuis, Waldorp and Borsboom, 2013.)

The authors, correctly, point at another pitfall: although there seemed to be evidence of bias (in favour of women) for fall 1973, there is no such evidence for other years. A significant result once in a number of years, could just be coincidence.

In the analysis by Van der Lee and Ellemers the same two flaws occur in a setting not too dissimilar from the one discussed above. Based on the results of n = 2,823 grant applications to the “VENI programme” of the Netherlands Organisation for Scientific Research, NWO, in the years 2010, 2011 and 2012, the authors conclude that the data “provide compelling evidence of gender bias in personal grant applications to obtain research funding”. One of the main results this claim is based upon the following table:

applications Succesfull
Male 1635 17,7%
Female 1188 14,9%

When applying a standard χ2-test to the data, the authors find a just significant p-value of .045. It is not only questionable to denote a p-value this close to 0.05 as “compelling evidence”, due to Simpson’s paradox, this p-value simply is wrong.

In the supplementary table S1 (Van der Lee and Ellemers, 2015), available online without paywall, a breakdown of the 2,823 grant applications per discipline is presented. The proportion of female applicants varies from 11.8% (physics) to 51.4% (health sciences), and the total succes rate varies from 13.4% (social sciences) to 26.3% (chemical sciences).

Proportion of applications by female scientists vs total success rate. Size of the markers is proportional to number of applications within the discipline.
Proportion of applications by female scientists vs total success rate. Size of the markers is proportional to number of applications within the discipline.

The figure above visualises these data and immediately shows a clear negative relation between the proportion of female applicants and the total succes rate (i.e. the rate for men and women combined). In four out of the nine disciplines, women have a higher succes rate than men, and in five out of nine, men have a higher succesrate than women. When taking into account that multiple comparisons are performed, for none of the disciplines the gender bias – either in favour of women or in favour of men – is significant (at the α = .05 level). Thus, when taking into account the spurious correlation, the “compelling evidence” is lost.

Bickel et al. (1975) pointed at a second pitfall, concerning focussing on the year(s) where the difference was signicant and ignoring the other year(s) where it was not. Again, a similar situation occurs here. NWO publishes the results of all VENI rounds since its establishment in 2002 until 2015 (except for 2012) on its website. In some years, such as 2011, men received relatively more grants than women; and in other years, such as 2010 and 2015, the reverse was true. The z-test for log-odds ratio only provides a significant sign of gender bias in favour of men for the years 2010 (z = 2.002, p = .023) and 2011 (z = 1.752, p = .040) and a significant gender bias in favour of women for 2002 (z = 2.005, p = .022). When applying the Bonferroni correction for multiple comparisons none of these gender biases are significant.

Conclusion. Van der Lee and Ellemers failed to recognise the dependence of the results on the different NWO disciplines. Futhermore, they focused on results during a three-year, whereas the results of the other periods in which VENI-grants where provided did not confirm the just significant results for 2010-2012. As a consequence, the conclusion of “compelling evidence of gender bias” is inappropriate. In the data, there is no evidence for gender bias (which does not have to mean that there is no gender bias). In discussions on institutional sexual discrimination, it is important to stay factual.

Furthermore, I find it worrying that this analysis gets published.  Simpson’s paradox is one of statistics most well-know paradoxes (I teach it yearly to a new batch of psychology students in Groningen) and PNAS is a high-ranking journal with an impact factor of nearly ten. This paper – where conclusions are drawn on basis of flawed methodology – is not an exception. Apparently, the current peer-review system is inadequate in filtering out methodological flaws in papers. If a system doesn’t work, it should be changed.

Final note. The paper by Van der Lee and Ellemers focusses on more tests than just the one criticised by me here. However, these other tests make use of related data (e.g. the number of applicants that go through to the interview-stage) and it is not unlikely that Simpson’s paradox plays a role there too. (The data provided in the paper was insufficient for me to check this.) And even if it does not: the authors are providing interpretations to effects with tiny effect sizes (partial eta-squareds of 0.006(!))… Furthermore, the paper contains a section on “language use” in NWO documents. My comments do not apply to this section.

NWO, Discriminatie en de Simpsonparadox

Begin jaren ’70 was er ophef in de media: de Universiteit van Californië in Berkeley discrimineerde bij het toelaten van studenten. De toelatingscijfers van 1973 waren duidelijk:

Aantal kandidaten Toegelaten
Mannen 8442 44%
Vrouwen 4321 35%

Mannen worden vaker toegelaten dan vrouwen. Met een statistische toets is na te gaan of deze cijfers niet gewoon toeval hadden kunnen zijn. Er zijn verschillende toetsen die geschikt zijn voor dit soort analyses (de een wat geschikter dan de ander), zoals de chi-kwadraat toets (eventueel met continuïteitscorrectie) of de exacte toets van Fisher. Welke geschikte toets je ook neemt, het antwoord is duidelijk: de kans dat deze vrouwonvriendelijke resultaten het gevolg van toeval zijn is verwaarloosbaar klein: kleiner dan 1 op een miljard.

Een rechtzaak volgde vanwege dit overduidelijk geval van discriminatie. Een team van statistici uit Berkeley, onder leiding van Peter Bickel, besloot de data nader te bestuderen. Hun conclusie, beschreven in het paper “Sex Bias in Graduate Admissions: Data from Berkeley” (paywall) in Science, is duidelijk: er is helemaal geen sprake van discriminatie.

Wat was het geval? Vrouwen bleken zich, in het algemeen, aan te melden voor studies waarbij een lager toelatingspercentage gold vergeleken bij de studies die voor mannen populair waren. Zo was er een faculteit (faculteit ‘B’ noemt Wikipedia deze; ik kan de data van Bickel et al zelf ook niet inzien vanwege de paywall) waar bijna twee-derde van de aanmeldingen gehonoreerd werden, terwijl bij een andere faculteit (‘E’) slechts een kwart werd toegelaten. En wat bleek: de toegankelijke faculteit B was veel populairder bij mannen (560 aanmeldingen) dan bij vrouwen (25 aanmeldingen) terwijl de strenge faculteit E twee keer zo veel vrouwen (393 stuks) als mannen (191 stuks) moest beoordelen. Indien rekening gehouden werd met de verschillen in strengheid van de verschillende faculteiten, verdween de discriminatie volledig. (Sterker nog: bij vier van de zes faculteit lag het toelatingspercentage van vrouwen hoger dan dat van mannen).

Dit fenomeen staat bekend als de Simpsonparadox, vernoemd naar de Britse statisticus Edward Simpson die in 1951 een paper getiteld “The Interpretation of Interaction in Contingency Tables” publiceerde (semi-paywall). Dit femomeen is breed bekend.

Tot zo ver de jaren ’70. September 2015 was er ophef in de (sociale) media: NWO discrimineert bij het toekennen van onderzoeksbeurzen. In opdracht van NWO zelf, hebben Leidse psychologen Romy van der Lee en Naomi Ellemers zich verdiept in de door NWO toegekende subsidies van de rondes van het VENI-subsidieschema uit 2010-2012. Hun paper “Gender contributes to personal research funding success in The Netherlands” (paywall, maar het ‘supplementary material’ is dan weer wel gratis) verscheen onlangs in PNAS. De cijfers zijn duidelijk:

Aantal Beursaanvragen toegekend
Mannen 1635 17,7%
Vrouwen 1188 14,9%

De cijfers zijn wellicht niet zo overduidelijk als die van het voorbeeld uit Berkeley, maar mannen krijgen inderdaad relatief vaker een beurs toegekend. De auteurs zelf schrijven “The success rate was systematically lower for female applicants than for male applicants [14.9% vs. 17.7%; χ2(1) = 4.01, P = 0.045, Cramer’s V = 0.04]”. De p-waarde zit nèt onder de magische 5%-grens, dus het is significant, dus het is bewezen: NWO discrimineert! Althans, dat was de strekking van de krantenkoppen. Maar zo simpel ligt het niet. Op de hier gebruikte methodiek kom ik onderaan deze post nog terug, maar mijn hoofdbezwaar is dat hier ook duidelijk sprake is van de Simpsonparadox.

In de online tabel zijn de toekenningspercentages uitgesplitst naar de 9 verschillende onderzoeksprogramma’s van NWO. En wat blijkt: er is zowel een enorm verschil in het aandeel van vrouwen bij de aanvragen per programma (variërend van 11% tot 51%) als een enorm verschil in honoreringskans per programma (variërend van 13% tot 26%):

Relatie percentage vrouwelijke aanvragers (horizontaal) en honoreringskans (verticaal)
Relatie percentage vrouwelijke aanvragers (horizontaal) en totale honoreringskans (mannen & vrouwen gezamenlijk) (verticaal)

Het aandeel vrouwelijke aanvragers is het hoogst bij ZonMW (gezondheidswetenschappen) en MaGW (Maatschappij- en Gedragswetenschappen) en dit zijn precies de twee programma’s met de slechtste honoreringskans. Het aandeel vrouwelijke aanvragers is het laagst bij Natuurkunde (een bedroevende 11%), het programma met de hoogste honoreringskans.

Van de negen programma’s zijn er vier waarbij vrouwen een hoger honoreringspercentage hebben dan mannen: Exacte wetenschappen, Geesteswetenschappen, ‘Technologiestichting STW’ en ‘Gebiedsoverschreidend’. Bij de overige vijf programma’s, Scheikunde, Natuurkunde, Aard- en Levenswetenschappen, MaGW en ZonMW, halen mannen net betere resultaten.  In geen der gebieden is het verschil zodanig dat – ermee rekening houdend dat meervoudige toetsen worden uitgevoerd – het verschil significant genoemd kan worden.

Oftewel: het discriminatievermoeden wordt in dit geval niet zo extreem sterk onderuit gehaald als in het klassieke voorbeeld uit Berkeley, maar wel sterk genoeg om te zien dat er niet geconcludeerd kan worden, op basis van deze data, dat er sprake is van discriminatie. NB: het tegendeel – er is geen sprake van discriminatie – kan ook niet geconcludeerd worden. De enige conclusie is dat uit de cijfers geen solide conclusie te trekken valt.

Tot zover de Simpsonparadox bij de NWO-cijfers. Nog enkele andere opmerkingen:

1) De cijfers per NWO-programma duiden naar mijn mening wel op een vorm van geïnstitutionaliseerde discriminatie: in geen van de negen onderzoeksprogramma’s vormen vrouwen de duidelijke meerderheid terwijl er in vier van de negen programma’s minstens twee keer zo veel mannen een aanvraag doen als vrouwen. Dit zijn nog steeds de bètarichtingen als scheikunde, natuurkunde, exacte wetenschappen en technologie (STW). Maar die vorm van discriminatie valt NWO niet (direct) aan te rekenen: dat is een maatschappelijk probleem dat op alle niveaus aangepakt moet worden. Het land heeft meer Ionicas Smeets, Ashas ten Broeke, Hannahs Fry en genderneutraal voedsel nodig, maar de rol die NWO daarin kan spelen is beperkt.

2) Ik zou nog terugkomen op de zin “The success rate was systematically lower for female applicants than for male applicants [14.9% vs. 17.7%; χ2(1) = 4.01, P = 0.045, Cramer’s V = 0.04]”. Bij deze. De chi-kwadraattoets is niet de meest geschikte toets om toe te passen bij 2×2 tabellen met frequenties. Dit omdat de chi-kwadraat een zogenaamde asymptotische toets is: hoe kleiner de frequenties in de tabel, hoe onnauwkeuriger de data. Een veelgebruikte correctie die die onnauwkeurigheid deels weghaalt, is die van Yates. Als je die toepast, verandert de p-waarde minimaal (want we werken hier met best grote frequenties): van 0,045 naar 0,051. Het verschil is minimaal, maar het springt wel nèt over de magische 5%. Als je met grote stelligheid een p-waarde vlak onder 5% als een duidelijk effect presenteert, zou je met dezelfde stelligheid een p-waarde daar vlak boven als “geen effect gevonden” moeten afdoen. Een ander alternatief – en beter omdat het geen asymptotische benadering is – is de exacte toets van Fisher. Deze geeft p = 0,046 (hoera! net aan de significante kant!). Er is eigenlijk geen enkele reden om de Fishertoets niet te gebruiken. Het enige nadeel is dat deze computationeel veel zwaarder is dan de chi-kwadraat toets. Dat was een terecht nadeel in de jaren ’20, toen Fisher die test ontwikkelde en Turing de moderne computer nog niet had uitgevonden. Anno 2015, kost de Fishertoets op deze data mijn computer 3 milliseconden.

3) Niet alleen is de p-waarde net wel/net niet significant, de effectgrootte is minimaal: Cramer’s V was gelijk aan 0,04. Als er al een verschil zou zijn tussen toelatingskansen van mannen en vrouwen, dan zou dit verschil erg klein zijn. Een klein beetje discriminatie is natuurlijk nog steeds ongewenst, maar de combinatie van minieme effectgrootte en nauwelijks significante p-waarde vereisen een veel voorzichtigere conclusie dan de conclusie “The data reported herein provide compelling evidence of gender bias in personal grant applications to obtain research funding.” van Van der Lee en Ellemers. (Hierbij moet wel opgemerkt worden dat de auteurs nog andere zaken bekeken dan alleen de 2×2 tabel die ik hier besproken heb. Maar ook met die extra gegevens is er geen statistische aanleiding tot grootspraak.)

4) De auteurs hebben de VENI-data van 2010, 2011 en 2012 bekeken. We zijn inmiddels alweer even verder. Zo kregen in 2015 14,9% van de vrouwen en ‘slechts’ 13,9% van de mannen de door hun gewenste beurs. Zou dit jaar bij de analyse betrokken zijn dan was – zelfs met de oppervlakkige chi-kwadraattoets die Van der Lee en Ellemers hebben toegepast – er niks overgebleven van de significante resultaten.

5) Los van de discussie over discriminatie laten de cijfers wel een schokkend iets zien: zowel voor mannen als voor vrouwen is het honoreringspercentage extreem laag. Dit houdt in dat er jaarlijks honderden wetenschappers zijn die enkele maanden van hun academisch leven besteden aan het schrijven van een voorstel dat uiteindelijk de prullenbak in gaat. Daar gaan dus duizenden en duizenden manuren èn vrouwuren aan verloren. Inmiddels wijst onderzoek na onderzoek uit dat de huidige manier van wetenschappelijke subsidies mogelijk meer nadelen dan voordelen heeft.

6) Deze hele discussie kent wat nare kanten – zo komen er wéér twee sociaal psychologen in het nieuws vanwege rammelend statistisch onderzoek – maar kan mogelijk ook tot goede ontwikkelingen leiden: zoals Daniël Lakens en Rolf Hut vandaag al in de Volkskrant schreven: het is een goede zaak dat NWO de aanvraagprocedure gender-neutraal maakt.

7) Als iemand weet waarom beide Volkskrantartikelen hierover (1 en 2) vergezeld gaan van een foto onze Koningin, dan hoor ik het graag. Ik zie de link tussen discriminatie, wetenschap en Máxima niet zo…

Deze blogpost is mede tot stand gekomen dankzij discussies met o.a. Daniël LakensMenno de Guisepe, enkele andere twittergebruikers en wat mailwisselingen met collega’s binnen en buiten Groningen. Mijn dank hiervoor.

Inference for correlations

I’m currently updating my course materials, aimed at undergraduate students in psychology, for next academic year.  Since the text book is lacking a (thorough) description on how to do inference (hypothesis testing and confidence interval construction) for the product-moment correlation coefficient, I’ve written something myself.

It might be useful for someone else who feels that the text books aimed at social sciences students are lacking this information (and the text books aimed at mathematics students are too technical for other students), so I’ve put a copy here. Feel free to use it.