Ik word altijd treurig als ik zie hoe in Nederlandse discussies morele en normatieve statements worden gemengd met uitspraken over data waarvan niemand de herkomst begrijpt.
Nooit wordt ingegaan op onzekerheden, redundanties in de dataset, convidence levels, correlaties, afhankelijkheden, en causale en niet-causale verbanden. Nooit wordt eens uitgelegd hoe de regressies of Pricipal Component Analyses werden uitgevoerd, en hoe werd omgegaan met verschillende datatypen.
Met andere woorden: de technieken die gebruikt worden om de informatie uit de complexe, grillige data te trekken worden onder het tapijt geveegd. Daarmee worden de interpretaties van de statistieken ten onechte tot feiten gepromoveerd.
Bijna net zo erg is het dat er bijna nooit de tijdsontwikkeling van statistieken getoond worden. Uitspraken worden gedaan van het type: zoveel procent doet dit, verdient dat en denkt zus of zo. Statistiek in de Nederlandse debatten is dus altijd statisch. De tijdsevolutie van statistieken bepalen nu echter juist of beleidsmaatregelen het gewenste effect hadden, en op welke tijdschaal we succes mogen verwachten.
Het kan ook naders. Hans Rosling geeft in deze vermaarde TED talk een inzcht hoe data gevisualiseerd kunnen worden, en tijdsevoluties gevolgd kunnen worden. Must see!
Je kritiek doet me denken aan de kritiek die je ook kunt formuleren t.a.v. opinie-peilingen. Er zijn misschien trends uit af te leiden, maar veel heeft het in feite niet om het lijf.
Klopt! Maar opiniepeilingen doen vaak geen schade. Erger wordt het als er pre-selecties worden gemaakt in data, en groepen oneigenlijk met elkaar worden vergeleken of als de beperktheid van bepaalde testen niet wordt beschreven. Ik ben overigens nog steeds voor je bezig 😉
Ik ben er niet helemaal zeker van of opiniepeilingen zo onschadelijk zijn. Politici reageren erop en passen beleid aan wat welbeschouwd verschuivingen in de foutenmarge zijn. Ik heb wel eens het idee dat de journalistieke werkelijkheid Job Cohen de kop heeft gekost.
Mee eens… Denk ik over na!