Zou het nu toch werkelijkheid worden? Dat iedereen – of vooruit, misschien alleen bedrijven – gaan beschikken over een glazen bol waarin ze de toekomst kunnen zien? Ik las in de krant dat het algorithme oprukt in de bestuurspraktijk. Het “wenkende perspectief” is predictive policing. Met data komen we er straks achter waar in de stad bijstandsfraude, hennepaanplant of schoolverzuim het grootst is. Het bericht liet zien hoe big-data plannetjes werkelijk overal de kop op steken en ook hoe weinig we na blijken te denken over de vraag hoe wenselijk dat eigenlijk is.
Wenkend perspectief. Het zong nog wel even door mijn hoofd. Ik dacht ècht? Predictive policing? Onwillekeurig moest ik aan de film Minority Report denken. Drie “precogs” – een soort helderziende dames – liggen in een tank met draden aan hun hoofd en stellen de politie in staat misdaden te voorspellen; en zodoende ook te voorkomen. Tot dat de precogs voorspellen dat een van de politieagenten, gespeeld door Tom Cruise, zelf een moord zal begaan. Spanning alom.
Dat beeld van die precogs is heel treffend. Het is magisch, technisch, realistisch. Niemand weet precies hoe die precogs kunnen voorspellen, maar de draden aan hun hoofd suggereren dat het allemaal heel hightech is – en dat het heus wel zal kloppen wat de dames voorzien. En wat maakt het ook uit dat we niet weten hoe het werkt, als de voorspellingen maar juist blijken te zijn. De vraag die in Minority Report aan de orde komt is “wat als de politie een hele goede glazen bol had”? Technische snufjes helpen om dat idee voor de moderne mens geloofwaardig te maken.
En daar staan we dan, met onze big data en algoritmes. Daarmee kunnen we de mensen van passende advertenties voorzien, we kunnen verkiezingen kantelen – en als het een beetje meezit kunnen we binnenkort wat criminelen oppakken, nog voordat ze hun misdaad begaan hebben! Niemand weet precies hoe die algoritmen werken – ook de makers niet, maar het perspectief lonkt alvast.
Wat moeten we hiervan denken? Ik was deze week bij een praatje van een mevrouw van Google, die een goede uitleg gaf van hoe dit soort algoritmes werken, maar ook een ontnuchterend verhaal hield over die hele big data hype. In een notendop was haar boodschap om er niet teveel achter te zoeken: big data is gewoon statistiek, maar dan beter. En: science fiction is een verkeerde raadgever als het om het begrijpen van nieuwe technologieën gaat.
Met dat eerste ben ik het eens, maar met dat laatste niet. De verwachtingen rondom big data zijn duidelijk overspannen. Het is gewoon statistiek en hoewel het aardig lukt om een idee te krijgen van welk boeken we interessant vinden zijn veel andere problemen nog veel te moeilijk voor computers. Maar, science fiction geeft ons wel degelijk een inkijkje in wat er kan gebeuren als we ons teveel door die ontwikkelingen laten meeslepen. Minority Report legt het probleem, of eigenlijk de twee problemen, van het gebruik van zulke voorspellingen feilloos bloot.
Het eerste probleem is natuurlijk dat voorspellingen alleen maar accuraat kunnen zijn als we ze niet gebruiken. We kunnen voorspellen wat er allemaal voor naars gaat gebeuren door de klimaatverandering, maar als we daardoor de klimaatmaatregelen gaan treffen die er voor zorgen dat het lekker koel blijft op aarde, dan komen die voorspellingen niet uit.
We voorspellen wat het klimaat gaat doen in de hoop het nog te kunnen veranderen. Maar als we het veranderen klopt de voorspelling niet meer. We kunnen dus niet tegelijkertijd een betrouwbare voorspelling doen en naar die voorspelling handelen. Het gebruik van de voorspelling haalt de basis – de aanname dat de dingen grosso modo hetzelfde blijven- onder de voorspelling weg.
Het tweede probleem is dat het oneerlijk is om iemand te straffen voor iets waarvan alleen maar voorspelt is dat hij het gedaan heeft. In Minority Report worden criminelen opgepakt voordat ze hun misdaad gedaan hebben: en dus gestraft voor iets wat helemaal niet gebeurd is. Iedereen voelt aan dat daar iets niet in de haak is; hoe nauwkeurig die precogs ook mogen zijn.
Jammer genoeg doen we dit vaak genoeg. We voorspellen studiesucces om studiekeuze te bepalen, waarmee we het behalen van een slechte studievoorspelling afstraffen met een mindere opleiding.
Als voorspellingen alleen geldig zijn in een wereld die niet te beïnvloeden is, is het niet goed om het lot van mensen er van afhankelijk te maken. We zadelen ze dan op met dingen die nog niet gebeurd zijn en dankzij de voorspelling misschien ook wel niet gaan gebeuren. Hoe goed we ook in voorspellen kunnen worden, het gebruik ervan deugt gewoon niet.
Veel van de dingen die misschien gaan kunnen met big data en algoritmen moeten we dus helemaal niet willen. We gaan onszelf voor de gek houden door stevig in te zetten op voorspellingen en die we vervolgens intensief willen gebruiken. En die twee dingen gaan niet samen. Er is niets lonkends aan predictive policing, het is een nachtmerrie.
Gelukkig is er die andere vaststelling van de big data specialisten: het zal zo’n vaart niet lopen. Die big-data voorspellingen worden nooit zo goed als dat we nu denken en we zullen, met vallen en opstaan, ook wel leren om er verstandig mee om te gaan.
Anderzijds, dit zijn natuurlijk ook maar voorspellingen.
Meer lezen?
In in opdracht van de tijd, ga ik uitgebreider in op wat er mis kan gaan als je switcht van voorspellen naar beinvloeden. In IQ ga ik dieper in op de nadelen van het voorspellen van studiesucces.