Helix

Ik kan me weinig onderwerpen voor de geest halen waar vormonderzoek zoveel impact had dan bij het onderzoek naar de structuur van het DNA. De ontdekking van James Watson, Francis Crick, Maurice Wilkins en Rosalind Franklin in 1953, vormde een belangrijke schakel in de bewijsketen van de evolutietheorie, is de eerste grote mijlpaal in het vakgebied van de microbiologie en veranderde het onderzoek van de erfelijkheidsleer definitief.

Dat is allemaal mooi, maar het allermooiste aan deze ontdekking is misschien dat er een heel smakelijk boekje over geschreven is door één van de onderzoekers. James Watson gaf in ‘The Double Helix’ een kijkje achter de schermen en liet zien hoe de ontdekking in zijn werk ging. Althans zijn versie ervan, want de bijdrage van de andere onderzoekers – en met name die van Rosalind Franklin – worden als bijzaak weggezet. Nog mooier dan het boekje zelf is dan is misschien de controverse die er over ‘The Double Helix’ ontstond.

De ontdekking zelf hing ook van toeval en intriges aan elkaar. Dat begint al met het onderwerp. Het lag op dat moment helemaal niet voor de hand om de structuur van DNA te gaan onderzoeken. Begin jaren 50 was het nog onzeker of DNA wel een rol speelde in erfelijkheid. Onderzoekers namen aan dat erfelijke informatie in de cel moest worden vastgelegd en ook wel dat elke cel deze informatie moest bevatten. Maar er zijn allerlei eiwitten in de cel en de informatie zou best eens verdeeld kunnen zijn over verschillende eiwitten. Dit was eigenlijk ook de heersende visie.

Dat de vier onderzoekers zich op DNA gingen toeleggen had te maken met experimenten aan bacteriën in de jaren 40 die suggereerden dat DNA wel eens een grote rol zou kunnen spelen bij de erfelijkheid. Maar het was zeker niet zo dat men al dacht dat DNA de enige drager van erfelijk materiaal zou zijn en het was ook niet duidelijk dat het blootleggen van de structuur van het molecuul zou kunnen helpen dit te aannemelijk te maken.

Daarnaast was het iets dat moeilijk te achterhalen was. De techniek om de structuur van moleculen bloot te legggen stond nog in de kinderschoenen. Men gebruikte daar Röntgenstraling voor, maar dit soort straling kon niet door lenzen worden afgebogen, waardoor er niet zoiets bestond als een röntgenmicroscoop. Wat wel kon was iets met Röntgenstraling bestralen en dan kijken hoe de straling afboog. Afhankelijk van de buigingspatronen kon je de aspecten van de moleculaire structuur ‘ herleiden. Het was een zeer pittige experimentele techniek omdat het materiaal wat bestraald werd heel goed geprepareerd moest zijn en omdat bij te complexe materialen er niets meer te herleiden viel omdat de buigingspatronen te ingewikkeld waren. De bijdrage van Rosalind Franklin in het onderzoek is geweest om deze techniek te perfectioneren en toe te passen op zoiets complex als het DNA.

Maar in ‘The Double Helix’ gaat James Watson eigenlijk niet in op dit experimentele werk. Het boekje leest eerder als een schelmenroman. Hoofdpersoon James Watson is een 24 jarige onderzoeker, vrij lui, arrogant en egocentrisch, maar wel hongerig om een grote ontdekking te doen. Hij is niet het soort onderzoeker dat zich bezighoudt met details en stukje bij beetje een techniek ontwikkelt om precieze metingen te doen, maar meer iemand die ideeën sprokkelt en dan op basis van gissingen en intuïties probeert tot dingen te komen die natuurlijk, wel een beetje belangrijk en baanbrekend moeten zijn want anders telt het niet. Francis Crick is hierin zijn partner in crime, maar ook wel zijn geweten – iemand met meer senioriteit, die de kritische vragen stelt.

Het balletje gaat rollen als Watson een presentatie ziet van Linus Pauling van een onderzoek naar een ander biologisch molecuul. Het heeft toevallig ook de vorm van een helix, maar dat is niet wat het meeste indruk maakt. De onderzoeker is achter de structuur gekomen door op basis van de Röntgenbeelden een model te maken van het molecuul. Ongeveer zoals je dat vroeger bij scheikunde gedaan zal hebben door bolletjes die atomen moesten voorstellen met stokjes te verbinden. Dat spreekt Watson aan: het moet voor hem op basis van wat er van DNA bekend is toch ook mogelijk zijn een model van DNA te maken en misschien levert dat dan wel iets interessants op!

Dus gaan Watson en Crick aan de slag met hun moleculaire Lego, maar ze hebben er weinig succes mee.
Er is simpelweg te weinig van DNA bekend om zo’n structuur meteen te kunnen bouwen en met behulp van de Röntgentechnieken van Wilkins en Franklin kunnen ze wel iets meer te weten te komen, maar de relaties zijn niet bepaald warm. Daarbij hebben ze andere wetenschapsopvattingen: Wilkins en Franklin willen eerst de data laten spreken en Watson en Crick en speculeren er op los. Wat ook niet helpt is dat Watson en Crick geen steun krijgen voor hun werk in hun eigen lab: men ziet weinig in het onderwerp en ze boeken te weinig progressie.

Toch sprokkelt Watson stukje bij beetje de elementen bij elkaar die hij nodig heeft. Welke moleculen aan de binnenkant zitten en welke aan de buitenkant; het gegeven dat de aminozuren waarmee de dwarsverbindingen in DNA gemaakt worden in gelijke hoeveelheden voorkomen; het feit dat ook DNA een helixstructuur heeft en welke afstand er tussen de verschillende ringen moet zitten. Het meeste hiervan haalt hij uit foto’s die Franklin genomen heeft, maar die hij door de grote antipathie tussen de twee alleen indirect weet te verkrijgen. Het bouwwerk dat ze uiteindelijk maken is nog altijd een gok, maar het is een erg mooie oplossing, hetgeen voor Watson en Crick reden is aan te nemen dat het wel waar moet zijn.

Waarom is die structuur zo van belang? Het is zeker een mooie structuur die mooi dat die nu als symbool voor erfelijkheid dient, maar die culturele betekenis zal de natuur natuurlijk weer worst wezen. Dus wat wel?

Watson en Crick drukken het in hun artikel als volgt uit.

“It has not escaped our notice that the specific pairing we have postulated immediately suggests a possible copying mechanism for the genetic material.”

De ‘ontdekking’ die in de structuur omsloten is, is dat het laat zien hoe je een precieze kopie kan maken van een gen. De dwarsverbanden in de dubbele helix kunnen uit verschillende aminozuren bestaan, maar er zijn wel vaste paren van aminozuren. Bij celdeling kan het molecuul dus doormidden gesneden worden waarna de 2 helften aangevuld kunnen worden met nieuw materiaal. Door de vaste paring kan dat maar op één manier, waardoor de kopie precies hetzelfde moet zij als het origineel.

Het was destijds een kernprobleem hoe genetisch materiaal zo goed intact kon blijven als het bij elke celdeling opnieuw gekopieerd moet worden. De structuur van Watson en Crick loste dat op. De consequentie van dat inzicht is dat de genetische informatie omsloten zit in de aminozuren die de bruggen vormen. Elke brug vormt dan een letter die exact overgeschreven wordt bij deling. Dit geeft op haar beurt weer een verklaring voor de diversiteit van levensvormen die allemaal DNA als erfelijk materiaal hebben. Er kan immers op deze manier heel verschillende informatie opgeslagen worden in DNA (bijvoorbeeld voor verschillende dieren), die toch exact behouden blijft bij elk kopie. Samen leiden deze aspecten van de structuur tot de conclusie dat DNA de drager van het genetische materiaal van levensvormen kan zijn.

‘The Double Helix’ laat zien hoeveel gokwerk er nodig was om tot deze structuur te komen, en hoe dun het bewijs voor deze structuur bij publicatie was. Laat staan voor de verdergaande conclusies die we er nu makkelijk aan kunnen verbinden. Het boekje verkondigd ook Watsons visie dat wetenschap in de eerste plaats om ideeën gaat en pas in de tweede plaats om experimenteel werk. En voor de oplettende lezer laat het zien hoe veel dat wringt. De waardeloze samenwerking tussen Watson en Franklin wordt door Watson bijvoorbeeld breed uitgemeten, maar de schuld wordt natuurlijk bij het karakter van Franklin gelegd en het feit dat ze een vrouw is. We vinden geen wroeging over dat Watson en Crick haar metingen ‘leenden’ zonder daar credits voor de ontdekking tegenover te stellen, terwijl het evident is dat ze zonder haar metingen nergens kwamen.

Dit is ook het mooie van het boekje. Het gebruikt een van de belangrijkste ontdekkingen uit de geschiedenis om de slechte kanten van de wetenschap te belichten. Het gaat niet bepaald over alle waarborgen van zorgvuldigheid die je aan het wetenschappelijk bedrijf mag vragen. Het gaat om het spel en het sociale proces met al haar intriges, die ook een rol spelen binnen dat systeem.

Dat brengt Watson veel bravoure, waar je kritisch op kan zijn. Hij heeft immers een voorbeeldfunctie. Maar ik zie het meer als een karakterrrek van Watson. De onderzoeker die met Lego de structuur van DNA hielp ontdekken is dezelfde als de onderzoeker die schaamteloos schreef over de rafelrandjes van die ontdekking. Watson was steeds iemand die zich weinig aantrok van hoe dingen horen. Ik vind het moeilijk dat niet charmant te vinden.

Wel heb je je als lezer de plicht om je ook te verdiepen in de perspectieven van de andere spelers. Bijvoorbeeld door ‘Rosalind Franklin and DNA’ van Anne Sayre te lezen. Dit boekje belicht de ontdekking vanuit het perspectief van een persoon die een voorbeeldiger wetenschapper was – en als je het mij vraagt degene die, meer nog dan Watson, aanspraak kan maken op de titel ontdekker van de structuur van het DNA.

Meer lezen?

Ik schreef eerder over evolutietheorie in evolutiesnelheid en over gedachtenexperimenten als een manier om de wetenschap verder te brengen. Ik schreef over wetenschapssociologie in Lableven en De zwarte dozen van Latour.

Voor dit blogje maakte ik gebruik van The Double Helixs van James Watson en Rosalind Franklin and DNA van Anne Sayre. De quote komt direct uit het oorspronkelijke artikel van Watson en Crick.

Gedachtenmeting

Technologieontwikkeling heeft ons denken over het brein beïnvloed doordat we het brein proberen te begrijpen vanuit de werking van die machines: zoals het idee van het brein als een telefooncentrale of het brein als een computer.

Maar dankzij de technologie kunnen we ook steeds slimmere metingen aan het brein doen. Toegegeven: ook de leerlingen van Aristoteles deden aan empirische breinwetenschap – door het uiterlijk van het brein van verschillend dieren te vergelijken. Maar de moderne technologie stelt ons in staat om in levende breinen activiteit te meten, om in te grijpen in het denken met elektronica en om precieze het brein na te bootsen in computermodellen. Dat is machtig gereedschap.

Hoe ver brengt al dit technologische geweld ons eigenlijk bij het begrijpen van het brein? De moderne wetenschap is versnippert in allerlei specialismen en dit geld ook voor het onderzoek aan het brein. Laten we er eens een aantal van bekijken.

Geheugen
Ik heb het eerder in deze serie al gehad over de lokalisatie gedachte : dat bepaalde taken op een bepaalde plek in het brein worden uitgevoerd. Maar we kunnen dit idee natuurlijk toepassen op het geheugen. Als ik aan mijn oma denk, heb ik daar dan een specifieke cel of een klein groepje cellen bij nodig?

Het idee van lokalisatie van het geheugen heeft een grote impuls gehad door de experimenten van neurochirurg Wilder Penfield. Hij liet zien dat als het brein op specifieke plekken gestimuleerd wordt mensen zeer specifieke, levendige herinneringen rapporteren – alsof ze het op dat moment meemaakten. De suggestie dat die herinnering op die specifieke plek is opgeslagen is dan ook sterk. Ook de verwerking van zintuiglijke informatie was volgens Penfield gelokaliseerd hetgeen resulteerde in het beroemde homunculus plaatje: waar de hersenen zijn afgebeeld met specifieke delen van het lijf waar ze aan gekoppeld zijn.

Toch wierpen deze bevindingen niet meteen het idee dat herinneringen juist gedistribueerd werden opgeslagen tegen. Een probleem was dat de herinneringen die Penfield kon oproepen heel anders zijn dan normale herinneringen. Ze waren heel levendig en vol detail, terwijl ‘normale’ herinneringen juist vaag zijn en veel met veel raadwerk aan elkaar gehouden worden. Bovendien was zijn stimulatie vrij grofmazig waardoor het nog altijd de vraag is wat hij precies stimuleerde. Een andere vraag was hoe een herinnering precies in een hersencel opgeslagen kan zijn.

Deze laatste vraag werd beantwoord door Donald Hebb. Hij stelde dat het brein leert door het netwerk van neuronen aan te passen. Erik Kandel toonde later aan de hand van zeeslakken aan dat Hebb’s hypothese correct was. Geheugen werkt via het versterken en verzwakken van connecties in het brein. Dit netwerkidee sluit niet uit dat specifieke cellen aan specifieke herinneringen gekoppeld zijn, maar hoe ‘lokaal’ of ‘geïsoleerd’ die netwerken zijn is een open vraag. We weten simpelweg niet hoeveel cellen samen een herinnering vangen, of die dicht bij elkaar zitten – en in hoeveel herinneringen elke cel een rol speelt.

Het vermogen om nieuwe herinneringen op te slaan kan kapot gaan. De patiënt Henry Molaison werd bijvoorbeeld voor epilepsie behandeld met een breinoperatie waarin delen van het brein worden verwijderd (lobotomie) – een behandeling die wel op schizofrene patiënten werd uitgevoerd.

Daarna kom Henry geen nieuwe herinneringen meer opslaan. Oude herinneringen waren nog prima en werkte zoals altijd, maar nieuwe gebeurtenissen sloeg hij gewoon niet op. Henry is uitgebreid onderzocht en daardoor hebben we veel geleerd over het brein, maar een van de meest duidelijke dingen is dat er een specifiek hersengebied is: de hypocampus, waar de opslag van herinneringen geregeld word.

Inmiddels weten we zoveel van de biochemische kant van leren, dat we valse herinneringen in muizen kunnen inplanten met elektronica. Bepaalde cellen waarvan we weten dat ze betrokken zijn bij het herkennen van een bepaalde geur worden gestimuleerd samen met cellen die met beloning te maken hebben. Vervolgens herkennen muizen die geur, ook al hebben ze hem nooit eerder in het lab geroken.

Het onderzoek van de neurologie van het geheugen is dus wat paradoxaal. We weten erg veel en we begrijpen het brein zelfs zo goed dat we het kunnen controleren, terwijl we tegelijkertijd nog altijd geen antwoorden op basale vragen hebben over hoe herkenningen worden opgeslagen.

Cirquits
Aangezien we weten dat herinneringen in netwerken van cellen worden opgeslagen, is het dan niet mogelijk om het brein te leren kennen door het simpelweg in kaart te brengen? Dat wil zeggen door vast te stellen welke neuronen met welke verbonden zijn?

Wetenschappers hebben dit op verschillende manieren proberen te doen. Één manier is om het gedrag van individuele neuronen bestuderen in het lab en in het brein. Dit onderzoek is begonnen met katten. Onderzoekers verdoofden een kat, maten de activiteit van één van de hersencellen als gevolg van lichtinval in het oog. De cel bleek alleen gevoelig voor een lijn die verticaal bewoog. Andere vormen en bewegingen hadden geen effect. Het idee was geboren dat cellen hoogst gespecialiseerd zijn.

Mensen zijn ook op deze manier onderzocht. Ook daar bleek specialisatie. Er bleken bijvoorbeeld cellen bij proefpersonen die reageerden op afbeeldingen Jennifer Aston en niet op andere gezichten of beelden.

Toch is de conclusie dat er zoiets bestaat als een Jennifer-Aston-cel niet helemaal terecht. De cel is immers verbonden in een netwerk. De ‘code’ voor de actrice kan verdeeld zijn over heel veel cellen waar deze cel toevallig een deel van uitmaakt. En de cel kan bijdragen aan andere codes waar we geen weet van hebben omdat die niet getest zijn.

Door onze focus op die ene cel verliezen we het totaal uit het oog – en daardoor weten we eigenlijk nog steeds vrij weinig. De indruk die wel ontstaat is dat er een hiërarchie bestaat in het brein, waarbij sommige cellen gevoelig zijn voor veel verschillende stimuli en anderen die veel meer gespecialiseerd zijn, waarbij de gespecialiseerde cellen veel bijdragen aan de herkenning van een bepaald concept. Maar wat die ‘topcel’ dan precies codeert is alsnog een grote vraag.

Als je niet teveel wil inzoomen op een enkele cel kan je als wetenschapper ook de bedrading als geheel onderzoeken: welke cellen zijn precies met elkaar verbonden? Dit wordt het connectome genoemd. Dit is alleen voor de meest eenvoudige dieren te doen. Een enkele hersencel kan verbindingen hebben met tientallen andere cellen en dat kan wel 30m bedrading betekenen.

In de jaren tachtig lukte het voor een wormpje: C.elegans. Het wormpje heeft 900 cellen, waaronder 300 neuronen. Seymour Benner kreeg er de Nobelprijs voor. Inmiddels wordt aan een diagram van de fruitvlieg larve gewerkt. Daarmee lijkt iets wat ook maar in de verste verte lijkt op de complexiteit van een zoogdierenbrein nog ver weg.

En dan is de vraag wat die bedrading laat zien. Onderzoek liet zien dat bij verantwoordelijkheden op verschillende manieren in het netwerk terecht kunnen komen. Met andere woorden voor zover we al een eenduidig antwoord uit te halen is over wat de fysieke bedrading is, dan kan hersenactiviteit nog altijd op verschillende manieren door die bedrading ontspinnen. Cellen kunnen verschillende rollen aannemen. Dat roept de vraag op hoe dit breinkaart project ooit inzichten gaat opleveren waar we direct mee doorkijken. Op zijn minst zullen we moeten modelleren wat er op die infrastructuur gebeurd.

Computers
Daar komen computers weer van pas het brein kan softwarematig gesimuleerd worden. Vroege pogingen lijken op wat nu het neurale netwerk genoemd wordt. Er is een input en een output en stukjes software daar tussen in (verborgen lagen) die signalen bewerken en doorgeven aan andere cellen.

In principe is dit een krachtig model van hoe het brein werkt en het heeft ons lerende en patroonherkennede computers gebracht, maar weinig inzicht in hoe het brein werkt. Op zich kan je monitoren hoe de software veranderd op basis van een leertaak, maar dat heeft zo weinig inzicht gebracht dat van AI gezegd wordt dat het een soort alchemie is. Soms werkt het goed, maar soms ook niet en niemand lijkt te kunnen begrijpen waarom dan.

Een indrukwekkende loot aan deze stam zijn brein-computer interfaces. Via een implantaat bouwen wetenschappers een directe link tussen het brein en een computer. Mensen kunnen zo met hun brein een prothese leren besturen en er zijn ook pogingen protheses voor de zintuigen, zoals de ogen, te maken. Het lijkt het ultieme bewijs dat we het brein zo goed begrijpen dat we het onder controle kunnen krijgen, maar feitelijk zien we hoe twee lerende systemen zich op elkaar aan kunnen passen. Het brein leert de input van de prothese verwerken, de prothese leert patronen in de elektriciteit van het brein te herkennen. Die lerende systemen blijken succesvol samen te kunnen werken en, hoe indrukwekkend dat ook is, het leert ons weinig over de precieze werking van het brein.

Chemie
Tot nu toe hebben we vooral de elektrische kant van het brein besproken, maar het brein is ook een chemische fabriek.

De ontdekking van LSD luide een tijdperk in waarin de chemie van het brein volop in de belangstelling kwam te staan. De werking werd toevallig ontdekt door Albert Hofman in 1943 toen hij het stofje, ontwikkeld als middel om beter te kunnen ademen tot zich nam en tijdens een fietstochtje in een hallucinante trip belande.

Er was wel bekend dat er stoffen waren die je stemming konden beïnvloeden, maar zulke sterke en precieze effecten op het brein waren onbekend. Al snel werden ook andere stoffen ontdekt zoals antidepressiva en lithium. De ontdekking van deze stoffen viel ongeveer samen met de vaststelling dat de overdracht van neuroactiviteit chemisch en dus niet elektrisch van aard is. Het had een enorme impact op de psychiatrie (destijds nog in de ban van psychoanalytica), maar na deze vruchtbare beginperiode liep de vondst van psychoactieve stoffen dood.

Er werden honderden chemische stoffen geïdentificeerd die op verschillende tijdschalen een effect op het brein hebben, waardoor er een nieuwe laag van complexiteit aan ons begrip van het brein werd toegevoegd. Alsof een brein dat puur elektrisch werkt al niet ingewikkeld genoeg was. Helaas begrijpen we nog weinig van de precieze rol van al deze stoffen en is het toedienen van psychoactieve stoffen aan het lichaam een vrij grofmazige methode om het brein mee te behandelen. Daarom – en omdat er al jaren geen goede kandidaten zijn – loopt dit onderzoek een beetje dood.

Lokalisatie
Naast lokalisatie van het geheugen is ook lokalisaties van functie nog altijd een onderwerp van onderzoek. Dit onderzoek nam in de tweede helft van de 20e eeuw een grote vlucht door fMRI. fMRI is een indrukwekkende scanningstechniek die vrij precies kan vaststellen waar er bloed door het brein stroomt. Dit wordt op haar beurt als een indicator van activiteit gezien. Vrij precies is overigens nog altijd zeer grofmazig in relatie tot individuele hersensellen: een gebiedjes van één fMRI pixel bevat 5,5 miljoen neuronen.

fMRI is populair omdat op relatief eenvoudige wijze kan worden aangetoond dat bepaalde hersengebieden actief zijn bij bepaalde taken, waarop een hersengebied voor specifieke emoties, bepaalde soorten beelden en andere stimuli geïdentificeeerd kunnen worden. Het idee achter dit programma is dat we die hersengebieden één voor één in kaart kunnen brengen, waarmee we een basis leggen om ook iets te zeggen over de samenwerking van al die gebiedjes. We kunnen de losse radertjes als het ware later weer in elkaar zetten om te laten zien hoe de machinerie van ons denken werkt.

Het probleem is echter er geen bewijs is dat zulke specialisaties bestaan. Immers dat een bepaald gedeelte actiever is tijdens een bepaalde taak zegt niet zoveel over wat het gebied precies doet en in hoeverre het steun ondervind van andere hersenonderdelen, noch hoe het zou reageren op andere stimuli. Het is vrijwel onmogelijk om op basis van al deze losse experimenten ook maar te begrijpen hoe het hersendeel zelf werkt.

En dan is er nog de vraag of die fMRI metingen zelf wel deugen. Omdat er zoveel statistiek nodig is om tot de beelden te komen is er een risico op ‘vals positieven’: experimenten met een uitkomst zonder dat er iets aan de hand was. Dat dit kan optreden is op spectaculaire wijze aangetoond door onderzoekers die een hersengebied vonden voor het herkennen van emoties in een dode zalm. Ze schreven het artikel over de dode zalm vervolgens precies op zoals onderzoekers die fMRI bij levende mensen toepassen doen, waardoor ze extra pijnlijk duidelijk maakten dat deze wetenschap niet zo sterk is als dat de auteurs zelf geloven.

Ook de interpretatie dat fMRI tenminste heeft laten zien dat lokalisatie de regel en niet de uitzondering is in het functioneren van het brein lijkt niet te kloppen. Veel experimenten laten ook zien dat veel taken in het brein gedistribueerd zijn over het hele brein. Zoals de beroemde spiegelneuronen, die eerst verondersteld werden om met weinig op een bepaalde plek te zitten, maar later toch verdeeld bleken over het hele brein. 11% van de neuronen uit de neocortex blijken spiegelneuronen te zijn. Eigenlijk is de uitkomst van al dit onderzoek dat lokalisatie nooit het hele verhaal vertelt en dat we nog altijd weinig weten van hoe het brein haar netwerken organiseert.

Lokalisatie van functies in netwerken van cellen is nog altijd een plausibele hypothese, maar die netwerken zijn zeker niet altijd ook geconcentreerd in de ruimte. De fMRI heeft dezelfde problemen als de Jennifer-Aston-cel experimenten – en die zijn nog lang niet opgelost.

Bewustzijn
Als we toch aan het meten zijn: wat zou het mooi zijn als we op een fMRI plaatje precies konden zien waar het bewustzijn zit zodat we eindelijk kunnen vaststellen dat, en hoe, het bewustzijn een product is van hersenactiviteit.

Experimenteel is dat niet triviaal. Je moet immers onbewuste hersenactiviteit met bewuste hersenactiviteit vergelijken. Maar iemand een cognitieve taak geven, zoals in fMRI gebruikelijk is werkt hier niet voor omdat dit allemaal ‘bewuste’ taken zijn.

Toch is er wel onderzoek uitgevoerd naar de ‘neurologische correlaten van het bewustzijn’. Men is begonnen met het meten van hersenactiviteit bij het ontwaken. Dat ligt voor de hand omdat we bij het slapen niet bewust zijn en bij het wakker worden wel. Dat onderzoek liep echter dood omdat het signaal te vaag was.

Ander onderzoek richtte zich op de rol van hersenhelften. Dit was mogelijk bij dieren en mensen van wie de hersenhelften operatief gescheiden waren. Dit onderzoek gaf in ieder geval sterk bewijs dat het brein een rol speelt in het bewustzijn. Bij mensen met losgesneden hersenhelften kunnen de beide helften apart van elkaar bestudeerd worden, omdat de visuele input verdeeld is. Het rechteroog is gekoppeld aan de linker hersenhelft en andersom.

De experimenten laten zien dat de twee hersenhelften allebei tekenen van bewustzijn tonen, hoewel dit makkelijker te onderzoeken is voor de linker hersenhelft waar onze taalproductie zit. Beide helften lijken zich echter op geen enkele manier van de ander bewust. De suggestie van deze experimenten is dat als je het brein splitst je ook twee verschillende bewustzijnen krijgt. Hetgeen in ieder geval de suggestie werkt dat breinactiviteit en bewustzijn sterk samenhangen.

Nieuw onderzoek richt zich op het stimuleren van bepaalde delen van het brein. Zo zijn er delen van het brein die door gestimuleerd te worden gevoelens van angst oproepen bij de proefpersonen. Of er een deel van de hersenen bestaat dat angstbewustzijn controleerde is maar zeer de vraag. Dezelfde cellen zijn bij andere processen ook betrokken.

Samengevat is er hooguit zwak empirisch bewijs voor de relatie tussen het brein en het bewustzijn. Genoeg om de stelling te ondersteunen dat het bewustzijn veroorzaakt wordt door het brein, maar niet genoeg om licht te werpen op hoe dat dan in zijn werk gaat. Er zijn in de laatste jaren theorieën ontwikkeld over deze relatie, maar overtuigend empirisch bewijs, of zelfs de definitie van hoe dat bewijs er uit moet zien is er gewoon nog niet.

Tot slot
De moderne wetenschap heeft met haar technologisch vernuft, en focus op wat meetbaar is enorm veel kennis opgeleverd over de biologie van het brein. Maar het wel de vraag of we nu ook beter grip hebben op de werking van het brein. We zien het als een orgaan dat informatie opslaat door netwerken van cellen aan te passen. Maar hoe dat in zijn werk gaat; hoe die netwerken zelf georganiseerd zijn; wat de rol is van al die chemische stoffen die bij het proces betrokken zijn en hoe belangrijk lokalisatie is? Eigenlijk weten we daar nog heel weinig van af.

We hebben er duizenden puzzelstukjes bij gekregen, maar niet zoveel nieuwe ideeën over hoe het brein zou kunnen werken waar al die puzzelstukjes in passen. In die zin kun je je afvragen of we zoveel verder zijn dan een halve eeuw geleden. Er is door het empirische geweld en de explosie van onderzoek in de neurologische breinwetenschap veel hard bewijs, maar weinig ideeën over wat we eigenlijk proberen te bewijzen.

Een kernprobleem lijkt te zijn dat het bewijs op macroniveau: “hoe reageert het totale netwerk op een impuls” slecht te koppelen is aan het mesoniveau “welke activiteit zien daarbij we in de hersenen” en het microniveau “hoe reageert één cel. Het is natuurlijk niet uit te sluiten dat die schakels snel zullen gevonden worden, maar de bottleneck lijkt eerder in ons denken over het brein te zitten dan in de metingen waar in de moderne tijd zo de nadruk op is komen te liggen.

Meer lezen?
Dit blogje is in zijn geheel gebaseerd op ‘The Idea of the Brain’ van Matthew Cobb. Het maakt het derde deel uit van een quintologie, die begon met de post ‘brein quintologie’, verder ging met ‘op zoek naar het brein’ en ‘informatieverwerker’ en nog verder gaat met ‘het onbegrijpelijke brein‘.

Ik schreef al eens over de ontwikkeling van ‘little science naar big science‘, iets dat zich spiegelt in de breinwetenschap, besprak het bewustzijn in ‘wil‘ en het geheugen in geheugenmachine.

Deze blogjes zijn natuurlijk nog het meest bedoeld om jullie lekker te maken om ‘The Idea of the Brain‘ zelf te lezen.

Op zoek naar het brein

Hoe zijn we er achter gekomen dat onze zielenroerselen: ons denken over hele spectrum van de meest alledaagse gedachten tot speculatie over de diepste vragen over onszelf en het bestaan, allemaal voortgebracht worden door een paar kilo weefsel ergens in ons hoofd?

Tot de negentiende eeuw was de vraag waar het denken plaatsvind al even urgent als de vraag hoe het denken werkt. Omdat we nog weinig wisten van de natuurkunde en de biologie, en omdat we geen apparatuur hadden om eens goed te kijken wat er nou gebeurde, laat de breinwetenschap zich tot de negentiende eeuw nog kenmerken door veel gis- en conceptueel denkwerk. Iets waar we in de huidige tijd van (ver) doorgevoerd empirisme misschien juist wat meer behoefte aan hebben.

In ‘The Idea of the Brain’ laat Matthew Cobb zien dat het denken over het brein, altijd sterk is beïnvloed door heersende theorieën buiten de breinwetenschap. Dat dat ideeën heeft opgeleverd waar we nog steeds op bouwen, mag haast niet verbazen.

Hart (tot 17e eeuw)
De eerste vraag die beantwoord moet worden is natuurlijk waar het brein zich bevind, of preciezer: waar komen gedachten en gevoelens eigenlijk vandaan. Lang was het meest gegeven antwoord daarop het hart. Dat is ook niet zo vreemd als je je bedenkt dat je hartslag veranderd als je emotioneel wordt en omdat het een actief orgaan is, net zoals de gedachten actief zijn. Zonder de biologielessen op de lagere school had je er waarschijnlijk net zo over gedacht.

Het is dan ook niet verrassend dat dit idee van het hart als drager van het denken lang dominant is geweest in de wetenschapsgeschiedenis. Overigens niet in de laatste plaats om dat Aristoteles deze visie onderschreef. Zijn gedachtegoed bleef tot in de middeleeuwen dominant in Europa.

Het idee dat het centrum van het denken in ons hoofd zit en ideeën over de functie van de zenuwen ontstonden door experimenten op mensen en dieren. Leerlingen van Aristoteles viel het bijvoorbeeld al op dat mensenhersenen een complexere vorm hadden dan hersenen van dieren, terwijl mensen ook intelligenter leken dan die dieren.

Na de Romeinse tijd lag het centrum van de wetenschap in de Arabische wereld, waar ideeën over het hart en het brein als oorsprong van ons mentale leven gebroederlijk naast elkaar bestonden. Het brein bestond misschien uit kamers met verschillende functies zoals waarnemen en inbeelden, redeneren en onthouden? Al die functies konden een eigen plek hebben in het brein. Misschien werden ze bewoond door geesten, die weer hun oorsprong in het hart hadden. Nog in de Romeinse tijd werd deze kamerhypothese weerlegd door anatomisch onderzoek. Er was in de anatomie van het brein niets te zien wat die functies kon verklaren.

Krachten (17e tot 18e eeuw)
In de wetenschappelijke revolutie mechaniseerde ons wereldbeeld. Wetenschap en techniek gingen hand in hand om oplossingen te vinden waarmee arbeid geautomatiseerd kon worden. Deze mechanische techniek werd vervolgens gebruikt als metafoor om mensen en dieren weer te begrijpen. Beroemd zijn plaatjes uit die tijd waar dieren voor het eerst als robots worden afgebeeld.

Zo verging het ook het brein. René Descartes dacht dat de geest iets fundamenteel anders was dan het lichaam en dat de eerste de laatste wist te besturen via de pijnappelklier. Het kernprobleem was hoe het brein er in kon slagen om invloed uit te oefenen op het lichaam. Dat de zenuwen hier een rol in speelden werd algemeen aangenomen, maar hoe de zenuwen hier een rol in speelde bleef een groot raadsel. Oudere ideeën suggereerden dat die invloed het gevolg was van een bepaalde zenuwlucht (pneuma) of dat het hydraulisch zou moeten gaan, via een vloeistof.

Gelukkig was de microscoop net uitgevonden. Die wees uit dat de zenuwen geen plaats hadden voor vloeistoffen of gassen. De filosoof John Locke stelde daarom voor dat het brein moest bestaan uit ‘denkende materie’. Dit werd als godlasterend gezien omdat het uitsloot dat de ziel onsterfelijk was en omdat het de mogelijkheid inhield dat dieren, maar ook niet levende objecten zouden kunnen denken – een absurde consequentie.

Elektriciteit (18e en 19e eeuw)
De opvolger van het krachtenidee was het idee van elektriciteit dat in de 18e eeuw populair werd. Hoewel dat nu een ‘correct’ idee lijkt, laat de geschiedenis vooral zien hoe weinig vooruitgang ermee geboekt werd.

Dat komt niet in de laatste plaats omdat elektriciteit zelf nog nauwelijks begrepen werd. Eerst was het nog vooral iets van circussen waar elektriciteit als rariteit getoond werd. Later kreeg men iets meer controle met de uitvinding van de condensator er later de batterij. Hoewel er bewijs was dat elektriciteit beweging kon stimuleren: in kikkerbenen en in andere dieren – en dat bepaalde sensaties elektrisch konden worden opgewekt, was geenszins duidelijk hoe dit precies samenhing met de werking van de hersenen of het brein.

Één probleem was dat zenuwsignalen veel langzamer waren dan elektriciteit in geleidende draden. Hermann von Helmholtz toonde aan dat zenuwsignalen ongeveer 30m per seconde gaan. Dat is vrij weinig, en dat roept daarom vragen op over de perceptie (die zou dus altijd achterlopen), maar ook over elektriciteit als oorzaak van het denken (daarvoor lijkt snelheid essentieel). Een ander probleem dat het niet logisch leek verschillende sensaties zoals zicht en gehoor dezelfde oorzaak zouden hebben. Ondanks dit gebrek aan bewijs was het idee van het elektrische brein populair, misschien nog het duidelijkst weergegeven in Mary Shelly’s roman Frankenstein.

Functie (19e eeuw)
In de achttiende en negentiende eeuw komt ook het idee van functie, en functielokalisatie op. Dit past in het idee van het brein als een machine.

Het idee is dat bepaalde delen van het brein verantwoordelijk zijn voor bepaalde functies. De schedelmetrie was op dit idee gebaseerd. Aan de hand van bulten in de schedel zou je iets kunnen vaststellen over iemand karakter. Schedelmetrie was altijd al controversieel en raakte uit de mode door gebrek aan bewijs.

Toch is lokalisatie geen vreemd idee. Er was bewijs doordat mensen met gedeeltelijk hersenletsel ook delen van hun vermogens kwijtraakten. En het kon experimenteel aangetoond worden dat dieren bepaalde dingen niet konden als specifiek letsel werd aangebracht. Of dat het toekennen van elektrische stoom in bepaalde delen van het brein dit effect hadden.

Dergelijke experimenten konden natuurlijk niet bij mensen gedaan worden, hoewel sommige artsen hun kans grepen als ze konden. Berucht is het experiment op Mary Rafferty, door Roberts Bartholow. Mary’s brein lag bloot vanwege een scheur in haar schedel. Bartholow zette deze, naar eigen zeggen met goedkeuring van de patiënt, op verschillende plekken onder stroom hetgeen tot verschillende onwillekeurig reacties van de patiënt leidde.

Het experiment werd met interesse én afschuw bekeken. Het gaf steun aan het idee dat het brein gespecialiseerde gebieden kent, maar het werd ook als hoogst onethisch gezien. Naast ethische vragen was er iets anders waardoor het spoor doodliep. De middelen om experimenten te doen met zwakstroom of om beschadiging toedienen op bepaalde plekken in het brein waren zó grofmazig dat er te weinig echt nieuwe ontdekkingen mee gedaan konden worden.

Evolutie (19e eeuw)
De evolutietheorie wierp een nieuw licht op alle biologie, en dus ook op het brein. Op dit moment is het lastig een theorie te bedenken over het lichaam als het niet te verklaren is hoe een en ander geëvolueerd is, maar in de tijd van Charles Darwin moest de evolutietheorie bewijzen dat het oplossingen bood voor problemen van andere theorieën.

Om eerlijk te zijn lukte dat voor het brein aanvankelijk maar matig. Darwin was heel terughoudend met zijn ideeën over de evolutie van het brein en kwam pas geruime tijd na de ‘Origin of Species’ met het boek ‘The Decent of Man’ waarin hij zijn theorie over de evolutie van intelligentie ontvouwde.

Hierin vinden we een focus op gedrag, hoe insecten sociale vermogens hebben en er gelijkenissen zijn tussen het gedrag van mensen en andere dieren en hoe huisdieren en primaten emoties lijken te hebben. Het past mooi in het gradualistische karakter van Darwins denken: mensen hebben een combinatie van eigenschappen die we overal in de natuur terugvinden en die ontstaan zijn in een lange evolutionaire geschiedenis – bepaalde aspecten van de menselijke intelligentie zijn misschien verder ontwikkelt dan bij andere dieren, maar ze zijn niet essentieel verschillend.

Het was, en het is eerlijk gezegd nog steeds, zó moeilijk voor mensen om hun uitzonderingspositie in de natuur op te geven dat Darwins ideeën tot op de millimeter bevochten werden. Nog altijd heeft een wetenschapper als Frans de Waal moeite om de wetenschappelijke gemeenschap te overtuigen dat dieren empathie kunnen hebben. En het idee dat andere dieren dan mensen bewustzijn kunnen hebben wordt nog altijd bevochten.

Een belangrijk conceptueel probleem voor de evolutietheorie is dat het geen licht werpt op de relatie tussen het brein en ons bewustzijn. Hoe produceert het brein gedachten? De evolutietheorie heeft geen antwoorden. Snel na Darwins dood werd het idee van George Romanes populair dat alle materie bewustzijn heeft. Er zou een alles doordringende telepathische substantie bestaan, die los stond van de materie, maar die er wel mee kon interacteren. In de maalstroom van speculaties over het brein verdween het idee van evolutie naar de achtergrond, omdat het nog onvoldoende overtuigingskracht had.

Tot slot
Veel ingrediënten van het moderne denken over het brein hebben wortels in in de vroege wetenschap: elektriciteit, lokalisatie van functie en evolutie. Maar deze jaren laten ook zien hoe een gebrek aan sterke ideeën over natuurkunde en biologie en -zoals we in de volgende blog zullen zien: informatiekunde – de breinwetenschap bemoeilijkten.

Er was te weinig empirisch bewijs om het denken bij te sturen. Daarom zien we in deze periode veel waardevolle speculatie en nog weinig experimenten die het denken dwingen antwoord te geven op specifieke vragen over het brein -en hoe het ons denken stuurt. Het was wachten op de twintigste eeuw waarin in de vorm van nieuwe technologie, nieuwe modellen voor het begrijpen van het brein ontstonden én waar nieuwe manieren om het gedrag van het brein te leren kennen opgang deden.

Meer lezen?
Dit blogje is in zijn geheel gebaseerd op ‘The Idea of the Brain’ van Matthew Cobb. Het maakt het tweede deel uit van een serie die begin met de post ‘brein quintologie’ en verder gaat met ‘informatiewerker’, ‘gedachtenmeting‘ en ‘het onbegrijpelijke brein‘.

Over de evolutietheorie schreef ik als eens eerder in ‘evolutiesnelheid

Deze blogjes zijn natuurlijk vooral bedoeld om jullie lekker te maken om The Idea of the Brain zelf te lezen.

Brein quintologie

Hoe denken, wij mensen, eigenlijk over onze eigen intelligentie? Matthew Cobb probeert in ‘The Idea of the Brain’ uiteen te zetten hoe het denken over het brein zich door de tijd heen ontwikkeld heeft. Dat is snoepen natuurlijk. Wetenschapsgeschiedenis is altijd al boeiend omdat het ons iets leert over hoe we, met vallen en opstaan, aan kennis komen. Maar als het onderwerp van die geschiedenis dan ook nog het orgaan is waar we die kennis mee opdoen, dan kan een beetje kentheoreticus zijn geluk niet op. Maar Cobb maakt het ons tegelijkertijd helemaal niet makkelijk. 

Cobb laat zeker zien hoeveel we meer te weten gekomen zijn over het brein in de loop van de tijd, maar ook hoeveel vragen nog open liggen – en hoe het maar de vraag is of we met de huidige wetenschappelijke aanpak antwoorden kunnen krijgen op die vragen. ‘The Idea of the Brain’ is het verslag van een onvoltooide reis. Als die reis je interesseert dan moet je het boek zeker bestellen en lezen, maar als je meer geïnteresseerd bent in de bestemming dan is het misschien verstandig om tenminste nog een paar decennia te wachten.

Afijn. Zelf vind ik dat het de reis is die telt en daarom neem ik ook wat meer ruimte dan gebruikelijk om Cobb’s ideeën te bespreken. Ik deel dit blogje op in vijf delen. Na deze overzichtspost ga ik in het tweede blogje in op de oude geschiedenis van het denken over het brein. In de oude geschiedenis moesten we leren dat onze intelligentie geproduceerd wordt door een orgaan, dat het zenuwstelsel en de hersenen dat orgaan vormen en dat het brein helaas niet eenvoudigweg uiteen te rafelen is in radertjes met een specifieke functie die samen onze intelligentie voortbrengen. 

In het derde blogje over dit onderwerp ga ik in op het brein als ‘informatieverwerkende machine’. In de vroege 20e eeuw begonnen we het brein te begrijpen als een orgaan dat signalen verwerkt, en omdat we in dezelfde tijd machines gingen bouwen die dat ook deden, zoals de telegraaf -en later- computers, dachten we dat we een aardig eind waren met het begrijpen ervan. We moesten nog leren dat het brein in een aantal opzichten fundamenteel anders in elkaar zit dan die machines.

In het vierde blogje ga ik in op hoe moderne wetenschappers het brein proberen te begrijpen door detailstudie van de processen die daar plaats vinden. Ze bestuderen hersenactiviteit in zoveel detail als mogelijk, ze proberen het brein te besturen met implantaten en ze proberen hersenprocessen na te bootsen in computers. Al die pogingen zijn op zichzelf erg indrukwekkend, maar Cobb roept wel de vraag op of we met al dat computergestuurd wetenschapsgeweld dichter bij het begrijpen van het brein gekomen zijn.

Tot slot ga ik in het vijfde blogje in op de overkoepelende lessen die we uit het werk van Cobb kunnen trekken: over het brein en over de hersenwetenschap. Over wat we weten en wat we nog mogen ontdekken en over de vraag of al dat gepuzzel wel zin heeft. Tot dan!

Meer lezen?

Dit is het eerste blogje van een serie over ‘The Idea of the Brain’ van Mathew Cobb. In het volgende blogje: op zoek naar het brein ga ik in op de oude breinwetenschappen; in informatieverwerker op de toepassing van het idee van informatie en communicatie op het brein; in gedachtenmeting op de moderne breinwetenschap; en in het ‘onbegrijpelijke brein‘ op de lessen die uit deze wetenschapsgeschiedenis getrokken kunnen worden.

Ik schreef al eens over het bewustzijn in ‘wil‘ en over de werking van het geheugen in ‘geheugenmachine

Ik schreef ook al eerder over wetenschapsgeschiedenis. Bijvoorbeeld in de wetenschapsgeschiedenis van Rens Bod en over de wisselwerking tussen informatiewetenschappen en technologie en in ‘reading James Gleick’s the information’.

Deze blogjes zijn natuurlijk vooral bedoeld om jullie lekker te maken om The Idea of the Brain zelf te lezen.

Anachronismen

Imre Lakatos, de wetenschapsfilosoof, schijnt gezegd te hebben dat de wetenschapsfilosofie leeg is zonder de wetenschapsgeschiedenis en dat de wetenschapsgeschiedenis blind is zonder de wetenschapsfilosofie

Prachtig. Het zou inderdaad vreemd zijn als filosofen, die theorieën over de wetenschap opstellen, zich niet zouden interesseren voor hoe die wetenschap zich daadwerkelijk voltrokken heeft. Nou ja. Zulke filosofen bestaan wel natuurlijk: Lakatos begon er niet voor niets over. Het is ook lastig om geschiedenis te schrijven als je dat niet vanuit een theoretisch kader doet. Er is veel wetenschapsgeschiedenis. Als je niet specifiek naar iets op zoek bent word het lastig het allemaal te overzien. Hoewel ik me dan weer wel afvraag of de wetenschapshistorici uit de tijd van Lakatos blij waren met de avances van de filosoof. Heel gelukkig is dat huwelijk tussen de filosofie en de geschiedenis toch nooit echt geweest.

Daar zijn goede redenen voor, maar de spelbreker die ik het boeiendst vind is het probleem van de anachronistische kennisstandaarden.

Een anachronisme is iets dat niet in de tijd past. In de middeleeuwen keken mensen niet op hun horloge. In de jaren 90 waren er geen smartphones. In films kan het gebruik van anachronismen heel humoristisch werken. In de films van Monty Python verspreiden historische figuren zoals Koning Arthur en Jezus steeds opvallend moderne denkbeelden. 


Wetenschapsfilosofen die iets willen zeggen over wat kwalitatief hoogstaande kennis is, of die echte van valse wetenschap willen onderscheiden, lopen het risico net zo’n raar figuur te slaan als deze hoofdpersonen. Ze dringen zich niet alleen op aan de historici, maar ook aan de geschiedenis zelf. Er is geen enkel bewijs dat Aristoteles ooit gerandomiseerde dubbelblinde experimenten deed. Maakt dat hem een slechte wetenschapper?


Goed, dat was een flauwe retorische vraag, maar het punt zal duidelijk zijn: in de loop der tijd zijn de standaarden voor wat goede kennis is en voor hoe de wetenschap vooruitgang boekt veranderd. Daarmee is het anachronisme bijna onontkoombaar voor iedereen die iets verstandigs wil zeggen over de wetenschap. Hedendaagse ideeën over wetenschappelijke rationaliteit zeggen weinig over de wetenschap van vroeger en oude ideeën hebben inmiddels hun geldigheid verloren.


Het is ook een waar dilemma, want er zijn niet veel uitwegen te bedenken. Er is de olifant-in-de-porseleinkast benadering van Karl Popper, die beweerde dat de wetenschapsfilosofie normatief is en dat het dus niet gaat over hoe wetenschap is, maar over hoe ze moet zijn. Dat zet de wetenschapsgeschiedenis buitenspel en schoffeert met terugwerkende kracht alle wetenschappers die nog niet van Poppers gouden standaarden op de hoogte waren en zich er niet aan konden houden.


Er is ook de olifant-in-de-porseleinkast benadering van Paul Feierabent, die beweerde dat de wetenschapsgeschiedenis zo grillig is, dat er in het geheel niets te zeggen valt over welke benadering van de wetenschappen werkt en welke niet: anything goes. Daarmee zette hij de wetenschapsfilosofie buitenspel en reduceerde wetenschappers, goed en slecht, tot prutsers die maar wat aanklooien.


De gulden middenweg wordt bewandeld door iemand als Larry Laudan, die beweert dat er algemene principes zijn te geven voor de groei van wetenschap als geheel en tijdspecifieke invullingen van die principes die aan verandering onderhevig zijn. Volgens Laudan hebben wetenschappers altijd gewerkt aan het vergroten van het probleemoplossend vermogen van hun vak, maar verschillende ideeën gehad over hoe dat in te vullen is.


Dat klinkt een stuk eleganter dan de bruuske benadering van Popper en Feierabent, maar je kun je afvragen of het echt een uitweg biedt. Is het echt zoveel vriendelijker om van een tijdspecifieke invullingen van kwaliteit te spreken dan om te zeggen dat alles geoorloofd is? En loopt het algemene principe niet ook het risico anachronistisch te zijn? Probleemoplossend vermogen klinkt alvast heel erg als iets van nu – en niet van alle tijden.

Wat zou het mooi zijn als de filosofen van nu met de wetenschappers van toen in gesprek konden. Ik zou er heel wat voor over hebben om in te kunnen loggen op een Zoom call om een gesprek tussen Laudan en Aristoteles over probleemoplossend vermogen bij te wonen of met Popper over falsificatie. Of nee, als ik dan toch mag dromen: Aristoteles spreekt met Laudan over het probleem van anachronismen in de wetenschapsfilosofie.


Meer lezen?

Ik schreef over de ideeën van Larry Laudan in “Het probleemoplossend vermogen van Larry Laudan” en hij wees me in zijn boekje Progress and its Problems ook opmeet probleem van anachronismen. De ideeën van Karl Popper behandelde ik in “Groeit Kennis?” en “De drie werelden van Popper”.


De andere filosofen die ik hier noem trakteerde ik nog niet op zo’n uitgebreide bespreking. Maar het is interessant om de ideeën van Popper en Laudan eens te vergelijken met de uitkomsten van de empirische studies van de werking van wetenschap zoals ik die in “Lableven”, “De zwarte dozen van Latour” en “Big Science, Little Science” besprak.

Rorschach

Er zijn vast maar weinig lezers die bij de titel van dit blogje aan een plaatsje aan de Bodensee denken. Bijna iedereen denkt meteen aan vlekken. Sterker nog ik denk dat een behoorlijk percentage Nederlanders een echte Rorschachvlek van een neppe kan onderscheiden. Zo beroemd is die man.

Wacht ik laat er even een zien….

download

Rorschachvlekken stonden voor mij altijd symbool voor de vaagheid van de psychiatrie. Zeg maar de psychiater als charlatan die je vraagt om vrij te associëren bij een totaal onduidelijk plaatje en die daar dan het zijne van vind – vast iets met onderdrukte seksuele impulsen. Misschien komt het door de film: daar is het zonder uitzondering een of andere pseudoloog die met die vlekken aan de slag gaat. Ik had er dus ook nooit zoveel mee. Tot dat….

Nou ja. Mijn fascinatie voor Rorschach’s vlekken begon pas toen ik leerde dat die vlekken onderdeel uitmaken van een gestandaardiseerde test. Dat hàd me moeten opvallen – net als jullie herkende ik Rorschach vlekken uit duizenden, maar het signaal dat dat door standardisatie zou kunnen komen pikte ik gewoonweg niet op. Ik vond het ook een raar gegeven: een gestandaardiseerde vlekkentest; gewoon omdat het niet in het plaatje paste.

Maar het bleek te kloppen. Wat Hermann Rorschach onderscheidde van zijn tijdgenoten was juist dat hij een veel wetenschappelijkere diagnosepraktijk voorstond, dan in het begin van de 20e eeuw gebruikelijk was. Hij tekende ruim 100 inktvlekken en test die op zo’n 400 proefpersonen waarvan 300 patiënten waren. De 10 vlekken die het beste werkten voor een diagnose koos hij uit – en hij scheef een uitgebreide handleiding over hoe de antwoorden van patiënten geïnterpreteerd moesten worden. Met onderdrukte sex had het allemaal niets van doen.

Omdat de Rorschach test een gestandaardiseerde test is kan bovendien de collectieve ervaring van alle therapeuten die de test gebruiken, gebruikt worden om de interpretatie beter te maken. In de jaren zestig gebeurde dit ook en kwam er een nieuw, betrouwbaarder scoresysteem. De vlekken zelf veranderden niet.

Hoe komt het dan toch dat Rorschach zo’n slecht imago heeft? Vermoedelijk komt door het soort test: het is een projectietest. Je wordt gevraagd jouw ideeën op de plaatjes te ‘projecten’ in de hoop dat dat iets zegt over je persoonlijkheid. Je bent -zeg maar – wat je in de plaatjes ziet. Maar, om dat te kunnen doen moet je je beroepen op je fantasie. En fantasieën zijn vrij intiem. De meeste mensen delen hun fantasieën niet met iedereen – en al helemaal niet in een situatie waar ze beoordeeld worden op mentale gezondheid; nog zoiets intiems. Het is dus een test waarbij de patiënt in een kwetsbare positie wordt gedwongen. We voelend dan eerder mee met de arme patiënt dan met de dokter en zijn, zogenaamd, betrouwbare scoresysteem.

Er zijn ook goede redenen om te denken dat een dergelijke test niet kàn werken. Je verwacht dat mensen heel verschillende dingen roepen als ze gevraagd worden wat ze in die vlekken zien. Die diversiteit geeft ruis: als mensen heel verschillende antwoorden geven op dezelfde vraag is het lastig om vast te stellen hoe je zo’n antwoord moet interpreteren. De antwoorden worden zelf weer een soort Rorschach-vlek. Het is maar wat je er in ziet. Over het algemeen geld dat je met gerichte vragen een betere betrouwbaarheid kan halen dan met een vrije-associatie test.

Ondanks zijn wetenschappelijke doel en zijn update in de jaren 60 staat de Rorschach test dus nog altijd onder fikse kritiek. Er zijn onderzoeken die zeggen dat de test het niet beter doet dan een diagnose zonder test, dat de test verkeerde diagnoses stelt en dat hij voor te weinig verschillende ziektes gebruikt kan worden. Een interessante kritiek is ook dat de test tegenwoordig niet meer zou werken omdat iedereen die plaatjes nu al kent en dus niet meer onbevangen de test in kan gaan. Heb je de diagnose eindelijk gestandaardiseerd….

Hoewel wetenschappelijke studies naar het gebruik van de test niet eenduidig zijn en hoewel de test niet heel sterk uit de bus komt, laten ze wèl degelijk een positief effect zien. Het lijkt er op dat een diagnose met Rorschach test beter werkt dan een diagnose zonder hulpmiddel. Rorschach heeft, zij het heel voorzichtig, de wetenschap aan zijn kant.

Mijn inschatting is dat het te weinig is. Er zijn -of komen- betere tests, waarbij patiënten niet hun fantasieën bloot hoeven te geven. Dan verdwijnt Rorschach van het toneel en blijft alleen het charlatanimago uit de film over. Dat vind ik fijn voor de patiënten, maar jammer voor ons als maatschappij. Ik denk ook dat die test niet kàn werken, maar dat is wél een vooroordeel. Juist omdat de test zo’n rare mix vormt van mystieke en wetenschappelijke ideeën herinnert zij ons er aan dat we dat soort vooroordelen moeten toetsen – en dat we uiteindelijk de wetenschap moeten laten spreken.

Het verketteren van de Rorscharch tests, voordat het finale oordeel van de wetenschap geveld is hoort nu eenmaal niet bij de wetenschappelijke houding die Rorschach zelf voor stond. Laten we de man eren, als was het alleen omdat hij het icoon voor twijfels aan de wetenschappelijkheid van de psychiatrie ontwierp.

Meer lezen?

Ik besprak eerder de IQ test, die er ook al niet goed af kwam. Het soort trials dat heeft aangetoond dat de Rorschach test werkt zijn niet bepaald waterdicht, zoals ik in ongezond aan de orde stelde. Dat je je ideeën moet testen en waarom bespreek ik in Eksters.

De zwarte dozen van Latour

Hoe komen wetenschappelijke feiten eigenlijk tot stand? Door experimenten. Althans dat is het antwoord dat veel mensen zullen geven. Het is ook een mooi beeld. Zo’n experiment heeft iets puurs. Feiten openbaren zich in alleen in laboratoria omdat zij daar, dankzij de inventiviteit van de wetenschappers die er werken, losgekoppeld worden van alle rommelige context waar ze zich normaal in verstoppen. Dat is romantische onzin natuurlijk. Want wat kom je eigenlijk tegen als de totstandkoming van feiten wetenschappelijk gaat onderzoeken?

Ik schreef al eens over Bruno Latour’s onderzoek naar de werking van de wetenschap in Lableven. Latour laat, dat zal je niet verbazen, weinig heel van de romantische ideeën die veel mensen hebben over de wetenschap. In dit blogje bespreek ik zijn meest bekende werk, waar ik ooit de naam voor deze blog van geleend heb: “Science in Action”.

Het ideaalbeeld dat veel mensen hebben van wetenschap wordt gevoed door hoe we over wetenschap schrijven. Wetenschappers zelf, maar ook wetenschapsfilosofen, richten zich eerder op hoe wetenschap zou moeten zijn dan op hoe wetenschap is. Latour stelt zich anders op. Hij zegt dat wetenschap alleen begrepen kan worden door de praktijk te bestuderen. Dat doet hij dus ook, eerst in “Laboratory Life” en later in “Science in Action”. Latour laat daar zien dat wetenschappelijke feiten niet ontdekt, maar dat ze in de loop der tijd gesponnen worden.

Zwarte dozen…
Om dit te verduidelijken gebruikt Latour het begrip van de zwarte doos. Het begrip zwarte doos wordt gebruikt voor technologie die te complex is om helemaal te begrijpen. We kennen de input en de output, maar hoe de machine er in slaagt de vertaalslag tussen die twee te maken blijft verborgen. Het maakt niet uit hoe het van binnen werkt; we vertrouwen gewoon op de output.

Wetenschappelijke feiten, zoals de dubbele helix structuur van DNA, zijn net als die zwarte dozen. Toen DNA voor het eerst werd ‘ontdekt’ was het helemaal niet zo helder en zeker wat die structuur was of wat het belang er van was. Nu zien we de dubbele helix als een gegeven en is de complexe context van ontdekking voor ons verborgen. De dubbele helix is een zwarte doos geworden.

We kennen die wetenschap van de zwarte dozen goed. We leren de zwarte dozen op school: de aarde is rond, de zon een ster, dingen vallen door zwaartekracht, soorten ontstaan in evolutie, erfelijkheid, genetica, dna. Allemaal dingen die je niet in twijfel hoeft te trekken. We zien de wetenschap vervolgens graag als een proces dat zulke onbetwistbare kennis oplevert. Wat kan het anders zijn? De andere kant: de wetenschap in actie; het rommelige proces waarin die feiten tot stand komen is minder bekend. Hoe word een feit een feit? We moeten de zwarte dozen weer open zien te maken.

Doen we dat met de ‘dubbele-helix-doos’ dan zien we het gepuzzel van Watson en Crick. Er zijn mensen die geloven in een drievoudige helix en mensen die denken dat het helemaal geen helix kan zijn. Watson en Crick hebben het ook niet helemaal uitgedoktert: kan het chemisch wel? En als het zo zou zijn, helpt het de biologie dan verder? We zien de baas van Watson, die vindt dat ze zich met belangrijkere dingen bezig moeten houden. We zien hoe Watson en Crick zelf stukje bij beetje in het idee gaan geloven en hoe ze langzaam de een na de ander in het lab weten te overtuigen. Ze publiceren de structuur; het komt in het prestigieuze tijdschrift Nature.

Het spinnen van feiten…
Het geloof in de dubbele helix is dus langzaam gegroeid, in steeds bredere kring. Wanneer wordt de dubbele helix een feit? Hoeveel wetenschappers moeten er dan in geloven? Of was het al een feit en worden al die mensen daardoor overtuigt? Of zijn dit misschien twee kanten van dezelfde medaille die op een dag omklapt? Om deze vragen te beantwoorden onderzoekt Latour hoe wetenschappers elkaar overtuigen van hun gelijk: hij onderzoekt wetenschappelijke retoriek.

Je kunt de rijping van wetenschappelijke ideeën tot feiten goed volgen door wetenschappelijke retoriek te bestuderen. Wetenschappers kunnen bevindingen meer of minder feitelijk opschrijven. Een feitelijke vorm is: “de zon staat in het centrum van het heelal”. Een minder feitelijke vorm: “Galileo Galilei, beweert, tegen de algemeen geaccepteerde ideeën van Aristoteles in, dat de zon in het midden van het heelal staat”. In het tweede geval ga je vanzelf twijfelen hoe het zit met de aarde en de zon. Die twijfel word gezaaid door de context van ontdekking mee te geven. Galileo zou er ook naast kunnen zitten, zeker omdat hij de grote Aristoteles tegen spreekt. Door alle context weg te laten word het juist meer een feit. Wetenschap in actie is onzeker en speculatief, gestolde wetenschap niet.

In wetenschappelijke papers kun je goed zien dat de discussie nog in volle gang is. Wetenschappers trekken meestal een heel blik overtuigingstechnieken open om hun gelijk te krijgen. Ze staven hun beweringen met referenties naar anderen die soortgelijke dingen beweren; ze dekken zich in tegen wetenschappers die anders beweren; ze bouwen hun betoog gelaagd op zodat hun bewering zo waterdicht en feitelijk mogelijk overkomt. Dat maakt wetenschappelijke papers zo moeilijk om te lezen. In een luchtig betoog schiet je veel gemakkelijker gaten. Dat komt wetenschappers die hun prille ideeën geaccepteerd proberen te krijgen natuurlijk niet goed uit.

Uit het bestuderen van het publicatieproces trekt Latour de conclusie dat of een wetenschappelijke bewering als feit gezien wordt of juist niet, eigenlijk vooral afhankelijk is van anderen. Hoe slim je experiment ook is, of hoe baanbrekend je ideeën: wat uitmaakt is hoeveel wetenschappers naar jouw paper refereren, welke dat zijn en hoe feitelijk ze in je in die referenties aanhalen. Feiten ontstaan in een sociaal proces tussen wetenschappers. Het helpt zeker als je de natuur aan je kant hebt staan, maar de kunst is allereerst om andere wetenschappers te overtuigen.

Misschien vind je deze analyse van wetenschappelijke literatuur wat onbevredigend. Je kunt wel stellen dat feiten ontstaan in het sociale publicatieproces, maar al die publicaties gaan toch ergens over? Moeten we niet, als we willen weten hoe feiten tot stand komen, graven naar de echte bron van die kennis: het laboratorium?

Dus neemt Latour ons mee het lab in. Maar, ook het bezoek aan het laboratorium kan een teleurstellende ervaring zijn. Het lab staat op zichzelf weer vol met zwarte dozen. Als we in het lab om een reproductie van een belangrijke grafiek uit het artikel vragen, zien we op een bepaalde manier meer dan in het artikel staat. We kunnen nu echt zien hoe de grafiek tot stand komt: door een complexe setup van apparatuur, elektronica, protocollen. Maar we zien ook minder dan in het artikel, want we moeten elke stap in het proces en elk apparaat doorgronden en vertrouwen om een klein beetje zicht te krijgen op de ‘werkelijkheid’ achter de grafiek. Het lab staat zelf weer vol met zwarte dozen. Eigenlijk is de enige manier om echt grip te krijgen op het experiment zelf een even ingewikkeld lab te bouwen het experiment na te doen. Het is deze strijd tussen laboratoria die we in de literatuur terugzien.

Als we een experiment gaan bekijken verwachten we de naakte feiten te kunnen zien: we verwachten een openbaring van de natuur. Maar in werkelijkheid zien we, net als in het artikel, een zorgvuldig geconstrueerde, vaak uiterst kwetsbare, schakel in technische en theoretische argumentatie. Net als in het wetenschappelijke artikel is de natuur in het lab alleen indirect aanwezig.

Vooruit: je mag hopen dat de natuur uiteindelijk het debat tussen wetenschappers beslecht, maar zolang de kennis nog in ontwikkeling is, is óf en hoe de natuur zich via het experiment laat kennen juist het onderwerp van de discussie. Totdat wetenschappers het hier over eens zijn, kan de natuur het debat niet beslissen. Latour stelt daarom dat je als je wetenschap in actie bekijkt wel relativist moet zijn: hoe we de natuur zien is de resultaat van de wetenschappelijke controverse – het is een sociaal proces. Terwijl je als je naar gestolde wetenschap kijkt wel realist moet zijn: uiteindelijk hebben we na veel discussie en een reeks ingewikkelde experimenten de natuur begrepen zoals hij écht is. Want, hoe indirect ook, als de natuur in al die experimenten niet een rol gespeeld had, was de controverse nooit geëindigd.

Tolken in groeiende netwerken….
Is het stollen van speculaties tot feiten nog beter te volgen? Daarvoor moeten we volgens Latour het lab weer uit en proberen om het sociale proces tussen wetenschappers in meer detail te bestuderen. Stel je voor dat je een onderzoeker bent die van een controverse een zwarte doos wil maken. Dan zal je anderen mee moeten krijgen. Je zult moeten zorgen dat anderen geïnteresseerd raken in jouw ideeën en dat ze jouw feiten-in-wording willen, of wel moeten gebruiken. Dat kan natuurlijk door aan te sluiten bij de interesses van anderen of door mensen te overtuigen dat wat jij doet in hun belang is. Ook zal je tot op zekere hoogte hun gedrag moeten controleren. Als anderen je werk op een heel andere manier gebruiken dan jij had voorzien ben je daar niet persé beter mee af.

Naast een inhoudelijke dimensie heeft wetenschap dus ook een politieke dimensie. De een is niet te begrijpen zonder de ander. Het is een proces waarin je gelijktijdig mensen moet aanhaken bij je project, ze tot op zekere hoogte moet controleren, terwijl je de realiteit definieert. Die buitenkant van de wetenschap is zeker zo belangrijk als de binnenkant. De peperdure laboratoria waarin wetenschappelijke ontdekkingen gedaan worden, bestaan bij gratie van mensen die er in willen investeren, mensen die op hun beurt hun eigen agenda’s najagen. Latour licht dit toe aan de hand van Lyde, de grondlegger van de geologie.

Lyde leefde in een tijd waarin het als een feit beschouwd werd dat de aarde door God geschapen was en waar je de geschiedenis van de aarde alleen kon bestuderen aan de hand van de bijbel. Hij had dus geen wetenschappelijke collega’s (hooguit vijandig gestemde), maar had die wel nodig om zijn werk niet als een theorietje van een overenthousiaste amateur weg te laten zetten. Omdat hij geen wetenschappelijke gemeenschap om zich heen had, kon hij ook geen financiering regelen, kon hij geen studenten opleiden en ga zo maar door. Er was geen netwerk waarbinnen de piepjonge geologische wetenschap kon groeien.

Lyde slaagde er ondanks die beperkingen in om iets van de grond te krijgen, maar er zijn natuurlijk veel meer onderzoekers die er voortijdig -soms zelfs al tijdens hun promotie- mee stoppen. Als we als karikatuur kijken naar de prof die nauwelijks onderzoek aan het doen is, maar zijn tijd besteed aan netwerken, financiering regelen en ambassadeurschap en die vergelijken met de onderzoeksassistent die dag in dag uit in het lab aan het zwoegen is om de natuur haar geheimen te ontfutselen, dan moeten we concluderen dat ze niet zonder elkaar kunnen bestaan. In het geval van Lyde in de vorm van één persoon, in de moderne wetenschap als een hele machinerie binnen universiteiten en onderzoeksinstituten.

Dat betekent ook dat een groot deel van de mensen die cruciaal zijn in het wetenschappelijke proces helemaal geen wetenschapper zijn. Ze vervullen een rol om het netwerk klaar te maken en in te zetten voor de nieuwe kennis. Het is volgens Latour ongepast om de wording en verspreiding van wetenschappelijke kennis los van elkaar te zien. Nieuwe kennis wordt niet in het lab gemaakt en sijpelt dan door naar de samenleving, ze vormt zich in een breed netwerk van verschillende groepen met verschillende belangen. Daarom is het onderliggende proces beter te begrijpen als een vertaling dan als een verspreiding. Bij een verspreiding denk je aan de situatie waarbij feiten eerst definitief gemaakt worden en daarna uitgedeeld. Maar zo schetst Latour het niet. Een feit komt tot stand door dat verschillende groepen, die er allemaal iets anders mee willen en voor wie het allemaal iets anders betekend, het als zodanig gaan gebruiken. Elk van die groepen heeft een eigen vertaling nodig.

Actie op afstand…
Toch is het niet vreemd dat mensen willen investeren in wetenschap. Ze maakt actie op afstand mogelijk. Als Latour zich buigt over hoe wetenschappelijke kennis verschilt van alledaagse kennis, stelt hij dat wetenschappelijke kennis eigenlijk gecomprimeerde ervaringskennis is.

Toen de ontdekkingsreizigers in Azië aankwamen kenden ze het landschap minder goed dan de oorspronkelijke inwoners. Maar dankzij hun instrumenten konden ze dit wel beter in kaart brengen en relateren aan stukken van de wereld die de Aziaten niet kenden. De dammen die in de Nederlandse delta gebouwd zijn beter dan dammen die je op basis van ervaring zou bouwen, omdat een schaalmodel de ingenieurs in staat heeft gesteld allerlei dingen uit te proberen en bloot te stellen aan alle voorkomende weertypen. Dit zou op de werkelijke schaal nooit mogelijk zijn en zo kunnen de ingenieurs meer ervaring opdoen dan dammenbouwers zonder modellen.

Hier komen de zwarte dozen wel weer om de hoek kijken. De cartografen kunnen alleen maar kaarten maken door instrumenten die samenballingen zijn van de kennis van anderen. De waterkundigen gebruikten theorie van anderen over turbulentie. Ze zijn geholpen met het collectieve en cumulatieve karakter van de wetenschap.

Wetenschap is volgens Latour te zien als het verzamelen, coderen en circuleren van sporen. Actie over afstand wordt mogelijk door de gebeurtenissen van ver weg en lang geleden mee te nemen naar het hier en nu. Ervaring moet mobiel worden, zodat het niet uit maakt waar ze is opgedaan. Ze moet stabiel worden zodat ze onderweg niet kan veranderen of verweken. En ze moet combineerbaar worden, zodat verschillende ervaringen opgeteld en samengebald kunnen worden. De rol van inscripties, grafieken, formules, wiskunde en modellen is precies dit: zorgen dat je representaties van de werkelijkheid mobiel, uniform en herbruikbaar worden.

Dit mag wat kosten want de voorkennis over de natuur die zo ontstaat helpt de volgende serie wetenschappers. Het is alsof ze de verschijnselen waar ze mee te maken hebben al kennen, omdat ze voort kunnen bouwen op gecodeerde ervaring. Tegelijkertijd, schept deze manier van werken, het steeds verder coderen en samenballen van kennis een afstand tussen de wetenschap en datgene wat ze bestudeerd. Sommigen vinden het vermogen tot voorspellen de grote kracht van de wetenschap, maar zulke voorspellingen zijn niet het zelfde als de praktijk, ze raken de werkelijkheid nooit helemaal.

Wat wetenschappers kunnen voorspellen is alleen hoe hun eigen instrumenten zich in de buitenwereld zich zullen gedragen. Doctoren, bijvoorbeeld, hebben veel van die instrumenten. Ze vormen feitelijk een extensie van het wetenschappelijke netwerk. Zonder die instrumenten kan dokter zijn kennis niet of nauwelijks aanwenden. Zo is ook een landkaart in de praktijk niet veel waard als er niet er niet een hele reeks richtingwijzers op de grond bestaan die een verbinding leggen tussen de echte en de wetenschappelijke werkelijkheid van de kaart. De lange, technische arm van de wetenschap vereist specifieke kennis en technologie.

Wetenschap in actie…
In Science in Action zet Latour een nieuwe theorie van de wetenschap en de totstandkoming van feiten neer, door precies na te gaan hoe wetenschappers te werk gaan. Hij traceert hoe feiten ontstaan uit discussie tussen specialisten, hoe wetenschappers zich moeten organiseren om dit mogelijk te maken en wat er in de samenleving veranderd door deze praktijken.

Wetenschappers vormen hun ideeën in nauwe fragiele netwerken, die uiteindelijk hun tentakels tot diep in de samenleving kunnen uitspreiden. Daarvoor is het wel nodig van hun ideeën een zwarte doos te maken die iedereen wil en kan gebruiken zonder er nog vragen over te stellen. Dat is een door en door sociaal en technisch proces. Waarin ideeën, mensen, belangen en apparatuur een allesbepalende rol spelen. Latour doet een poging de zwarte dozen open te maken, maar wat er uit komt is zo’n complex en subtiel spinsel dat, eerlijk gezegd, de behoefte de dozen dicht – en de feiten dus de feiten te laten – haast onweerstaanbaar is.

Meer lezen?
In Lableven bespreek ik het boek Laboratory Life van Bruno Latour. Andere boekbesprekingen op deze blog vind bijvoorbeeld je in de taalpragmatiek van Herbert Clark en in Big Science.

Het netwerkkarakter van kennis besprak ik eerder in kennisnetwerken en sociale kennisnetwerken.

IQ

Ik houd een lijstje bij met slechtst begrepen wetenschappelijke begrippen en bijna bovenaan, ver boven relativiteit, staat IQ. Mensen schijnen over IQ onder andere te geloven dat het echt bestaat, dat we weten wat het is – èn dat we er nuttige dingen mee kunnen doen. Allemaal hardnekkige misverstanden. IQ vormt een perfect voorbeeld van wat er allemaal mis kan gaan als je iets gaat meten.

Even een prikkelend feitje over IQ: het IQ van de wereldbevolking gaat al jaren omhoog. Dit stijgende IQ wordt het Flynn effect genoemd, naar de psycholoog James Flynn die liet zien dat de gemiddelde Amerikaan tussen 1932 en 1978 zo’n 10% slimmer was geworden. Of Amerikanen nog steeds elk jaar slimmer worden durf ik niet te zeggen, maar de rest van de wereld wordt dat blijkbaar wel.

Dat is natuurlijk heel erg fijn voor ons allemaal. Maar het roept ook heel erg veel vragen op. Want was het IQ niet een meting van een aangeboren eigenschap? Is intelligentie niet het best te begrijpen als een soort van talent om moeilijke dingen te snappen, te leren en misschien om in het algemeen handige dingen te doen? Hoe kan het dat de genen van onze soort zo snel veranderen dat we in razend tempo slimmer worden? Is er soms een sterke selectiedruk op intelligentie in onze maatschappij?

Het antwoord laat zich raden: intelligentietests meten helemaal geen intelligentie. Tenminste niet als je dat ziet als een aangeboren leertalent. IQ tests stellen vast hoeveel lastige puzzels je in een bepaalde tijd kan oplossen. Ze meten dus breinprestaties op een bepaald moment en niet het leertalent wat daarvoor gezorgd heeft. Breinprestaties zijn van natuurlijk van veel meer dingen afhankelijk dan je aangeboren talenten. Heb je meer scholing gehad, of specifieke IQ test training? Dan doe je het beter op IQ tests.

Nu zou je kunnen zeggen dat breinprestaties op een bepaald moment een aardige voorspeller kunnen zijn van leervermogen gedurende een bepaalde tijd, maar dan ga je er wel vanuit dat leervermogen een constante is. Dat hoeft natuurlijk niet zo te zijn.Steeds als je iets leert veranderd je brein een beetje. Zou een dergelijke verandering niet ook kunnen zorgen dat je daarna gemakkelijker nieuwe dingen leert? Met andere woorden: zou het kunnen dat je leertalent afhankelijk is van wat je leert?

Veel wetenschappers denken tegenwoordig van wel. Dit wordt fluïde intelligentie genoemd. Onderwijs verhoogt niet alleen je vermogen om puzzels op te lossen, maar ook je vermogen om te leren om puzzels op te lossen. Intelligentie is helemaal niet alleen aangeboren: je kan ook leren om intelligent te zijn.

Daarmee blijft er weinig over de aannames achter de inteligentietest: intelligentie is een aangeboren eigenschap, die je kunt meten. Dat zou allemaal niet uitmaken als IQ tests een aardige voorspelling zouden geven van dingen waar je wat aan hebt in het leven: bijvoorbeeld studiesucces of succes in een toekomstige baan. Maar ook dat blijkt tegen te vallen: IQ tests kunnen bar-weinig voorspellen. Niet alleen omdat de IQ tests zelf niet deugen, maar ook omdat er meerdere soorten intelligentie zijn en omdat heel andere menselijke eigenschappen zoals doorzettingsvermogen of een houding ten aanzien van leren veel belangrijkere voorspellers blijken te zijn van later succes.

Ik heb zelf veel te danken aan een IQ test. Mijn basisschooldocent dacht dat ik beter naar de Mavo kon, maar de IQ test die ik deed wees Havo uit en daar ging ik dus heen. Op de Havo – en later op de universiteit – ontwikkelde ik vervolgens veel van mijn huidige talent om te leren. Ik dank mijn IQ aan een IQ test. Want stel je eens voor dat die test Vmbo had uitgewezen, dan was ik vast lang zo slim niet geworden. IQ test worden dus eigenlijk verkeerd gebruikt. We doen alsof IQ tests iets belangrijks kunnen voorspellen, maar, ze veroozaken dingen.

Dat is niet erg als ze positieve dingen zouden veroorzaken, zoals in mijn geval, maar vaker gebeurd het tegenovergestelde. We gebruiken de IQ test tegen de laatbloeiers in onze samenleving. Heb ben je niet snel genoeg slim geworden, dan krijg je dankzij het gebruik van de IQ test geen kans meer om van een dubbeltje naar een kwartje te groeien. Naar vind ik dat.

Als we de balans op maken voor IQ tests komen we op het volgende ontluisterende lijstje. IQ tests maken op basis van breinprestaties op een bepaald moment een schatting van het gemiddelde leervermogen tot dan toe, waarbij de omgeving weggedacht is en het feit dat leertalent kan veranderen weggedacht wordt. Vervolgens doen we net alsof dat IQ allerlei successen kan voorspellen, terwijl we allang beter weten. IQ meten is koffiedik kijken in psychologie-vermomming.

Dat roept de vraag op hoe het zo ver heeft kunnen komen… Hoe verklaren we de populariteit van de IQ test als het ding zo overduidelijk niet deugt?  Een deel van het antwoord is dat we pas sinds kort weten wat er allemaal mis is met IQ tests. Je hebt behoorlijk wat tijd nodig om te meten hoe goed een test studiesucces kan voorspellen en wat eventueel betere voorspellers zijn. Ook het idee van fluïde intelligentie is vrij nieuw en hoe fluïde onze intelligentie precies is, is niet bekend. Dat maakt het moeilijk inschatten wat je wel en niet uit een IQ kan voorspellen.

Toch denk ik dat er een belangrijkere reden is voor de aanhoudende populariteit van IQ en de IQ test en dat is deze: het meten van dingen maakt ze tastbaar. Dingen die je in een getal kan uitdrukken zijn echt. Kilometertellers maken afstanden tastbaar, klokken maken de tijd tastbaar en IQ tests maken intelligentie tastbaar.

Veel van ons hebben wel eens een IQ test gedaan. Als ik zelf een IQ van 120 heb, dan moet intelligentie wel bestaan. Hoe kan je het anders meten? Dat is misschien een cirkelredenering, maar tegen de achtergrond van mijn eigen IQ van 120, lijken die verhaaltjes over fluïde intelligentie en slechte voorspellende waarde echt een beetje geneuzel. Mijn indrukwekkende IQ staat immers zo vast als een huis.

Mijn voorspelling is dus dat IQ tests, ondanks de aanzwellende kritiek, nog tot in jaar en dag tot de vaste uitrusting van de psychologen blijft behoren. Werkgevers willen weten wat het IQ is van het personeel dat ze gaan aannemen. De mensen willen weten wat hun IQ is. Dus blijven we het meten en als we het kunnen meten dan zal het wel bestaan.

En laat dat dan een les zijn voor als je zelf eens iets onzichtbaars aan de man wil brengen: of het nou om astrologie, aardstraling, één of ander -isme of om boze geesten gaat… Zorg voor een betrouwbare meting en je zit gebeiteld!.

Meer lezen?

In waarheidsinjecties betoog ik dat we teveel proberen te meten in deze samenleving. In doeloorzaken bespreek ik een andere tactiek om moeilijke dingen te begrijpen. In evolutiesnelheid stel ik misverstanden rondom de evolutietheorie aan de kaak.

Halfwaardetijd

“Engineers zijn zich bijvoorbeeld veel bewuster van zoiets als de halfwaardetijd van kennis…”. Een professor uit mijn vakgroep wees me op een vrij onschuldige manier op het idee dat kennis, ook wetenschappelijke kennis, een houdbaarheidsdatum heeft.

Nu is dat misschien ook geen wereldschokkend idee. Iedereen die wel eens een dieet gevolgd heeft weet dat “nieuwe inzichten” elkaar snel kunnen opvolgen. Vijf jaar terug werd je nog vooral dik van vetten, tegenwoordig is het vooral suiker en snelle koolhydraten waar je voor op moet passen. Dieetkennis is in no-time achterhaald.

Toch was het voor mij destijds een eye-opener. Ik herkende wel dat wetenschap een race tegen de klok was, maar die race draaide er voor mij hooguit om om het eerst bij de nieuwe inzichten te zijn. Maar de eerste zijn is maar de één kant van de zaak. Je kunt ook het langst overblijven. Of als je het minder goed doet kun je als onderzoeker van achter ingehaald worden door nieuwe of betere inzichten. Wetenschappers hebben strategieën nodig om snel aan nieuwe inzichten te komen, maar ze moeten ook zorgen dat ze de vergetelheid te slim af zijn.

In mijn ervaring houden wetenschappers ook niet van het idee dat de kennis die zij ontwikkelen snel weer achterhaald kan zijn. Daarvoor kost het ontwikkelen van nieuwe inzichten te veel moeite. Alleen al het bouwen van de deeltjesversneller waarmee het Higgs Boson ontdekt is koste meer dan dertig jaar. Daarmee hadden ze het Higgs-deeltje, nog niet gemaakt en al helemaal niet gemeten dat het er echt was. Als je zoveel moeite steekt in het verkrijgen van kennis is het wel zo fijn als die ook een tijdje beklijft.

Nu zullen juist de ontdekkers van het Higgs Boson niet vaak stil staan bij de kans dat binnenkort niemand meer om het deeltje maalt. Het zijn immers wetenschappers. Ik weet niet hoe dieetgoeroes over de houdbaarheid van hun kennis nadenken, maar wetenschappers vormen een beroepsgroep die bij uitstek opgegroeid zijn met het idee dat kennis tijdloos is.

De wiskunde die ze gebruiken stamt immers van Euclides (300 voor Christus); het beeld van het heelal van Copernicus (1550) en Galileï (1600); veel van de Natuurkunde komt van Newton (1700) – en ga zo maar door. Bijna elke wetenschappelijke theorie bouwt voort op een lange traditie van denkers en ideeën. Als daar niet uit te lezen valt dat kennis tijdloos is, dan toch dat goede kennis tijdloos is. Ook veel van de begrippen die we voor wetenschappelijke kennis gebruiken zoals “ontdekking” of “natuurwet” hebben een air van tijdloosheid over zich. Het Higgs Boson kan toch maar één keer ontdekt worden? Hoezo dan halfwaardetijd?

Dat heeft dus met de vergetelheid te maken. Het begrip halfwaardetijd komt uit de natuurkunde en staat voor de tijd die een radioactief element nodig heeft om half zo actief te worden. Die tijd kan erg kort zijn: voor sommige elementen enkele milliseconden of erg lang: Uranium 385, het element dat in kerncentrales gebruikt wordt, heeft een halfwaardetijd van 700 miljoen jaar.

Dit idee van langzaam steeds minder actief worden kun je ook op kennis toepassen. De nieuwe kennis die wetenschappers ontsluiten verliest in de loop der tijd zijn waarde doordat ze steeds minder (her)gebruikt wordt. De halfwaardetijd van nieuwe kennis is dus de tijd voordat deze kennis nog maar half zo relevant is voor de wetenschappers van nu. Euclides wiskunde bleek een lange halfwaardetijd te hebben, terwijl veel van de natuurkunde die Aristoteles omwikkelde het minder lang heeft uitgehouden. Geen van deze theorieën komen in de buurt van de halfwaardetijd van Uranium.

Ik vond het idee van halfwaardetijd van kennis wat ongemakkelijk, maar ook inzichtelijk en nuttig. Het is vast zo dat het Higgs Boson maar één keer ontdekt wordt, maar de theorie waar het deel van uit maakt, nu zo’n 50 jaar oud, heeft misschien zijn langste tijd al gehad; ontdekking van het Boson of niet. Zo gaat het met de meeste kennis. Theorieën blijken bij nader inzien onhoudbaar, ze worden vervangen door andere theorieën, of de vraagstukken waar ze over gaan raken simpelweg uit de mode. Soms is dat, ironisch genoeg, juist omdat er weinig meer aan te ontdekken valt.

Voor wetenschappers, die zoveel moeite doen om aan ‘ware’ kennis te komen en die opgevoed zijn met zoveel helden uit een ver verleden, is het idee dat ware kennis niet hetzelfde is als eeuwige kennis een zure appel om te slikken. Voor de wetenschapper van nu is de kans om de nieuwe Euclides te worden kleiner dan de kans om de loterij te winnen. Maar ze hebben ook strategieën tot hun beschikking, waarmee ze de kans om ingehaald te worden een beetje kleiner maken. Daarover gaat mijn volgende blogje.

Meer lezen?

In een eerder blogje maakte ik al eens gehakt van de mythe van de stokoude kennis die veel wetenschappers aanhangen. In mijn volgende blogje, tijdmeters, bespreek, ik strategieën die onderzoekers van allerlei snit toepassen om met de beperkte houdbaarheid van nieuwe kennis om te gaan.

Grenzen

Het kwam tot me toen ik na een aantal jaren afwezigheid weer eens op een conferentie was. Ik schrok van het niveau en de onderwerpen van de presentaties. Ging mijn vakgebied eigenlijk wel vooruit? Met duizenden publicaties per jaar zou je toch verwachten dat je na een paar jaar amper meer kon volgen waar het over ging. Maar ik zag meestal jonge, net afgestudeerde onderzoekers soortgelijke projecten presenteren als die ik zelf gedaan had; op de manier waarop dat zelf jaren terug ook gedaan had. En ik hoorde discussies aan die ik jaren geleden ook gehoord had. Precies dezelfde dingen werden besproken. Ik was een aantal jaar niet wetenschappelijk actief geweest, maar toch was ik eigenlijk sneller gegroeid dan mijn vakgebied als geheel.

Dat was best een bevreemdende ervaring, maar ik realiseerde me snel dat dat niet aan mij of aan mijn vakgebied lag, maar dat het onderdeel was van hoe wetenschap werkt. Natuurlijk zijn conferenties plekken waar de stand van zaken in het vak besproken worden, maar het zijn vooral ook opleidingsinstituten.

Op conferenties treden voornamelijk jonge onderzoekers aan die zich, door peer-review en interactie met hun vakgenoten, oefenen in de mores van het vakgebied. Ze leren de regels van het vak en ze hebben toegang tot bestaande kennis en contacten die hen kunnen helpen om hun projecten verder te brengen. Daar komt die herhaling van zetten vandaan. Er is steeds een nieuwe generatie jonge onderzoekers die het vak nog moet leren. De basis, dat wat Imre Lakatos de harde harde kern van het vakgebied zou noemen, moet door elke nieuwe generatie opnieuw aangeleerd worden en daar spelen conferenties een belangrijke rol in.

Kunnen vakgebieden dan eigenlijk wel vooruit gaan? Als conferenties opleidingsinstituten zijn, zijn onderzoekers mensen die hun hele leven studeren. Een onderzoeker heeft vanaf het moment dat hij van de middelbare school komt, op zijn 18e bijvoorbeeld, tot aan zijn pensioengerechtigde leeftijd, zo rond de 65, bijna vijftig jaar om beter te worden in zijn vak. De slimste en meest senior mensen in het vakgebied kunnen dus wat je in vijftig jaar kan leren. En dat zal altijd zo blijven. Vakgebieden worden nooit beter dan wat je in vijftig jaar aan kennis kan opdoen. Als je de stand van zaken in een wetenschappelijke discipline ziet als de gezamenlijke kennis van alle beoefenaars, dan zijn er maar een paar manieren waarop het kan groeien; twee ervan zijn demografisch.

Ten eerste kan het vakgebied vergrijzen. In dat geval worden de beoefenaars meer senior en hebben dus gemiddeld meer leerjaren achter de rug. In een vergrijzend vakgebied gaat de gemiddelde kennis vooruit, maar het is toch niet echt een gezonde situatie. Het grote nadeel van een vergrijzend vakgebied is dat het ook versmalt. Er is beperkte mankracht, nieuwe ideeën kunnen niet opgepikt worden en het gebrek aan aanwas betekend ook dat bestaande ideeën niet meer in twijfel getrokken worden.

Ten tweede kan het vakgebied verjongen. In een verjongend vakgebied is veel mankracht beschikbaar is en ontstaan er veel nieuwe ideeën. Oude ideeën worden ook getoetst en eventueel vervangen. Het nadeel is dat de gemiddelde kennis per onderzoeker omlaag gaat. Veel tijd gaat dus ‘verloren’ door dat nieuwe leden basiskennis bijgebracht moet worden. Een verjongend vakgebied verbreed zich prima maar het verdiept zich minder gemakkelijk.

Er is ook nog een derde manier. De efficiëntie van het vakgebied kan groter worden. Dat wil zeggen dat de senioren hun kennis beter kunnen overdragen aan jongere leden. Niet al hun kennis natuurlijk, maar wel de meest essentiële dingen, waar de jongeren dan op voort kunnen bouwen. Die jongeren hebben dan meer kennis die zich bewezen heeft, die blijkbaar wezenlijk was voor het vakgebied, en minder kennis die er blijkbaar minder toe doet.

In deze derde vorm van vooruitgang hebben veel mensen veel vertrouwen.  Dit komt door het grote verschil in de moeite die gaat zitten in het opdoen van een nieuw idee en het opdoen van een bestaand idee. Charles Darwin heeft lang gedaan over het ontwikkelen van zijn evolutietheorie, maar nu het er is kun je het zelfs al aan middelbare scholieren uitleggen. Één lesje is eigenlijk genoeg. Dat lijkt toch een flinke winst.

Ik ben zelf minder optimistisch over dit idee van vooruitgang door het steeds verder uitbouwen van overgedragen kennis en ik zal dat later nog eens uitdiepen. Voor nu is het misschien genoeg om in te zien dat deze derde vorm sterk lijkt op wat er bij het vergrijzen van een vakgebied gebeurd. Oude ideeën worden sterker waardoor het vakgebied zich verdiept, maar dit gaat ten koste van de breedte en de frisheid van het geheel. De prijs die een vakgebied betaalt voor verdieping is specialisatie en verminderd onderhoud van haar kernideeën.

De paradox is dus dat op conferenties eigenlijk alle individuen leren, terwijl het vakgebied als geheel – de verzameling van al die individuen samen – daar relatief weinig mee op schiet. Erg is dat niet, want dat was het andere inzicht dat ik destijds op die conferentie opdeed: het gaat uiteindelijk om de kennis van die individuen en wat zij er verder mee doen. Als het vakgebied jaren op ‘het zelfde niveau’ blijft is dat geen teken van falen, maar dan betekent dat dat er jaren lang nieuwe mensen getraind worden die op dat niveau over het vak na kunnen denken. De vraag is niet “is elke generatie van nieuwe mensen in het vak beter dan de vorige”, maar “hebben we wat aan een nieuwe generatie mensen met deze kennis”. Zolang het antwoord op die vraag ja is, hebben we wat aan het vakgebied – en, want ik denk niet dat die uitroeibaar is, aan haar bijbehorende mythe van intellectuele vooruitgang.

Meer lezen?

Ik sprak over de nadelen van specialiseren in Helpt Specialiseren? De visie op kennis die ik in dit blogje hanteer lijkt veel op die van Karl Popper die ik in Groeit Kennis? besprak. Ook in de blog Kennisstroom vind je ideeën die gerelateerd zijn aan deze blog.