Gedachtenmeting

Technologieontwikkeling heeft ons denken over het brein beïnvloed doordat we het brein proberen te begrijpen vanuit de werking van die machines: zoals het idee van het brein als een telefooncentrale of het brein als een computer.

Maar dankzij de technologie kunnen we ook steeds slimmere metingen aan het brein doen. Toegegeven: ook de leerlingen van Aristoteles deden aan empirische breinwetenschap – door het uiterlijk van het brein van verschillende dieren te vergelijken. Maar de moderne technologie stelt ons in staat om in levende breinen activiteit te meten, om in te grijpen in het denken met elektronica en het brein na te bootsen in computermodellen. Dat is machtig gereedschap.

Hoe ver brengt al dit technologische geweld ons eigenlijk bij het begrijpen van het brein? De moderne wetenschap is versnippert in allerlei specialismen en dit geldt ook voor het onderzoek aan het brein. Laten we er eens een aantal van bekijken.

Geheugen
Ik heb het eerder in deze serie al gehad over de lokalisatiegedachte : dat bepaalde taken op een bepaalde plek in het brein worden uitgevoerd. Maar we kunnen dit idee natuurlijk toepassen op het geheugen. Als ik aan mijn oma denk, heb ik daarvoor dan een specifieke cel of een klein groepje cellen nodig?

Het idee van lokalisatie van het geheugen heeft een grote impuls gehad door de experimenten van neurochirurg Wilder Penfield. Hij liet zien dat als het brein op specifieke plekken gestimuleerd wordt mensen zeer specifieke, levendige herinneringen rapporteren – alsof ze het op dat moment meemaakten. De suggestie dat die herinnering op die specifieke plek is opgeslagen is dan ook sterk. Ook de verwerking van zintuiglijke informatie was volgens Penfield gelokaliseerd hetgeen resulteerde in het beroemde homunculus plaatje: waar de hersenen zijn afgebeeld met specifieke delen van het lijf waar ze aan gekoppeld zijn.

Toch wierpen deze bevindingen niet meteen het idee dat herinneringen juist gedistribueerd werden opgeslagen tegen. Een probleem was dat de herinneringen die Penfield kon oproepen heel anders zijn dan normale herinneringen. Ze waren heel levendig en vol detail, terwijl ‘normale’ herinneringen juist vaag zijn en met veel raadwerk aan elkaar gehouden worden. Bovendien was zijn stimulatie vrij grofmazig waardoor het nog altijd de vraag is wat hij precies stimuleerde. Een andere vraag was hoe een herinnering precies in een hersencel opgeslagen kan zijn.

Deze laatste vraag werd beantwoord door Donald Hebb. Hij stelde dat het brein leert door het netwerk van neuronen aan te passen. Erik Kandel toonde later aan de hand van zeeslakken aan dat Hebbs hypothese correct was. Geheugen werkt via het versterken en verzwakken van connecties in het brein. Dit netwerkidee sluit niet uit dat specifieke cellen aan specifieke herinneringen gekoppeld zijn, maar hoe ‘lokaal’ of ‘geïsoleerd’ die netwerken zijn is een open vraag. We weten simpelweg niet hoeveel cellen samen een herinnering vangen, of die dicht bij elkaar zitten – en in hoeveel herinneringen elke cel een rol speelt.

Het vermogen om nieuwe herinneringen op te slaan kan kapot gaan. De patiënt Henry Molaison werd bijvoorbeeld voor epilepsie behandeld met een breinoperatie waarin delen van het brein worden verwijderd (lobotomie) – een behandeling die wel op schizofrene patiënten werd uitgevoerd.

Daarna kon Henry geen nieuwe herinneringen meer opslaan. Oude herinneringen waren nog prima en werkten zoals altijd, maar nieuwe gebeurtenissen sloeg hij gewoon niet op. Henry is uitgebreid onderzocht en daardoor hebben we veel geleerd over het brein, maar een van de meest duidelijke dingen is dat er een specifiek hersengebied is: de hippocampus, waar de opslag van herinneringen geregeld wordt.

Inmiddels weten we zoveel van de biochemie van leren, dat we valse herinneringen in muizen kunnen inplanteren met elektronica. Bepaalde cellen waarvan we weten dat ze betrokken zijn bij het herkennen van een bepaalde geur worden gestimuleerd samen met cellen die met beloning te maken hebben. Vervolgens herkennen muizen die geur, ook al hebben ze hem nooit eerder in het lab geroken.

Het neurologische onderzoek van het geheugen is dus wat paradoxaal. We weten erg veel en we begrijpen het brein zelfs zo goed dat we het kunnen controleren, terwijl we tegelijkertijd nog altijd geen antwoorden op basale vragen hebben over hoe herkenningen worden opgeslagen.

Circuits
Aangezien we weten dat herinneringen in netwerken van cellen worden opgeslagen, is het dan niet mogelijk om het brein te leren kennen door het simpelweg in kaart te brengen? Dat wil zeggen door vast te stellen welke neuronen met welke verbonden zijn?

Wetenschappers hebben dit op verschillende manieren proberen te doen. Eén manier is om het gedrag van individuele neuronen te bestuderen in het lab en in het brein. Dit onderzoek is begonnen met katten. Onderzoekers verdoofden een kat en maten de activiteit van één van de hersencellen als gevolg van lichtinval in het oog. De cel bleek alleen gevoelig voor een lijn die verticaal bewoog. Andere vormen en bewegingen hadden geen effect. Het idee was geboren dat cellen hoogst gespecialiseerd zijn.

Mensen zijn ook op deze manier onderzocht. Ook daar bleek specialisatie. Er bleken bijvoorbeeld cellen bij proefpersonen die reageerden op afbeeldingen Jennifer Aniston, maar niet op andere gezichten of beelden.

Toch is de conclusie dat er zoiets bestaat als een Jennifer-Aniston-cel niet helemaal terecht. De cel maakt immers deel uit van een netwerk. De ‘code’ voor de actrice kan verdeeld zijn over heel veel cellen waar deze toevallig bij hoort. En de cel kan bijdragen aan andere codes waar we geen weet van hebben omdat die niet getest zijn.

Door onze focus op die ene cel verliezen we het totaal uit het oog – en daardoor weten we eigenlijk nog steeds vrij weinig. De indruk die wel ontstaat is dat er een hiërarchie bestaat in het brein, waarbij sommige cellen gevoelig zijn voor veel verschillende stimuli en anderen die veel meer gespecialiseerd zijn, waarbij de gespecialiseerde cellen veel bijdragen aan de herkenning van een bepaald concept. Maar wat die ‘topcel’ dan precies codeert is alsnog een grote vraag.

Als je niet te veel wilt inzoomen op een enkele cel kun je als wetenschapper ook de bedrading als geheel onderzoeken: welke cellen zijn precies met elkaar verbonden? Dit wordt het connectome genoemd. Dit is alleen voor de meest eenvoudige dieren te doen. Een enkele hersencel kan verbindingen hebben met tientallen andere cellen en dat kan wel 30 meter bedrading betekenen.

In de jaren tachtig lukte het voor een wormpje: C. elegans. Het wormpje heeft 900 cellen, waaronder 300 neuronen. Seymour Benzer kreeg er de Nobelprijs voor. Inmiddels wordt aan een diagram van de fruitvlieg larve gewerkt. Daarmee is iets wat ook maar in de verste verte lijkt op de complexiteit van een zoogdierenbrein nog ver weg.

En dan is de vraag wat die bedrading laat zien. Onderzoek liet zien dat verantwoordelijkheden op verschillende manieren in het netwerk terecht kunnen komen. Met andere woorden: voor zover we al een eenduidig antwoord uit te halen is over wat de fysieke bedrading is, dan kan hersenactiviteit nog altijd op verschillende manieren door die bedrading lopen. Cellen kunnen verschillende rollen aannemen. Dat roept de vraag op hoe dit breinkaart project ooit inzichten gaat opleveren waar we direct mee doorkijken. Op zijn minst zullen we moeten modelleren wat er op die infrastructuur gebeurt.

Computers
Daar komen computers weer van pas het brein kan softwarematig gesimuleerd worden. Vroege pogingen lijken op wat nu het neurale netwerk genoemd wordt. Er is een input en een output en stukjes software daar tussenin (verborgen lagen) die signalen bewerken en doorgeven aan andere cellen.

In principe is dit een krachtig model van hoe het brein werkt en het heeft ons lerende en patroonherkennende computers gebracht, maar weinig inzicht in hoe het brein werkt. Op zich kan je monitoren hoe de software verandert op basis van een leertaak, maar dat heeft zo weinig inzicht gebracht dat van AI gezegd wordt dat het een soort alchemie is. Soms werkt het goed, maar soms ook niet en niemand lijkt te kunnen begrijpen waarom dan.

Een indrukwekkende loot aan deze stam zijn brein-computer interfaces. Via een implantaat bouwen wetenschappers een directe link tussen het brein en een computer. Mensen kunnen zo met hun brein een prothese leren besturen en er zijn ook pogingen om protheses voor de zintuigen, zoals de ogen, te maken. Het lijkt het ultieme bewijs dat we het brein zo goed begrijpen dat we het onder controle kunnen krijgen, maar feitelijk zien we hoe twee lerende systemen zich op elkaar aan kunnen passen. Het brein leert de input van de prothese verwerken, de prothese leert patronen in de elektriciteit van het brein te herkennen. Die lerende systemen blijken succesvol samen te kunnen werken en, hoe indrukwekkend dat ook is, het leert ons weinig over de precieze werking van het brein.

Chemie
Tot nu toe hebben we vooral de elektrische kant van het brein besproken, maar het brein is ook een chemische fabriek.

De ontdekking van LSD luidde een tijdperk in waarin de chemie van het brein volop in de belangstelling kwam te staan. De werking werd toevallig ontdekt door Albert Hofmann in 1943 toen hij het stofje, dat ontwikkeld was als middel om beter te kunnen ademen tot zich nam en tijdens een fietstochtje in een hallucinante trip belandde.

Er was wel bekend dat er stoffen waren die je stemming konden beïnvloeden, maar zulke sterke en precieze effecten op het brein waren onbekend. Al snel werden ook andere stoffen ontdekt zoals antidepressiva en lithium. De ontdekking van deze stoffen viel ongeveer samen met de vaststelling dat de overdracht van neuroactiviteit chemisch en dus niet elektrisch van aard is. Het had een enorme impact op de psychiatrie (destijds nog in de ban van psychoanalyse), maar na deze vruchtbare beginperiode liep de vondst van psychoactieve stoffen dood.

Er werden honderden chemische stoffen geïdentificeerd die op verschillende tijdschalen een effect op het brein hadden, waardoor er een nieuwe laag van complexiteit aan ons begrip van het brein werd toegevoegd. Alsof een brein dat puur elektrisch werkt al niet ingewikkeld genoeg was. Helaas begrijpen we nog weinig van de precieze rol van al deze stoffen en is het toedienen van psychoactieve stoffen aan het lichaam een vrij grofmazige methode om het brein mee te behandelen. Daarom – en omdat er al jaren geen goede kandidaten zijn – lijkt dit onderzoek een beetje op een dood spoor te zitten.

Lokalisatie
Naast lokalisatie van het geheugen is ook lokalisatie van functie nog altijd een onderwerp van onderzoek. Dit onderzoek nam in de tweede helft van de 20e eeuw een grote vlucht door fMRI. fMRI is een indrukwekkende scanningstechniek die vrij precies kan vaststellen waar er bloed door het brein stroomt. Dit wordt op haar beurt als een indicator van activiteit gezien. Vrij precies is overigens nog altijd zeer grofmazig in relatie tot individuele hersencellen: een gebiedje van één fMRI-pixel bevat 5,5 miljoen neuronen.

fMRI is populair omdat op relatief eenvoudige wijze kan worden aangetoond dat bepaalde hersengebieden actief zijn bij bepaalde taken, waardoor een hersengebied voor specifieke emoties, bepaalde soorten beelden en andere stimuli geïdentificeerd kunnen worden. Het idee achter dit programma is dat we die hersengebieden één voor één in kaart kunnen brengen, waarmee we een basis leggen om ook iets te zeggen over de samenwerking van al die gebiedjes. We kunnen de losse radertjes als het ware later weer in elkaar zetten om te laten zien hoe de machinerie van ons denken werkt.

Het probleem is echter er geen bewijs is dat zulke specialisaties bestaan. Immers dat een bepaald gedeelte actiever is tijdens een bepaalde taak zegt niet zoveel over wat het gebied precies doet en in hoeverre het steun ondervindt van andere hersenonderdelen, noch hoe het zou reageren op andere stimuli. Het is vrijwel onmogelijk om op basis van al deze losse experimenten ook maar te begrijpen hoe de hersendelen die oplichten werken.

En dan is er nog de vraag of die fMRI metingen zelf wel deugen. Omdat er zoveel statistiek nodig is om tot de beelden te komen is er een risico op ‘valse positieven’: experimenten waarin de hersendelen oplichten zonder er iets aan de hand is. Dat dit kan optreden is op spectaculaire wijze aangetoond door onderzoekers die een hersengebied vonden voor het herkennen van emoties in een dode zalm. Ze schreven het artikel over de dode zalm vervolgens precies op zoals onderzoekers die fMRI bij levende mensen toepassen doen, waardoor ze op een pijnlijke manier duidelijk maakten dat deze wetenschap niet zo sterk is als dat de auteurs zelf geloven.

Ook de interpretatie dat fMRI ten minste heeft laten zien dat lokalisatie de regel en niet de uitzondering is in het functioneren van het brein lijkt niet te kloppen. Veel experimenten laten ook zien dat veel taken in het brein gedistribueerd zijn over het hele brein. Zoals de beroemde spiegelneuronen. Eerst dachten we dat die op een bepaalde plek zaten, maar later bleek dat ze verdeeld zijn over het hele brein. Er zijn er ook veel meer dan we dachten: 11% van de neuronen uit de neocortex blijken spiegelneuronen te zijn. Eigenlijk is de uitkomst van al dit onderzoek dat lokalisatie nooit het hele verhaal vertelt en dat we nog altijd weinig weten van hoe het brein haar netwerken organiseert.

Lokalisatie van functies in netwerken van cellen is nog altijd een plausibele hypothese, maar die netwerken zijn zeker niet altijd ook geconcentreerd in de ruimte. De fMRI heeft dezelfde problemen als de Jennifer-Aniston-cel-experimenten – en die zijn nog lang niet opgelost.

Bewustzijn
Als we toch aan het meten zijn: wat zou het mooi zijn als we op een fMRI-plaatje precies konden zien waar het bewustzijn zit zodat we eindelijk kunnen vaststellen dàt, en hoe, het bewustzijn een product is van hersenactiviteit.

Dat kun je niet makkelijk met experimenten aantonen. Je moet immers onbewuste hersenactiviteit met bewuste hersenactiviteit vergelijken. Maar iemand een cognitieve taak geven, zoals in fMRI gebruikelijk is, werkt hier niet voor omdat dit allemaal ‘bewuste’ taken zijn.

Toch is er wel onderzoek uitgevoerd naar de ‘neurologische correlaten van het bewustzijn’. Men is begonnen met het meten van hersenactiviteit bij het ontwaken. Dat ligt voor de hand omdat we bij het slapen niet bewust zijn, en bij het wakker worden wel. Dat onderzoek liep echter dood omdat het signaal te vaag was.

Ander onderzoek richtte zich op de rol van hersenhelften. Dit was mogelijk bij dieren en mensen van wie de hersenhelften operatief gescheiden waren. Dit onderzoek gaf in ieder geval sterk bewijs dat het brein een rol speelt in het bewustzijn. Bij mensen met losgesneden hersenhelften kunnen de beide helften apart van elkaar bestudeerd worden, omdat de visuele input verdeeld is. Het rechteroog is gekoppeld aan de linker hersenhelft en andersom.

De experimenten laten zien dat de twee hersenhelften allebei tekenen van bewustzijn tonen, hoewel dit makkelijker te onderzoeken is voor de linker hersenhelft waar onze taalproductie zit. Beide helften lijken zich echter op geen enkele manier van de ander bewust. De suggestie van deze experimenten is dat als je het brein splitst je ook twee verschillende bewustzijnen krijgt. Dit wijst er in ieder geval op dat breinactiviteit en bewustzijn sterk samenhangen.

Nieuw onderzoek richt zich op het stimuleren van bepaalde delen van het brein. Zo zijn er delen van het brein die gevoelens van angst oproepen bij de proefpersonen als ze gestimuleerd worden. Of er een deel van de hersenen bestaat dat angstbewustzijn controleert is maar zeer de vraag. Dezelfde cellen zijn bij andere processen ook betrokken.

Er is dus nog weinig experimenteel bewijs voor de relatie tussen het brein en het bewustzijn. Genoeg om de stelling te ondersteunen dat het bewustzijn veroorzaakt wordt door het brein, maar niet genoeg om licht te werpen op hoe dat dan in zijn werk gaat. Er zijn in de laatste jaren theorieën ontwikkeld over deze relatie, maar overtuigend bewijs, of zelfs een scherp idee van hoe dat bewijs er uit moet zien is er gewoon nog niet.

Tot slot
De moderne wetenschap heeft met haar technologisch vernuft, en focus op wat meetbaar is enorm veel kennis opgeleverd over de biologie van het brein. Maar het is wel de vraag of we nu ook beter grip hebben op de werking van het brein. We zien het als een orgaan dat informatie opslaat door netwerken van cellen aan te passen. Maar hoe dat in zijn werk gaat; hoe die netwerken zelf georganiseerd zijn; wat de rol is van al die chemische stoffen die bij het proces betrokken zijn; en hoe belangrijk lokalisatie is. Eigenlijk weten we daar nog heel weinig van af.

We hebben er duizenden puzzelstukjes bij gekregen, maar niet zoveel overkoepelende nieuwe ideeën over hoe het brein zou kunnen werken. In die zin kun je je afvragen of we zoveel verder zijn dan een halve eeuw geleden. Er is door het empirische geweld en de explosie van onderzoek in de neurologische breinwetenschap veel hard bewijs, maar weinig ideeën over wat we eigenlijk proberen te bewijzen.

Een kernprobleem lijkt te zijn dat het bewijs op macroniveau: “hoe reageert het totale netwerk op een impuls?”, slecht te koppelen is aan het mesoniveau: “welke activiteit zien daarbij we in de hersenen?”, en het microniveau: “hoe reageert één cel?”. Het is natuurlijk niet uit te sluiten dat die schakels snel gevonden zullen worden, maar de bottleneck lijkt eerder in ons denken over het brein te zitten dan in de metingen, waar in de moderne tijd zo sterk de nadruk op is komen te liggen.

Meer lezen?
Dit blogje is in zijn geheel gebaseerd op ‘The Idea of the Brain’ van Matthew Cobb. Het maakt het derde deel uit van een vijfdelige serie, die begon met de post ‘brein quintologie’, verder ging met ‘op zoek naar het brein’ en ‘informatieverwerker’ en nog verder gaat met ‘het onbegrijpelijke brein‘.

Ik schreef al eens over de ontwikkeling van ‘little science naar big science‘, iets dat zich spiegelt in de breinwetenschap, besprak het bewustzijn in wil, en bewust en het geheugen in geheugenmachine.

Deze blogjes zijn natuurlijk nog het meest bedoeld om jullie lekker te maken om ‘The Idea of the Brain‘ zelf te lezen.

Informatieverwerker

Hebben we het brein altijd al gezien als een ‘soort computer’? Niet bepaald.

Tijdens de industriële revolutie probeerden we het brein vooral te begrijpen als een machine, met begrippen als krachten, elektriciteit en scheiding van functies. Pas in het begin van de 20e eeuw werd ‘informatie’ het dominante begrip.

Met de introductie van de meet- en regeltechniek, en later de computer, ontstond een generatie machines die misschien beter geschikt was om als model voor het brein te dienen dan de stoommachine en haar opvolgers. Dit blogje gaat in op de omslag in ons denken over het brein die door deze ontwikkeling is veroorzaakt.

Inhibitie (19e eeuw)
Misschien was het een wetenschappelijke ontdekking uit de late negentiende eeuw die ons voor het eerst op het informatiespoor zette: inhibitie. Inhibitie is het effect dat sommige zenuwen lichaamsfuncties remmen in plaats van stimuleren

In 1845 lieten Ernst en Eduard Weber zien dat elektrische stimulatie van bepaalde zenuwen de hartsnelheid kon verlagen in plaats van verhogen. Natuurlijk, dit idee van het lichaam als regelsysteem paste wel in de mechanische (pneumatische) metaforen die in die tijd voor het zenuwstelsel opgang maakten. Alleen was het niet makkelijk te onderzoeken en het was onduidelijk hoe het voor het brein werkte.

De vragen die inhibitie opriepen werden nog versterkt door de ideeën van Hermann von Helmholtz die liet zien dat perceptie geen passief proces was. Het oude idee was dat de wereld een indruk op ons brein achterlaat, maar Helmholtz had redenen om een actief proces te veronderstellen. Het argument was dat het brein een 3D wereldbeeld construeert uit twee 2D beelden die door beide ogen worden waargenomen. Dit gebeurt onbewust, maar het betekent wel dat de beelden waar we ons bewust van worden moeten worden gezien als een soort conclusie die aan het bewustzijn gevoerd wordt, eerder dan een directe afdruk van de buitenwereld.

Helmholtz’ idee werd ondersteund door de filosofie van Emanuel Kant die stelde dat perceptie ontstaat doordat het brein haar kenvermogen op de werkelijkheid projecteert. Beide ontdekkingen gaven aanleiding om het brein als een proactief orgaan te zien, eerder dan een passieve waarnemer van de werkelijkheid. De vraag bleef alleen: hoe dan?

Neuronen (19e en 20e eeuw)
Vandaag de dag zouden we ongetwijfeld neuronen bij ons antwoord betrekken. Neuronen zijn de cellen waaruit ons zenuwstelsel is opgebouwd, maar het duurde lang voordat zelfs maar kon worden vastgesteld dat het cellen waren.

Neuronen zijn met elkaar verbonden via fijne vertakkingen die moeilijk waarneembaar zijn. Daardoor kon men niet vaststellen of het zenuwstelsel uit losse cellen bestond of een weefsel vormde dat tussen andere cellen lag. Dit veranderde toen Camillo Golgi bij toeval een techniek ontdekte waarmee zenuwcellen bij het afdrukken een andere kleur kregen dan omliggende cellen. Nu konden zenuwcellen zichtbaar gemaakt worden.

De techniek werd verbeterd door een andere wetenschapper: Ramón y Cajal. Maar beide wetenschappers verschilden van mening over wat de prints met zenuwcellen eigenlijk lieten zien: een weefsel of losse cellen. Toen Golgi en Cajal samen de Nobelprijs kregen, waren ze het nog altijd oneens. Uiteindelijk werd aangetoond dat zenuwcellen inderdaad als cellen gezien moeten worden en niet als een weefsel.

Dit inzicht bracht de wetenschap een stap verder. Met een bouwsteen in handen: de cel, het neuron, kon het zenuwstelsel veel beter onderzocht worden. Langzaam werd duidelijk dat zenuwcellen verschillen in vorm. Op verschillende locaties zijn er verschillende cellen – hetgeen op specialisatie duidt. Verder hebben de cellen vertakkingen als ingangen (dendrieten) en uitgangen (axonen). De overgang tussen twee zenuwcellen (de synaps) speelt een belangrijke rol in het functioneren ervan.

Ook werd duidelijk dat stroom maar in één richting door de hersencel kan. En dat de cellen er in slagen spieren te activeren via een chemisch proces bij de overgang tussen twee cellen. Deze laatste bevinding was de uitkomst van een lang wetenschappelijk dispuut waarin voorstanders van een chemische theorie (soups) lijnrecht tegenover die van een elektrische theorie (sparks) stonden.

Hoe meer we door deze lijn van onderzoek ontdekten, hoe meer het misschien begon te dagen dat we nog weinig wisten. De telefooncentrale was lang een metafoor geweest om het brein mee te begrijpen, maar het was duidelijk dat als de neuronen al als schakelaars gezien moesten worden, ze heel anders werkten dan de schakelingen in deze centrales.

Machines (20e eeuw)
Het gebruik van ideeën uit de techniek om het lichaam te begrijpen is vermoedelijk zo oud als het denken zelf. In de geschiedenis van het denken over het brein zijn we dit idee al verschillende malen tegengekomen. Maar in de 20e eeuw draaiden onderzoekers de richting om. Ze gingen pogingen doen om het brein in technische zin na te maken: ze ontwikkelden robots.

De meet- en regeltechniek kwam op – en machines die bijvoorbeeld een koers vast konden houden, werden daardoor mogelijk. Thomas Ross bouwde een robot die via trial en error zijn weg door een doolhof kon vinden en dit daarna kon herhalen; de meest eenvoudige manier om een leerproces weer te geven. Maar in veel opzichten was Ross’ machine niet meer dan een gimmick. Een wijziging in het doolhof maakte al dat de robot zijn weg niet meer kon vinden.

Het onderzoek naar inhibitie had al aangetoond dat neuronen ook deel uitmaken van een meet- en regelsysteem. We wisten alleen nog niet hoe. Onderzoek naar de elektrische werking van neuronen gaf antwoorden – en nieuwe vragen.

Elektriciteit gaat heel anders door een neuron dan door een metaaldraad en ook veel langzamer. De eerste biochemische modellen werden voorgesteld om dit te kunnen verklaren. Ook werd ontdekt dat zenuwen alles-of-niets-gedrag vertonen. Ze zijn in essentie digitaal. Ze kunnen pulsen sneller of langzamer afgeven, maar elke puls is even sterk.

In de eerste Eerste Wereldoorlog werden radioversterkers ontwikkelt. Edgar Adrian en Yngve Zotterman gebruikten dit om aan te tonen dat: (1) neuronen digitaal van karakter zijn, (2) ze stoppen met vuren als ze te veel gestimuleerd worden en (3) de intensiteit uitgedrukt wordt in pulsfrequentie en niet in puls-sterkte. Later paste Adrian deze versterkingstechniek ook op het brein als geheel toe en ontdekte dat het brein in rust in een bepaalde frequentie actief is (we noemen dat nu alfagolven).

Deze ontdekkingen lieten misschien eerder de ‘vreemdheid’ van het zenuwstelsel zien dan dat ze antwoorden gaven over de werking ervan. Maar ze introduceerden, samen met de robotexperimenten, wel nieuwe begrippen in het denken over het brein. Begrippen die later heel centraal zouden worden: informatie, code en boodschap.

Controle (20e eeuw).
En toen werd de computer uitgevonden: eerst op papier door Alan Turing en John von Neumann, in de jaren 40. Al snel, in de jaren 50, werden ze ook echt gebouwd. Turing bewees dat de ‘Turingmachine’, een vrij eenvoudig denkbeeldig apparaat, werkelijk elke denkbare berekening kon uitvoeren. Zou het brein niet op dezelfde manier kunnen werken?

In de vroege ontwikkeling van de computer was er veel enthousiasme over deze ideeën. Het vakgebied van de cybernetica kwam eruit voort. Hier stond de symbolische verwerking van signalen en communicatie centraal. Maar de droom dat het op korte termijn mogelijk zou zijn een computer te maken die het menselijk brein zou simuleren spatte al snel uiteen.

De eerste intelligente robots waren ook niet erg intelligent, maar wat erger was, de binaire werking van de computer leek niet op de werking van neuronen. Die zijn in principe ook binair, maar ze verwerken signalen op een analoge manier. Signaalsterkte wordt uitgedrukt in vuurfrequentie. De logische schakelingen in de computer met EN-poorten en OF-poorten kunnen helemaal niet met een dergelijk signaal omgaan.

Het idee dat het brein een machine is die symbolen verwerkt is blijven hangen, maar we moesten wachten op een theorie van hoe de biologie die verwerking aanpakt.

Tot slot
Het zenuwstelsel is te zien als een regelsysteem en als een informatieverwerker. In veel opzichten denken we er nog altijd zo over. En toch hebben de meet- en regeltechniek en computerwetenschappen de belofte dat ze ons zouden helpen om het brein te begrijpen maar zeer gedeeltelijk ingelost.

Op sommige niveaus lijkt ons zenuwstelsel op een regelsysteem, maar de soorten signalen die het gebruikt zijn heel anders dan die we uit de techniek kennen. Steeds moesten we concluderen dat het brein toch echt anders werkt dan de techniek die we als model gebruikten.

En dan is er nog de vraag hoe het allemaal schaalt. Hoe ontstaan uit al deze signaalverwerking intelligentie en bewustzijn? Het is nog altijd een vraagstuk waar we slecht raad mee weten. Daarom zijn we, zoals ik in mijn volgende blogje laat zien, computers maar gaan inzetten om het brein beter door te meten en te modelleren, in plaats van zelf als een model voor het brein te dienen.

Meer lezen?
Dit blogje is in zijn geheel gebaseerd op ‘The Idea of the Brain’ van Matthew Cobb. Het maakt het derde deel uit van een quintologie, die begon met de post ‘brein quintologie’, verder ging met ‘op zoek naar het brein’ en nog verder gaat met ‘gedachtenmeting‘ en ‘het onbegrijpelijke brein‘.

Ik schreef al eerder over de wisselwerking tussen informatiewetenschappen en technologie en in ‘reading James Gleick’s the information’ en over de ideeën van Emanuel Kant in ‘kenvermogen

Deze blogjes zijn natuurlijk vooral bedoeld om jullie lekker te maken om The Idea of the Brain zelf te lezen.

Brein quintologie

Hoe denken wij mensen eigenlijk over onze eigen intelligentie? Matthew Cobb probeert in ‘The Idea of the Brain’ uiteen te zetten hoe het denken over het brein zich door de tijd heen heeft ontwikkeld. Dat is snoepen natuurlijk. Wetenschapsgeschiedenis is altijd al boeiend omdat het ons iets leert over hoe we, met vallen en opstaan, aan kennis komen. Maar als het onderwerp van die geschiedenis dan ook nog het orgaan is waar we die kennis mee opdoen, dan kan een beetje kentheoreticus zijn geluk niet op. Maar Cobb maakt het ons tegelijkertijd helemaal niet makkelijk. 

Cobb laat zeker zien hoeveel we meer te weten gekomen zijn over het brein in de loop van de tijd, maar ook hoeveel vragen nog open liggen – en hoe het maar de vraag is of we met de huidige wetenschappelijke aanpak antwoorden kunnen krijgen op die vragen. ‘The Idea of the Brain’ is het verslag van een onvoltooide reis. Als die reis je interesseert, dan moet je het boek zeker bestellen en lezen, maar als je meer geïnteresseerd bent in de bestemming dan is het misschien verstandig om tenminste nog een paar decennia te wachten.

Afijn. Zelf vind ik dat het de reis is die telt en daarom neem ik ook wat meer ruimte dan gebruikelijk om Cobb’s ideeën te bespreken. Ik deel dit blogje op in vijf delen. Na deze overzichtspost ga ik in het tweede blogje in op de oude geschiedenis van het denken over het brein. In de oude geschiedenis moesten we leren dat onze intelligentie geproduceerd wordt door een orgaan. We moesten leren dat het zenuwstelsel en de hersenen dat orgaan vormen. En we kwamen er achter dat het brein geen radartjes met specifieke functies heeft.  

In het derde blogje over dit onderwerp ga ik in op het brein als ‘informatieverwerkende machine’. In de vroege 20e eeuw begonnen we het brein te begrijpen als een orgaan dat signalen verwerkt, en omdat we in dezelfde tijd machines gingen bouwen die dat ook deden, zoals de telegraaf -en later de computer, dachten we dat we een aardig eind waren met het begrijpen ervan. We moesten er nog achter komen dat het brein in een aantal opzichten fundamenteel anders in elkaar zit dan die machines.

In het vierde blogje ga ik in op hoe moderne wetenschappers het brein proberen te begrijpen door detailstudie van de processen die daar plaatsvinden. Ze bestuderen hersenactiviteit in zoveel detail als mogelijk; ze proberen het brein te besturen met implantaten; en ze proberen hersenprocessen na te bootsen in computers. Al die pogingen zijn op zichzelf erg indrukwekkend, maar Cobb roept wel de vraag op of we met al dat computergestuurd wetenschapsgeweld wel dichter bij het begrijpen van het brein gekomen zijn.

Tot slot ga ik in het vijfde blogje in op de overkoepelende lessen die we uit het werk van Cobb kunnen trekken: over het brein en over de hersenwetenschap. Over wat we weten, wat we nog moeten ontdekken en over de vraag of al dat gepuzzel wel zin heeft. Tot dan!

Meer lezen?

Dit is het eerste blogje van een serie over ‘The Idea of the Brain’ van Mathew Cobb. In het volgende blogje: op zoek naar het brein ga ik in op de oude breinwetenschappen; in informatieverwerker op de toepassing van het idee van informatie en communicatie op het brein; in gedachtenmeting op de moderne breinwetenschap; en in het ‘onbegrijpelijke brein‘ op de lessen die uit deze wetenschapsgeschiedenis getrokken kunnen worden.

Ik schreef al eens over het bewustzijn in ‘wil‘ en over de werking van het geheugen in ‘geheugenmachine

Ik schreef ook al eerder over wetenschapsgeschiedenis. Bijvoorbeeld in de wetenschapsgeschiedenis van Rens Bod en over de wisselwerking tussen informatiewetenschappen en technologie en in ‘reading James Gleick’s the information’.

Deze blogjes zijn natuurlijk vooral bedoeld om jullie lekker te maken om The Idea of the Brain zelf te lezen.

Wil

Het zou natuurlijk zo kunnen zijn dat ik dit blogje niet schrijf omdat me dat leuk leek en ik ertoe besloten heb, maar dat dat besluit op de een of andere manier voor me genomen is – en dat mijn bewustzijn mij om een nog onbekende reden wijsmaakt dat ik dat besluit genomen heb. Of kortweg, dat het idee dat mensen bewuste besluiten nemen een illusie is. 

Dit lijkt een vreselijk omslachtige theorie, maar ze heeft fervente aanhangers, vooral onder neurowetenschappers. Wat bezielt hen toch? Waarom staat het idee dat we bewuste besluiten kunnen nemen hen zo tegen? 

Het is vast een heel ingewikkelde kwestie, maar twee boosdoeners zijn overduidelijk. De eerste is René Descartes, de Franse filosoof die dacht dat ons denken het bewijs van ons bestaan is. De tweede is  Benjamin Libet die in de jaren 80 een experiment uitvoerde waar we nog steeds van in de war zijn.

Het verhaal van Descartes zal bekend zijn. Hij probeerde aan alles te twijfelen en kwam toen tot de conclusie dat men het lichaam wel, maar de geest niet kan betwijfelen. Dit leidde tot het dualisme. Voor Descartes waren lichaam en geest fundamenteel verschillende dingen met een andere ‘substantie’. Het lichaam was beperkt, stoffelijk en tijdelijk en de geest was vrij, onstoffelijk en eeuwig. Hoe lichaam en geest elkaar beïnvloedden, wist Descartes niet, maar het idee dat de geest voortkomt uit het lichaam ging er bij hem zeker niet in. De geest was leidend, het lichaam hooguit een tijdelijk vehikel of een zielloze machine. Het dualisme is alweer uit, maar de vraag hoe de subjectieve beleving van het denken, het bewustzijn, samenhangt met de biologische basis ervan, het brein, is nog springlevend. 

In de jaren 80 voerde Benjamin Libet daarom een ingenieus psychologisch experiment uit dat die discussie behoorlijk op scherp zette. Libet vroeg proefpersonen om hun vingers vrijwillig te bewegen en om te rapporteren wanneer ze de aandrang voelden om die beweging uit te voeren, terwijl Libet hun hersenactiviteit mat. Het bleek dat de bijbehorende hersenactiviteit voor die beweging al ruim 200 milliseconden voordat mensen een aandrang voelden om hun vingers te bewegen in de hersenen te zien was. Mensen zetten de beweging al in voordat ze zich er bewust van zijn dat ze dat willen.

Dat is tegenintuïtief. Ons boerenverstand zegt: je moet eerst een besluit nemen voordat je er naar kan handelen. Dus moet je je eerst bewust worden dat je je hand wilt bewegen en dan pas de beweging inzetten, niet andersom. Maar die omgekeerde volgorde is wel hetgeen Libets data lieten zien.

Zou het zo kunnen zijn dat het bewustzijn niet aan de knoppen van ons handelen zit, maar dat het zo’n beetje met de rest van de hersenen mee hobbelt – en dat het hooguit achteraf gevoel van controle voor ons fabriceert? Het bewustzijn is dan niet een stuur waarmee we richting kunnen geven aan het leven, maar een praatdoos die datgene wat we toch al doen voor ons goedpraat.

Het is deze naïeve interpretatie van het Libetexperiment die zo populair is onder neurowetenschappers. Dat heeft iets te maken met hun opvattingen over onderzoek. Neurowetenschappers proberen het brein te begrijpen vanuit de harde data die erover verzameld kan worden in EEG’s en fMRI-scans. Ze zijn wars van theoretische speculaties over het bewustzijn. Filosofen, die net als Descartes destijds, met gedachtenexperimenten vast proberen te stellen wat het bewustzijn is nemen ze niet serieus. We hoeven immers alleen naar Descartes te kijken om te zien wat voor absurde theorieën daaruit voortkomen.

Daarom kunnen we volgens hen het bewustzijn beter experimenteel bestuderen. Met moderne apparatuur kan je immers de werkelijkheid zelf laten spreken. Voor neurowetenschappers is psychologie in essentie een natuurwetenschap en ze vinden dat deze ook zo bedreven moeten worden. Dat is zo mooi aan het Libet experiment: het laat met harde data zien dat het bewustzijn niet bestaat.

Het probleem is alleen dat het Libet experiment dat helemaal niet laat zien. Het ironische van de naïeve interpretatie van het Libet-experiment is dat deze in essentie Cartesiaans is. De gedachte is dat er twee verschillende dingen zijn: (1) het bewustzijn en (2) het brein, dat je van elk van die dingen onafhankelijk kan meten wanneer ze actief worden en dat je oorzaak en gevolg kan vastellen door te kijken wie het eerst in beweging komt. Diegene die het laatste komt kan niet de veroorzaker kan zijn van wat de ander doet. 

Dat lijkt een sluitende redenering, maar er klopt iets niet. Want wat hadden we eigenlijk verwacht te zien? Dat mensen zich eerst bewust worden van een besluit en dat er daarna pas hersenactiviteit ontstaat? Waar komt dat bewuste besluit dan vandaan, als het niet uit de hersenen komt? Is het idee echt dat er geen hersenactiviteit nodig is voordat we een besluit nemen en dat onze grijze cellen daarna gaan rennen en vliegen omdat het besluit nu eenmaal moet worden uitgevoerd? 

Het ligt toch veel meer voor de hand dat we in het Libet-experiment verschillende aspecten meten van één proces waarin we een bewust besluit nemen en tot actie over gaan. We kijken niet naar twee dingen maar naar één ding: het nemen van een besluit tot actie. Een bewust besluit gaat natuurlijk gepaard met hersenactiviteit en die heeft tijd nodig om gang te komen. Als je dat op verschillende manieren meet is het niet vreemd dat het ene meetinstrument eerder opmerkt dat er iets gaande is dan het andere instrument. De EEG van Libet was gevoeliger voor de hersenactiviteit die bij het besluit hoorde dan de subjectieve beleving van de proefpersonen. Daarom sloeg ze eerder uit. 

Dat is een weinig opzienbarende uitkomst. Ik ben niet verbaasd dat het nemen van een besluit tijd kost. Ik ben niet verbaasd dat daar allerlei hersenprocessen bij betrokken zijn. Ik ben niet verbaasd dat sommige van die processen bewust zijn en andere niet. We moeten het brein, het bewustzijn en zeker de vrije wil niet los van elkaar zien.

Het is niet dat het bewustzijn besluiten neemt die het brein vervolgens uitvoert, het brein neemt besluiten en wij zijn ons daarvan bewust. Of misschien nog iets proactiever: het bewustzijn neemt deel aan onze besluitvorming. De rol van het bewustzijn is misschien bescheidener dan Descartes voor ogen had en wat we denken te denken heeft misschien minder invloed op ons handelen dan we denken. Maar het Libet-experiment laat op geen enkele manier zien dat het bewustzijn een illusie is of dat de vrije wil niet bestaat. 

Wat het experiment wel laat zien is dat je om nauwkeurige metingen te kunnen doen en die goed te kunnen interpreteren, een goede theorie nodig hebt. Er is te weinig bekend over de werking van het brein om te kunnen weten wat Libet nu precies mat en daardoor kunnen we er ook geen conclusies aan verbinden. Ik heb me er niet genoeg in verdiept, maar dezelfde beperking zou wel eens kunnen gelden voor veel moderner hersenonderzoek waar het idee van het bewustzijn als illusie mee onderbouwd wordt. 

Misschien ergeren de neurowetenschappers zich aan theorieën zoals die van Descartes. Tegelijk hebben onderzoekers die de data laten spreken, terwijl ze de theorie verwaarlozen, ons uiteindelijk even weinig te vertellen als de filosofen die denken dat twijfel afdoende is om de absolute waarheid te achterhalen. 

Meer lezen?
Ik schreef over het gedachtenexperiment van Descartes in Brein in een vat en over zelfbewustzijn in Poetsvissen, ik schreef ook al eens eerder over Gedachtenexperimenten in het algemeen en over de werking van het brein.

Dit blogje is natuurlijk een heel sterke vereenvoudiging van een complex debat. Een goede beschouwing van het Libet experiment vind je in dit artikel van Jan Verplaetse. Een niet onbelangrijk detail is dat Libet niet hersenactiviteit in het algemeen mat, maar een specifieke hersengolf die het ‘readiness potential’ wordt genoemd. In dit stuk wordt goed uitgelegd wat dat is en wat het naar moderne inzichten wel en niet zou kunnen zeggen over het debat over bewustzijn en vrije wil.

De wetenschapsgeschiedenis van Rens Bod

In zijn boek “Een wereld vol patronen” doet Rens Bod een poging om een totaaloverzicht van de geschiedenis van menselijke kennis te geven. Alle kennis. Niet alleen die sinds de wetenschappelijke revolutie, maar ook van voor de uitvinding van de landbouw. Niet alleen westerse kennis – maar ook die in India, de Arabische wereld en China. Niet alleen de natuur-, maar ook de geesteswetenschappen. Ik weet niet zo snel hoe je een ambitieuzer project kan bedenken.

Ik begon aan “Een wereld vol patronen” omdat ik de voorganger “De verborgen wetenschappen” prachtig vond. Dat boek verbreedde mijn kennis van de wetenschapsgeschiedenis enorm, omdat ik net zoals de meeste andere bèta’s vooral geschoold was in de westerse wis- en natuurkunde, sinds de Grieken. Ik had nooit van zoiets als filologie gehoord en het was boeiend om op deze manier ingewijd te worden in de problemen die schriftgeleerden moesten oplossen, de oplossingen die ze vonden en de impact die dat denken vervolgens had op de wetenschappen die ik beter kende.

Ik heb “Een wereld vol patronen” met plezier gelezen, maar het kon me minder bekoren dan “De verborgen wetenschappen”. Dat komt voor een belangrijk deel omdat ik dat boek al gelezen had en de nieuwe verbredingen me minder raakten. Ik zou graag meer weten over hoe kennis in de prehistorie zich ontwikkelde, maar omdat we het met grottekeningen en ingekerfde werktuigen moeten doen, valt er per saldo niet zoveel over te zeggen. Het is een groot goed dat Bod de kennis van Arabische, Indiase, Chinese en oude Amerikaanse beschavingen een podium geeft, maar die brede blik zorgt ook dat de afzonderlijke verhalen nog weinig uit de verf komen.

Normatief werkt de brede blik uit het boek prima: dit zijn allemaal dingen die een wetenschapshistoricus in beschouwing zou moeten nemen. Maar de uitwerking van al die onderdelen pakt nogal schetsmatig uit, hoe grondig het onderliggende onderzoek ook is. Daar komt nog bij dat Bod, de medische wetenschap uitgezonderd, de engineering disciplines niet meeneemt in zijn overzicht. Dat is een opmerkelijke omissie. Als gebouwen, werktuigen, scheepvaart, aquaducten en stoommachines geen weerslag zijn van systematische kennis, wat dan wel?  Bod slaagt erin de ambitie van een totaalgeschiedenis van menselijke kennis stevig op de kaart te zetten, maar het resultaat blijft sterk gekleurd door zijn eigen wetenschappelijke achtergrond.

Uiteraard probeert Bod ook duiding te geven aan de ontwikkeling van de menselijke kennis. Om kort te gaan, werd de mens zich eerst bewust van patronen: regelmatigheden waarmee losse feiten in verband worden gebracht, zoals de maanstanden, de tonen in gespannen snaren, of de overeenkomsten tussen verschillende bronnen. Later, vanaf de vroege oudheid, zijn mensen daar onderliggende principes bij gaan zoeken: vuistregels, wiskundige begrippen of andersoortige theorieën. De volgende stap was het vinden van herleidingen: regels waarmee principes en patronen met elkaar in verband gebracht kunnen worden, zoals de logica. Daarna verschoof de focus naar het terugbrengen van het aantal principes en gingen herleidingen een belangrijkere rol spelen. Dit mondde uit in de wetenschappelijke revolutie en in de empirische cyclus: in Bods visie een voorbeeld van een patroon in herleidingen.

Om eerlijk te zijn, vind ik deze theorie over de ontwikkeling van kennis zonde van het boek. Bod schrijft het volgende over de Indische wetenschapper Panini, die beweerde dat alle taal recursief was:

De Grieken lijken Panini’s werk niet te hebben gekend […] ze zouden Panini zeker hebben gewaardeerd met hun hang naar het ene in het vele. (P98)

Ik vermoed dat de Grieken Bods reductie van al het systematische denkwerk uit de gehele mensheid naar een dans van twee soorten begrippen -patronen en principes- om dezelfde reden hadden kunnen waarderen. Hoe krachtig is het als je al die diversiteit, al die denkwijzen, als die subtiele manieren waarop de verschillende wetenschappen elkaar gevoed en beïnvloed hebben terug kunt brengen tot een of twee makkelijk te begrijpen begrippen?

Niet zo krachtig, als je het mij vraagt. Veel mensen zullen het wel zo zien, maar ik blijk niet erg “Grieks”. Want die twee begrippen zijn maar begrippen. Ik voel me niet verlicht door het idee dat je de grammatica en de afwisseling van dag en nacht allebei als ‘patronen’ kan zien die je vanuit ‘principes’ kunt begrijpen. Dat is zó hoog over dat het afleidt van die dingen die echt boeien. Het kan toch niet zo zijn dat dit de beste manier is om een zorgvuldige vergelijking te maken tussen bijvoorbeeld de ontwikkeling van het recht en de ontwikkeling van de natuurwetenschappen in de middeleeuwen? Dat ze zich beide met principes en patronen bezighielden is misschien wel waar, maar ook nogal een lege constatering. En dat terwijl Bod juist zo zorgvuldig werk verricht heeft om al die verschillende kennis in kaart te brengen.

De theorie lijkt een poging te zijn om te laten zien dat het menselijke denken een ontwikkeling heeft doorgemaakt en mogelijk is verwetenschappelijkt. Daarmee gaat hij verder dan wetenschapsfilosofen als Popper en Laudan. Die beweren wel dat ze mechanismen voor de groei van kennis kunnen identificeren, maar passen die vervolgens eigenlijk niet toe op de geschiedenis zelf.  Laat staan dat ze er een ontwikkeling in ontwaren. Toch vind ik Bod ook op dit aspect overtuigingskracht missen: er komen veel uitzonderingen voor in het boek en Bod laat het bij beschrijvingen. Een verklaring waarom het denken door de tijd veranderd zou zijn ontbreekt. Interacties tussen de kennis en de context waarin die tot stand komt blijven onderbelicht. Daardoor blijft ook dit ontwikkelingsaspect te veel in het luchtledige hangen.

Kritische noten genoeg dus, maar dit zijn nauwelijks redenen om het boek in de boekhandel te laten liggen. De kracht van het boek zit niet in de duiding, het is juist de bloemlezing. Het is de diversiteit die Bod in deze eenvoud probeert te vangen, die het boek de moeite waard maken. Ik had het liefst gezien dat Bod die diversiteit gewoon lekker vrij had gelaten, maar zo knellend is het patroon-principe-keurslijf nu ook weer niet. Je kunt er gewoon doorheen lezen en genieten van het denken van al die denkers waar je nog nooit van gehoord had, die er achster tevoorschijn komt. 

Meer lezen?

Ik schreef over de groei van kennis in Het probleemoplossend vermogen van Larry Laudan, en Groeit kennis? In Anachronismen ging ik in op de moeilijkheid van het achteraf duiden van oude kennisstandaarden. Ik schreef ook al eens over het nut van Geschiedenis in het algemeen.

Er zijn weinig wetenschapshistorici die veel aandacht hebben voor de wisselwerking van de ontwikkeling van kennis en haar toepassing, maar uitzonderingen vormen wel Bruno Latour en ook The Information van James Gleick.

Zowel “De vergeten wetenschappen” en “Een wereld vol patronen” zijn het lezen waard.

Anachronismen

Imre Lakatos, de wetenschapsfilosoof, schijnt gezegd te hebben dat de wetenschapsfilosofie leeg is zonder de wetenschapsgeschiedenis en dat de wetenschapsgeschiedenis blind is zonder de wetenschapsfilosofie

Prachtig. Het zou inderdaad vreemd zijn als filosofen, die theorieën over de wetenschap opstellen, zich niet zouden interesseren voor hoe die wetenschap zich daadwerkelijk voltrokken heeft. Nou ja. Zulke filosofen bestaan wel natuurlijk: Lakatos begon er niet voor niets over. Het is ook lastig om geschiedenis te schrijven als je dat niet vanuit een theoretisch kader doet. Er is veel wetenschapsgeschiedenis. Als je niet specifiek naar iets op zoek bent wordt het lastig het allemaal te overzien. Hoewel ik me dan weer wel afvraag of de wetenschapshistorici uit de tijd van Lakatos blij waren met de avances van de filosoof. Heel gelukkig is dat huwelijk tussen de filosofie en de geschiedenis toch nooit echt geweest.

Daar zijn goede redenen voor, maar de spelbreker die ik het boeiendst vind, is het probleem van de anachronistische kennisstandaarden.

Een anachronisme is iets dat niet in de tijd past. In de middeleeuwen keken mensen niet op hun horloge. In de jaren 90 waren er geen smartphones. In films kan het gebruik van anachronismen heel humoristisch werken. In de films van Monty Python verspreiden historische figuren zoals Koning Arthur en Jezus steeds opvallend moderne denkbeelden. 

Wetenschapsfilosofen die iets willen zeggen over wat kwalitatief hoogstaande kennis is, of die echte wetenschap van valse wetenschap willen onderscheiden, lopen het risico net zo’n raar figuur te slaan als deze hoofdpersonen. Ze dringen zich niet alleen op aan de historici, maar ook aan de geschiedenis zelf. Er is geen enkel bewijs dat Aristoteles ooit gerandomiseerde dubbelblinde experimenten deed. Maakt dat hem een slechte wetenschapper?

Goed, dat was een flauwe retorische vraag, maar het punt zal duidelijk zijn: in de loop der tijd zijn de standaarden voor wat goede kennis is en voor hoe de wetenschap vooruitgang boekt veranderd. Daarmee is het anachronisme bijna onontkoombaar voor iedereen die iets verstandigs wil zeggen over de wetenschap. Hedendaagse ideeën over wetenschappelijke rationaliteit zeggen weinig over de wetenschap van vroeger en oude ideeën hebben inmiddels hun geldigheid verloren.

Het is ook een waar dilemma, want er zijn niet veel uitwegen te bedenken. Er is de olifant-in-de-porseleinkast-benadering van Karl Popper, die beweerde dat de wetenschapsfilosofie normatief is en dat het dus niet gaat over hoe wetenschap is, maar over hoe ze moet zijn. Dat zet de wetenschapsgeschiedenis buitenspel. Popper schoffeert met terugwerkende kracht alle wetenschappers die nog niet van zijn gouden standaarden op de hoogte waren en zich er niet aan konden houden.

Er is ook de olifant-in-de-porseleinkast benadering van Paul Feyerabend, die beweerde dat de wetenschapsgeschiedenis zo grillig is, dat er in het geheel niets te zeggen valt over welke benadering van de wetenschappen werkt en welke niet: anything goes. Daarmee zette hij de wetenschapsfilosofie buitenspel en reduceerde wetenschappers, goed en slecht, tot prutsers die maar wat aanklooien.

De gulden middenweg wordt bewandeld door iemand als Larry Laudan, die beweert dat er algemene principes zijn te geven voor de groei van wetenschap als geheel en tijdspecifieke invullingen van die principes die aan verandering onderhevig zijn. Volgens Laudan hebben wetenschappers altijd gewerkt aan het vergroten van het probleemoplossend vermogen van hun vak, maar verschillende ideeën gehad over hoe dat in te vullen is.

Dat klinkt een stuk eleganter dan de bruuske benadering van Popper en Feyerabend, maar je kunt je afvragen of het echt een uitweg biedt. Is het echt zoveel vriendelijker om van tijdspecifieke invullingen van kwaliteit te spreken dan om te zeggen dat alles geoorloofd is? En loopt het algemene principe niet ook het risico anachronistisch te zijn? Probleemoplossend vermogen klinkt alvast heel erg als iets van nu – en niet van alle tijden.

Wat zou het mooi zijn als de filosofen van nu met de wetenschappers van toen in gesprek konden. Ik zou er heel wat voor over hebben om in te kunnen loggen op een Zoom-call om een gesprek tussen Laudan en Aristoteles over probleemoplossend vermogen bij te wonen of met Popper over falsificatie. Of nee, als ik dan toch mag dromen: Aristoteles spreekt met Laudan over het probleem van anachronismen in de wetenschapsfilosofie.


Meer lezen?

Ik schreef over de ideeën van Larry Laudan in “Het probleemoplossend vermogen van Larry Laudan” en hij wees me in zijn boekje Progress and its Problems ook opmeet probleem van anachronismen. De ideeën van Karl Popper behandelde ik in “Groeit Kennis?” en “De drie werelden van Popper”.

De andere filosofen die ik hier noem trakteerde ik nog niet op zo’n uitgebreide bespreking. Maar het is interessant om de ideeën van Popper en Laudan eens te vergelijken met de uitkomsten van de empirische studies van de werking van wetenschap zoals ik die in “Lableven”, “De zwarte dozen van Latour” en “Big Science, Little Science” besprak.

Het probleemoplossend vermogen van Larry Laudan

In “Progress and its Problems” probeert Larry Laudan iets te doen wat de meeste wetenschapsfilosofen nooit gelukt is: een geschiedsgetrouwe theorie van wetenschappelijke vooruitgang formuleren. Dat is dapper en interessant – want die wetenschapsgeschiedenis is weerbarstig – en het resultaat mag er wezen: Laudans wetenschapsfilosofie is eenvoudig, elegant en genuanceerd.

De vooruitgangskwestie

Wetenschappers zijn graag zeker van hun zaak. Dat wil zeggen dat ze er alles aan doen om te zorgen dat hun uitspraken kloppen en dat ze morgen en overmorgen ook nog kloppen. Tegelijkertijd laat de geschiedenis zien dat wetenschappelijke inzichten in de loop der tijd steeds veranderen. Die twee dingen staan op gespannen voet met elkaar: wetenschappers beweren sinds de wetenschappelijke revolutie dat ze manieren hebben om tot zekere kennis te komen, maar die geschiedenis geeft ze gewoon steeds ongelijk. Er is in de hele wetenschapsgeschiedenis nog nauwelijks een wetenschappelijke uitspraak geweest die later niet herzien moest worden. 

Die spanning tussen de status aparte van wetenschappelijke kennis en de feilbaarheid van de wetenschap verdwijnt als we aannemen dat wetenschap vooruitgaat. Als wetenschappers erin slagen om steeds voort te borduren op bestaande inzichten en deze aan nieuwe tests te onderwerpen, dan kunnen ze beweren dat ze én de beste manier hebben om aan zekere kennis te komen én dat die kennis steeds verandert. Dan hoort het veranderen van kennis bij de aanpak om tot zekere kennis te komen. Het is juist het steeds voortschrijdende inzicht dat wetenschappelijke kennis zijn ‘status aparte’ geeft.

Maar ook hier laat de wetenschapsgeschiedenis ons in de steek. Onderzoek naar de vooruitgang van wetenschappelijke kennis laat zien dat het proces chaotisch is. De criteria die wetenschappers formuleren om vooruitgang vast te stellen – zoals verificatie en falsificatie – blijken niet daadwerkelijk leidend te zijn voor de keuzes die zij maken. Bovendien kunnen sociale processen – zoals de strijd om invloed en middelen – grote impact hebben op het wetenschappelijke bedrijf. Zolang we niet goed begrijpen hoé de wetenschap vooruitgang boekt, kunnen we niet zeker zijn dát de wetenschap vooruitgang boekt.

In een notendop is dit dus het probleem:

1 Als we terug kijken in de geschiedenis, zien we veel achterhaalde inzichten. 

2 Daardoor denken we dat de wetenschap vooruitgaat.

3 Maar we begrijpen eigenlijk niet hoe dat in zijn werk gaat. 

4 Daardoor kunnen we wetenschappelijke vooruitgang niet herkennen. Bij ontwikkelingen in de wetenschap weten we niet of we daadwerkelijk naar vooruitgang of gewoon naar verandering kijken.

5 Dit geeft weer problemen voor de status van wetenschappelijke kennis. De vraag is of de feiten van vandaag het resultaat zijn van een zoektocht die al in de 16e eeuw begon of eerder ‘in de waan van de dag’ ontstaan zijn.

Probleemoplossen

Volgens Laudan kunnen we wetenschappelijke vooruitgang het best begrijpen als we wetenschap zien als een probleemoplossende discipline. De stelling dat wetenschappers aan wetenschappelijke problemen werken, lijkt eigenlijk weinig opzienbarend. Maar andere wetenschapsfilosofen hebben zich vooral gericht op concrete activiteiten binnen dat probleemoplossen, zoals het doen van observaties, het uitvoeren van experimenten of de logische structuur van argumenten. Daardoor ligt de nadruk in die filosofieën sterk op het experimentele handwerk. Laudan kiest voor een bredere blik, een die meer zicht geeft op het proces van vooruitgang in plaats van het formuleren van een gouden standaard voor wetenschappelijke bewijsvoering.

Wat is een wetenschappelijk probleem? Volgens Laudan zijn er twee soorten: empirische problemen en conceptuele problemen.

Een empirisch probleem doet zich voor wanneer de werkelijkheid zich anders gedraagt dan je zou verwachten. In de ochtend vind je vaak waterdruppeltjes op de ruiten. Dit is een empirisch probleem totdat je een er een bevredigende verklaring voor hebt, zoals: “koude lucht kan minder water bevatten dan warme lucht”. Deze verklaring vormt meteen een nieuw empirisch probleem. Waarom kan koude lucht minder water bevatten dan warme lucht? Dat vraagt ook weer om een verklaring. Empirische problemen ontstaan in het samenspel tussen theorie en werkelijkheid.

Een conceptueel probleem doet zich voor wanneer een theorie niet in overeenstemming is met andere theorieën. Zou je het condens op de ruiten verklaren door te stellen dat ruiten zweten als het koud wordt, dan moet je duidelijk maken dat het niet vreemd is om te zeggen dat dingen kunnen zweten en dat kou een reden kan zijn om te gaan zweten. Dit zijn conceptuele problemen. Conceptuele problemen ontstaan in het samenspel tussen verschillende theorieën. 

Elke theorie kan empirische en conceptuele problemen oplossen, maar veroorzaakt meestal ook weer nieuwe conceptuele en empirische problemen. Afhankelijk van hoe belangrijk we de opgeloste problemen vinden, en de nieuwe problemen die zich voordoen, zijn we geneigd een theorie te accepteren – of niet. 

Volgens Laudan kenmerkt wetenschappelijke vooruitgang zich door een groei van het aantal opgeloste problemen en de afname van het aantal onopgeloste problemen. Maar omdat niet elk probleem even zwaar weegt, is het lastiger om de balans op te maken dan je misschien zou denken. Laten we eerst eens naar de empirische problemen kijken.

Status van empirische problemen

Volgens Laudan bestaan er drie soorten empirische problemen.

  1. Opgeloste problemen. Dit zijn empirische problemen waar een adequate verklaring voor is. Dauw op de ruiten, bijvoorbeeld.
  2. Onopgeloste problemen. Dit zijn empirische problemen waar geen enkele bestaande theorie een verklaring voor heeft. Of poetsvissen zelfbewustzijn hebben, bijvoorbeeld.
  3. Anomalieën. Dit zijn empirische problemen die in strijd zijn met een geldige theorie. Als blijkt dat er deeltjes zijn die sneller gaan dan het licht, is dit een anomalie voor de relativiteitstheorie.

Je zou zeggen dat onopgeloste problemen het belangrijkst zijn voor de wetenschap. Daar is immers vooruitgang te boeken. Maar de praktijk leert dat wetenschappers onontgonnen terrein relatief onbelangrijk vinden.

Toen Robert Brown in 1828 door zijn microscoop naar pollen in een bakje water keek, zag hij dat ze schijnbaar willekeurig door elkaar bewogen. Je zou zeggen dat deze ‘Browniaanse beweging’ een opwindende ontdekking was, waar wetenschappers meteen op doken. Maar dat was niet zo. Wetenschappers steggelden over het belang ervan en voor welke theorie het eigenlijk een probleem kon zijn. Keken we naar iets wat biologisch van aard was, elektrisch, optisch? Omdat ze geen theorieën hadden om het probleem te duiden, konden ze ook niet beslissen hoe belangrijk het was – en liet een oplossing op zich wachten. 

Het was uiteindelijk 80 jaar later toen Albert Einstein een van zijn eerste wetenschappelijke ontdekkingen deed door aan te tonen dat de pollen door de beweging van watermoleculen in beweging gebracht worden. Daarmee leverde hij een grote bijdrage aan de warmteleer én aan de status van de Browniaanse beweging. Tot die tijd had Brown een grappig, slecht begrepen experiment beschreven, dat relatief weinig aandacht kreeg. Vanaf dat moment was het een centraal leerstuk in de warmteleer.

Het belang van wetenschappelijke problemen hangt dus af van hun bewijskracht voor een bepaalde theorie. Omdat het voor onopgeloste problemen niet zeker is wat die latere bewijskracht zal zijn, zijn ze voor veel wetenschappers eigenlijk minder relevant.

Daarom zijn anomalieën zo belangrijk voor de wetenschap. Een anomalie is een luis in de pels van de wetenschap. Anomalieën zeuren aan het hoofd van de wetenschapper, ze wijzen erop dat de mooie theorieën waar de onderzoekers zo lang aan gewerkt hebben toch niet kunnen kloppen. Als je erin slaagt om een anomalie in een opgelost probleem om te toveren sta je als wetenschapper supersterk. En het mooie van anomalieën is dat dat al van tevoren bekend is. Je weet welke theorie je een steuntje in de rug kan geven en waarom.

We kunnen concluderen dat voor empirische problemen geldt dat anomalieën het belangrijkst zijn, daarna opgeloste problemen en dan pas onopgeloste problemen. Maar Laudan merkt terecht op dat deze inventarisatie niet afdoende is om de wetenschapsgeschiedenis recht te doen. Al te vaak werden theorieën die empirische problemen prima konden oplossen, terzijde geschoven ten faveure van theorieën die beter in het wereldbeeld van de wetenschappers pasten. Daarom moeten we ook conceptuele problemen beter bekijken.

Conceptuele problemen

De meeste wetenschapsfilosofieën vinden het alleen goed als wetenschappers op basis van experimenten en observaties voor een theorie kiezen. Maar Laudan stelt dat er rationele, niet-empirische gronden kunnen zijn om een theorie aan te hangen. Sterker nog, conceptuele problemen hebben volgens hem een grotere invloed op de vooruitgang van de wetenschap dan empirische problemen.

Conceptuele problemen ontstaan als theorieën in strijd lijken te zijn met andere theorieën. Even aangenomen dat theorieën geen interne problemen hebben, zoals vage concepten of verborgen cirkelredeneringen, dan zijn er volgens Laudan drie bronnen van conceptuele problemen: strijdige theorieën, methodologische problemen of problemen met het wereldbeeld van wetenschappers.

Strijdige theorieën hebben aannames die niet met elkaar te rijmen zijn. Ptolemeus dacht dat de aarde in het midden van het heelal staat, terwijl Copernicus dacht dat de zon in het midden staat. Dit is een conceptueel probleem want het kan niet allebei waar zijn. Je zou misschien zeggen dat het een empirisch probleem is. Als je even een ruimteschip naar de zon stuurt dan kun je er namelijk wel achter komen hoe het zit. Maar het was in die tijd niet mogelijk een ruimteschip te sturen en niemand zou ook geweten hebben welk bewijs dat ruimteschip dan moest verzamelen om de kwestie uit de lucht te helpen.  

Dat kon wel op een andere grond. Copernicus’ ideeën waren namelijk in strijd met de natuurkunde in die tijd. Aristoteles had verschillende ideeën over hoe dingen op en buiten de aarde bewogen ontwikkeld. Die moesten heroverwogen worden als wetenschappers het idee van Copernicus zouden overnemen. Daarom had de theorie van Copernicus aanvankelijk meer conceptuele problemen dan die van Ptolemeus – en raakte die niet erg in zwang. Het was uiteindelijk Galilei, die door een alternatief natuurkundig systeem te ontwikkelen de balans in de richting van de theorie van Copernicus deed doorslaan. Nu hadden beide theorieën meerdere conceptuele problemen en waren de theorieën echt aan elkaar gewaagd. Tegen de tijd dat de balans doorsloeg naar Copernicus was deze eigenlijk alweer vervangen door de ideeën van Johannes Kepler.

Een tweede bron van conceptuele problemen kan methodologie zijn. Wetenschappers hebben ideeën over hoe je tot theorieën kan komen en welke bewijsvoering acceptabel is voor een theorie. Als een theorie strijdig is met dat soort overtuigingen, ontstaan ook conceptuele problemen.

Isaac Newton liep bijvoorbeeld tegen een methodologisch probleem aan met zijn theorie over zwaartekracht. Volgens Newton trekken zware voorwerpen elkaar aan en daarom vallen dingen naar de aarde toe. De vraag is alleen wel hoe dat kan. Tijdgenoten wezen erop dat Newton een geheimzinnige ‘werking op afstand’ nodig had voor zijn theorie. De appel die naar de aarde valt raakt de aarde niet, hoe kan de aarde dan de appel trekken? In die tijd was werking op afstand een methodologische doodzonde. Krachten konden alleen verklaard worden door het botsen van deeltjes. Newtons theorie schond dat verklaringsmodel.

Bij methodologische conceptuele problemen moeten wetenschappers zowel de theorie ook de methodologie aanpassen. Omdat ze hun gereedschap belangrijk vinden hebben ze sterke argumenten nodig om die stap te zetten.

Een derde bron van conceptuele problemen is een botsing van een theorie met een wereldbeeld. Elke cultuur heeft ideeën die niet altijd wetenschappelijk van aard zijn, over hoe de wereld werkt. Een wetenschappelijke theorie die dat soort ideeën tegenspreekt, zal het moeilijker hebben dan een theorie die aansluit bij het gangbare wereldbeeld. Een strijdigheid met het gangbare wereldbeeld is dus een conceptueel probleem.

In de meeste voorbeelden speelt God natuurlijk een rol. De strijd van Galilei met de kerk over de plaats van de zon, de moeilijkheden voor God om in te grijpen in een mechanisch universum zoals de volgelingen van Newton voorstelden, hoe moeilijk het is om het Darwinisme met het scheppingsverhaal te verenigen. Maar niet alle wereldbeelden zijn religieus. Darwinisme en marxisme stonden ook op gespannen voet met elkaar en Natuurkundigen zijn nog altijd bezig om de wereldbeelden achter de klassieke mechanica en de quantummechanica te verenigen. 

Al met al zijn er allerlei vragen die rijzen als je een nieuwe theorie in een web van bestaande ideeën probeert in te passen. Dit leidt tot conceptuele problemen die meestal meer gewicht hebben dan empirische problemen. Een theorie heeft volgens Laudan gewoonlijk minder last van een paar anomalieën dan van een flink conceptueel probleem.

De rol van onderzoekstradities.

Tot nu toe hebben we besproken welke verschillende soorten empirische en conceptuele problemen wetenschappers moeten oplossen, maar we hebben nog weinig gezegd over de werking van wetenschappelijke vooruitgang. Volgens Laudan hebben we daar nog een derde bouwsteen voor nodig: onderzoekstradities.

Onderzoekstradities omvatten theorieën. Theorieën staan meestal niet op zichzelf, maar komen voor in families die een wereldbeeld, basisaannames en methoden delen. Die families vormen onderzoekstradities. Laudans idee van onderzoekstradities lijkt op het idee van onderzoeksparadigma’s van Thomas Kuhn of de onderzoeksprogramma’s van Imre Lakatos, maar Laudan denkt dat deze filosofen een aantal historisch onhoudbare beweringen doen. Daarom zijn hun ideeën aan herziening toe. Ik laat de discussie tussen die filosofen even voor wat ze is en richt me alleen op de theorie van Laudan zelf. Volgens Laudan hebben wetenschapstradities drie eigenschappen:

1 Elke onderzoekstraditie bestaat uit een aantal meer specifieke theorieën. De onderzoekstraditie van de quantummechanica bevat onder andere quantumtheorieën voor het atoom, theorieën over quantumzwaartekracht en snaartheorieën. Deze theorieën vormen een illustratie van – en een fundament onder – de traditie.

2 Elke onderzoekstraditie is trouw aan een bepaald wereldbeeld en methodologie. Onderzoekstradities onderscheiden zich door hun ideeën over hoe de wereld in elkaar zit en hoe je er kennis van kan nemen.

3 Tradities zijn historische wezens. Ze worden in de loop der tijd op verschillende manieren gedefinieerd, maar hebben een lange levensduur – in tegenstelling tot theorieën die meestal maar kort leven.

Onderzoekstradities zijn nuttig. Ze geven wetenschappers het gereedschap om conceptuele en empirische problemen op te lossen.  Ze doen dit op vier manieren:

1 Ze bepalen welke problemen interessant zijn en genereren conceptuele problemen. Binnen de familie van theorieën die een onderzoekstraditie omvat ontstaat gemakkelijk ruzie; figuurlijk gesproken. Een nieuwe theorie zal gangbare opvattingen binnen de traditie ter discussie stellen. Het oplossen van de conceptuele problemen die daardoor ontstaan brengt de traditie als geheel verder.

2 Ze begrenzen disciplines. De breed gedeelde basisideeën binnen tradities vormen een natuurlijke begrenzing voor het type probleem dat opgelost kan worden. Het spreekt niet voor zich dat mechanica, waarin dingen verklaard worden op basis van beweging, krachten en botsingen, iets kan zeggen over de manier waarop mensen met elkaar communiceren. Daarvoor zijn de basisideeën gewoon niet aanwezig.

3 Ze bieden hulp bij het oplossen van problemen. Bij het bedenken van een theorie kunnen onderzoekers gebruik maken van elementen uit andere theorieën in de traditie. Een nieuw soort mechanica kan opnieuw opgebouwd worden met begrippen als kracht en snelheid. Hierdoor kunnen nieuwe theorieën dankbaar gebruik maken van jaren denkwerk.

4 Ze helpen met het rechtvaardigen van theorieën. De andere theorieën uit de familie kunnen immers aangeroepen worden om aannames te onderbouwen.

Een belangrijk aspect aan onderzoekstradities is dat ze zich ontwikkelen. Ze zijn aan verandering onderhevig. De theorieën binnen de familie worden steeds ververst waardoor andere dingen belangrijk gevonden worden. Waar de werking van kracht over afstand voor Newton nog een groot probleem was, ontstonden er later veel Newtoniaanse theorieën waarin ook dit soort werking op afstand was opgenomen. Daardoor werd het minder controversieel om een werking op afstand te veronderstellen. In elke onderzoekstraditie zijn er ideeën die centraler zijn en meer tot de harde kern behoren – en die dus ook lastiger tegen te spreken zijn – maar Laudan stelt dat er door het komen en gaan van specifieke theorieën ook beweging zit in de familie als geheel. Daarin wijkt zijn theorie af van die van andere wetenschapsfilosofen.

Vooruitgang

Dat brengt ons eindelijk bij het idee van wetenschappelijke vooruitgang. Laudan denkt dat die te begrijpen is door de strijd tussen – en ontwikkeling van – verschillende onderzoekstradities. Op zichzelf kun je van een traditie niet zeggen of deze waar of onwaar is, daarvoor zijn de ideeën die de theorieën binnen een traditie delen te abstract,  maar je kan wel vaststellen of er in de traditie problemen opgelost worden; en dit probleemoplossend vermogen kan als kwaliteitsmaat gebruikt worden. In vruchtbare onderzoekstradities kunnen veel problemen opgelost worden.

Een belangrijke toetssteen voor een onderzoekstraditie is of deze adequaat is. Hoe goed kunnen problemen opgelost worden met de theorieën uit de onderzoekstraditie? De klassieke mechanica is voor veel problemen adequaat, waardoor de basisprincipes nog altijd populair zijn. Een andere vraag is of onderzoekstradities vooruit gaan. We kunnen ons afvragen of onderzoekstradities meer problemen oplossen dan vroeger. Dan doet de klassieke mechanica het minder goed: de meeste problemen zijn bekend en opgelost, een reden waarom er op dit moment niet veel wetenschappers zijn die zichzelf nog als een klassiek mechanicus zien.

Er is dus een verschil tussen tradities die wetenschappers  accepteren – voor waar aannemen; en tradities die ze najagen – waar ze aan willen werken. Wetenschappers zijn gewoon om theorieën te accepteren die adequaat zijn, maar ze zijn wel geneigd theorieën na te jagen die zich snel ontwikkelen.

Dit spanningsveld tussen conservatief gedrag: acceptatie van die theorieën die bewezen zijn en progressief gedrag: najagen van  theorieën die veelbelovend zijn verklaart voor een belangrijk deel wetenschappelijke vooruitgang. Als wetenschappers niet een voorkeur zouden hebben voor theorieën die zich snel ontwikkelen, dan zouden nieuwe theorieën nooit een kans krijgen en als theorieën zich niet bewezen zouden moeten hebben voordat ze geaccepteerd worden zou wetenschappers zich overgeven aan willekeur. Laudan laat zien dat met deze twee principes vooruitgang mogelijk is en dat de beslissingen die wetenschappers nemen rationeel zijn en niet, zoals andere wetenschapsfilosofen wel beweerd hebben, alleen maar door sociale processen bepaald worden.

Tot slot

Ik opende dit blogje al door te stellen dat ik Laudans theorie elegant vind. Met name het erkennen van het belang van conceptuele problemen en de samenbundeling van theorieën in onderzoekstradities helpen om de wetenschap beter te begrijpen.

Tegelijkertijd is de boekhouding van problemen met verschillend gewicht die Laudan voorstelt behoorlijk complex. Nergens laat hij echt concreet zien dat je door het tellen van problemen inderdaad kan onderbouwen welke keuzes wetenschappers maken in hun werk. Sterker nog, die keuzes blijken voor verschillende wetenschappers verschillend te zijn. Het gewicht van een probleem is uiteindelijk een persoonlijke keuze.

Daarmee staat Laudan niet enorm sterk als het gaat om het aantonen van de wetenschappelijke vooruitgang. Hij slaagt er goed in om een aantal kwesties die andere wetenschapsfilosofen zoals Thomas Kuhn en Karl Popper hebben laten liggen op te lossen, maar hij geeft uiteindelijk weinig tegengas tegen filosofen die de wetenschap als een puur sociaal proces wensen te zien. Laudan toont aan dat wetenschap vooruit kan gaan, niet dat ze daadwerkelijk vooruitgaat.

Meer lezen?

Ik schreef over de ideeën van Karl Popper in Groeit Kennis? Ik schreef over de houdbaarheid van wetenschappelijke theorieën in Stokoude Kennis, Halfwaardetijd en Tijdmeters.

Progress and its problems is een prettig leesbaar boek dat rijk is aan inzichten over de wetenschap en vooral het denken daarover.

Media

Ze krijgen werkelijk overal de schuld van: de media. Dat is niet nieuw hoor. De Grieken dachten dat het schrift het einde van de samenleving zou inluiden; ik hoorde dat televisie door God verboden is; van internet word je dom en natuurlijk veroorzaken sociale media en algoritmes de huidige polarisatie in de samenleving. Goed: achteraf blijkt het altijd wel mee te vallen, maar daar gaat het me vandaag ook niet om. Wat mij bezighoudt is de vraag of er in de eerste plaats wel iets over te zeggen is.

Het probleem met de media is dat het woord meervoud is. We hebben het niet over één ding, maar over een heleboel tegelijk. Ze zijn echt overal, de media. We lezen, we kijken tv, we gaan naar theater, we gamen, we appen, we navigeren, we surfen online, we lopen op straat. Zowat iedereen lijkt zich ook met media bezig te houden: nieuwsmedia, entertainmentbedrijven, communicatieprofessionals, platformen, internetcowboys, docenten en kunstenaars.

Dat maakt media alomtegenwoordig. De denkende mens is meteen ook de communicerende mens. Onze breinen ademen communicatie. Geen wonder dat we zoveel technologieën en beroepen ontworpen hebben om dat beter, efficiënter, fijner, sneller of met meer beleving te doen. Die veelheid maakt het ook moeilijk er iets nuttigs over te zeggen. De media de schuld geven van polarisering is als de lucht de schuld geven van de griep. Ergens klopt het wel, maar er wringt ook iets.

Als je iets wil zeggen over het effect van de media op onze cultuur, dan zijn er eigenlijk twee strategieën denkbaar. Je kunt, (1) alle media over één kam scheren en er iets algemeens over proberen te zeggen of je kunt, (2) er een genre uitpakken zoals radio en televisie en proberen te zeggen hoe die specifieke media het spel veranderen.

Media-ecologie

De eerste strategie wordt gebezigd door media-ecologen. Een mooi woord is dat: media-ecologie. Net zoals je in de biologie kunt kijken naar de relatie van levende wezens met hun biologische omgeving, kun je als mediawetenschapper zoeken naar de relatie tussen de mens en de rijke omgeving van al die verschillende media. De meeste media-ecologen nemen daarbij als uitgangspunt hoe het gebruik van media het bewustzijn beïnvloedt.

De absolute grondlegger van dit vakgebied was de Canadese wetenschapper Marshall McLuhan. Hij stelde dat de media het best gezien konden worden als een extensie van onze zintuigen. En dat onze cultuur verandert bij de introductie van een nieuw medium, omdat onze media bepaalde zintuigen bevoordelen. Het schrift zou een transitie van een orale een naar visuele cultuur teweeggebracht hebben en daarmee rationaliteit ingebracht hebben. De introductie van radio en televisie zou die weer deels teniet gedaan hebben.

McLuhan vond dat in zijn tijd veel te veel aandacht was voor de boodschappen die via de media verspreid werden. Volgens hem was het niet de inhoud van de boodschappen die onze cultuur beïnvloedde maar de vorm ervan. Vandaar zijn beroemde uitspraak: the medium is the message.

De zintuigentheorie van McLuhan komt wat simplistisch over en ook modernere denkers die ik in deze lijn plaats grijpen naar zo’n eenvoudig verklaringsmechanisme. Thomas de Zengotita, mediatheoreticus, probeert het effect van media te verklaren vanuit de gedachte dat we overspoeld worden door representaties van de werkelijkheid. Susan Blackmore plaatst het idee van imitatie centraal in haar theorie over de relatie tussen het brein en de media.

Helemaal onverwacht is die vereenvoudiging niet. Als je iets wilt verklaren dat zo divers, veelomvattend en alomtegenwoordig is als de media dan moet je het wel in iets eenvoudigs proberen te vangen. Het heet niet voor niets verklaren. Het moet te begrijpen zijn. Je hebt een helder uitgangspunt nodig dat je als de kern van je verhaal kunt gebruiken.

Maar, daar zit dan ook meteen de angel. Zo’n vereenvoudiging kan nooit recht doen aan de ingewikkelde, meervoudige effecten die de media hebben. Natuurlijk veranderen de media hoe we met elkaar communiceren: daar zijn ze voor gemaakt, maar elk medium doet dat op zijn eigen manier en heeft zijn eigen reikwijdte. Als je die allemaal over één kam scheert doe je weinig recht aan die diversiteit en het subtiele samenspel van verschillende media.

Specifieke mediakritiek

De andere benadering is te kijken naar een specifiek medium en dan te onderzoeken hoe dat het grote intermenselijke communicatiespel veranderen. In de afgelopen jaren waren het internet, online gaming en sociale media natuurlijk onderwerp van dit soort analyses. Wat je hier vaak ziet is dat één opvallende ontwikkeling in de cultuur verklaard wordt vanuit een eigenschap van een nieuw en populair medium. En vooral de jongeren, vaak de eersten die nieuwe media gebruiken en nog erg beïnvloedbaar, moeten het daarbij ontgelden.

Het bekendste voorbeeld is misschien wel de ‘filter bubble’, een idee dat zo aantrekkelijk is dat het in ons dagelijkse taalgebruik is doorgedrongen. Bij de filter bubble zijn computeralgoritmen de boosdoener. De gedachte is dat we veel te weten komen via Google search en via de tijdlijn van sociale media. Die worden gefilterd om ons met zo relevant mogelijke informatie te voorzien. Wat ik zie bij een Google zoektocht is gebaseerd op mijn persoonlijke zoekhistorie en is dus anders dan wat jij ziet. Wat op mijn tijdlijn van Twitter en Facebook komt is gebaseerd op mijn klikgedrag en dus anders dan wat anderen zouden zien.

Door deze sturing vanuit de media raken we steeds meer in een isolement van ideeën. Als media persoonlijk worden in plaats van collectief komen we niet meer in aanraking met andersdenkenden of met ideeën die ons onwelgevallig zijn. We komen in een zeepbel van gelijkgestemden terecht. En de gedachte is als iedereen in zijn eigen ideeënzeepbel leeft, dat de samenleving als geheel dan polariseert.

Zou Eli Pariser, de bedenker van de filter bubble, stilgestaan hebben bij de gedachte dat mensen nog andere bronnen van informatie gebruiken dan Google en Facebook? Dat ze elkaar spreken, naar televisie kijken, naar theater gaan? Het woord media is meervoud, mensen gebruiken meerdere media naast elkaar. Stel je voor dat er op je Facebooktijdlijn alleen maar kattenfilmpjes voorkomen, zit ik dan meteen in een kattenzeepbel?

Voor Nederlanders met een flintertje historisch besef is die filter-bubble-gedachte ook wat potsierlijk. Waren de media hier niet gekoppeld aan ‘zuilen’? Katholieken woonden in dezelfde steden, gingen naar dezelfde kerken, keken dezelfde TV programma’s, hadden eigen sportverenigingen en blaadjes en stemden dezelfde politieke partijen. Dat was pas een zeepbel! Om in de moderne wereld een zeepbel te veroorzaken die aan een ‘zuil’ kan tippen zou je de vrijheid van mediagebruik behoorlijk moeten inperken en algoritmes nog heel veel meer macht moeten geven.

Als je inzoomt op een bepaald medium en vandaaruit iets over media en de samenleving in het algemeen probeert te zeggen heb je snel last van kokervisie. Om helderheid te krijgen over de effecten van een nieuw medium proberen we in kaart te brengen wat we zien gebeuren rondom een bepaald medium. Instagram voedt faalangst; Twitter hyperigheid; WhatsApp faciliteert rellen. Dat werk. Maar, we kijken dan door een vergrootglas. Het is maar de vraag of wat we daar zien er op de schaal van de samenleving nog toe doet. Als je zoontje een beetje opgefokt raakt van een oorlogsspel, is er nog geen agressieve generatie gekweekt. Heel veel foto’s op Instagram zijn te mooi om waar te zijn, maar daarmee is er nog geen collectieve faalangstcultuur ontstaan.

Door onze focus op één medium vergeten we even dat onze kinderen ook blootstaan aan andere invloeden. Dat ze andere media gebruiken, dat ze opgevoed worden, naar school gaan.

Als die effecten al zo groot zijn als ze door het vergrootglas lijken, dan nog heeft het opschalen ervan naar maatschappelijke proporties weinig zin. In de zee van invloeden waar we als mens aan blootstaan verdunnen de effecten van één medium razendsnel. Om de vergelijking met ecologie nog maar eens te maken: als er een nieuw plantje in het bos komt krijgen sommige planten minder ruimte en verandert het ecosysteem, maar de beestjes hebben daar doorgaans weinig last van: voor hen wordt het menu juist gevarieerder.

Focus in; focus uit

De alomtegenwoordigheid en veelvormigheid van de media zorgen dus voor een probleem met focus. Als we ze willen begrijpen door uit te zoomen scheren we ze over één kam – en doen we te weinig recht aan hun diversiteit; maar te veel inzoomen betekent weer kokervisie – en daarmee doen we ook geen recht aan hun diversiteit. Hoe we de lens ook afstellen, steeds ontglippen ons de belangrijkste aspecten.

Natuurlijk, de impuls is om te zeggen: je moet die twee ook combineren. Biologen doen dat ook: ze combineren de visie op het totale ecosysteem met aandacht voor specifieke plantjes daarin.

Ik zou het daarmee eens zijn, als die twee analyses elkaar inderdaad raken – bijvoorbeeld als een totaaltheorie over media aan het wankelen gebracht zou kunnen worden door een analyse van Twitter. Of als inzichten over Twitter opgetild konden worden tot een totaalvisie op de media zonder de botte generalisaties zoals ik die net besprak. Maar zo’n dialoog tussen het grote plaatje en gericht onderzoek kom ik eigenlijk niet vaak tegen.

En misschien is er nog iets mis. Namelijk de premisse dat de media – als in de karakteristieken van elk medium – er veel toe doen. Dat we veel in contact staan met verschillende media betekent niet dat het er enorm veel toe doet hoe die media informatie overbrengen of welk soort informatie er het makkelijkst door verspreid wordt. Als onze jeugd veel meer keuzestress ervaart dan vroeger, moeten we ons misschien afvragen of we ze zelf niet teveel keuzevrijheid geven in plaats van Facebook de schuld te geven. Als de samenleving polariseert, moeten we ons misschien afvragen wie het verdeel-en-heersspel speelt, en hun tactieken en retorieken in kaart proberen te brengen, in plaats van ons blind te staren op de algoritmen van Google.

We maken onze cultuur zelf, of tenminste samen. Misschien moeten we cultuurverandering in de eerste en belangrijkste plaats bij onszelf zoeken. Het zou kunnen dat we Marshal McLuhan’s The Medium Is the Message nog altijd veel te serieus nemen. In plaats van ons blind te staren op de verborgen effecten van verschillende soorten media, moeten we onze aandacht misschien richten op wat er in het volle zicht is. Wie die media gebruiken en wat ze ermee roepen. Voor de hoe de Grieken zich organiseerden was de overgang van een orale naar een schriftelijke communicatievorm misschien het meest wezenlijk, maar in deze tijd van mediaovervloed moeten we ons eerder weer op de inhoud richten. The message is the message.

Meer lezen?

Ik schreef elders eerder recensies van Marshal McLuhan’s “Understanding Media” en Tomas de Zengotita’s “mediated”. Hier besprak ik  Susan Blackmore’s “The Meme Machine” al eens.

De kenniskritiek in dit blogje kwam ook in Samenloop en Verkoudheid als eens naar voren. Ik schreef ook al eerder over de vermeende invloed van het internet op de jeugd en over de haken en ogen van het gebruik van algoritmen in Glazen Bol en A Priori.

Nobel

De week waarin de Nobelprijzen worden uitgereikt vind ik altijd spannend. Zelf ben ik natuurlijk geen kanshebber en vaak ken ik de prijswinnaars ook helemaal niet. Maar de Nobelprijs is een bijzondere prijs. Zeker de prijzen voor natuur- en scheikunde – en vaak ook die voor economie –  zetten onderzoek in het zonnetje dat, toen het werd uitgevoerd, heel fundamenteel en soms onzinnig leek, maar waarvan door de jaren heen gebleken is dat er veel nuttige toepassingen uit zijn voortgevloeid. Dat is vrij uitzonderlijk: veel fundamenteel onderzoek is helemaal niet zo direct tot toepassingen te herleiden; en het levert altijd een mooi verhaal op: hoe een of andere bizarre zoektocht van een of andere wetenschapper ons uiteindelijk allemaal raakt.

Dit jaar ging de Nobelprijs voor de chemie bijvoorbeeld naar John Goodenough, Stanley Whittingham en Akira Yoshino voor fundamenteel onderzoek dat de basis legde voor de oplaadbare batterijen in onze telefoons en andere draagbare apparaten – en natuurlijk elektrische auto’s. Dit werk stamt uit de jaren 70 van de vorige eeuw. Geen van deze moderne toepassingen was in die tijd in beeld. Het was toen al prachtig werk, en het bleek een noodzakelijke schakel in latere technische ontwikkelingen die het gezicht van de huidige tijd bepalen.

Of niet? Hoewel veel mensen de Nobelprijs op deze manier aangrijpen om nog eens te onderstrepen hoe groot het belang van fundamenteel onderzoek voor de maatschappij is, denk ik dat ze het Nobel-verhaaltje te serieus nemen. Natuurlijk ben ik een voorstander om stevig te investeren in fundamenteel onderzoek, maar dat er soms jaren later nuttige toepassingen uit voortvloeien vind ik een slecht, onwetenschappelijk, argument voor dat type onderzoek.

De drogredenering die onder de letterlijke interpretatie van het Nobelprijsverhaaltje zit doe ik uit de doeken in mijn blogje stokoude kennis. Zoals ik daar al stel: je kunt voor elke bestaande toepassing wel fundamentele kennis aanwijzen die eraan ten grondslag ligt, maar dat zegt niet zoveel. In verreweg de meeste gevallen was die toepassing er ook wel gekomen zonder dat specifieke stukje onderzoek. Soms omdat de toepassing de kennis al vooruit is gesneld. De ontwikkeling van de thermodynamica is een gevolg van de ontwikkeling van de stoommachine en niet andersom. Maar meestal omdat die kennis anders gewoon iets later door andere wetenschappers ontwikkeld zou zijn. Niemand is onmisbaar voor de wetenschap. De tand des tijds kan echt wel wachten op de tweede of derde uitvinder.

Je kunt dus wel fundamentele kennis aanwijzen die bij een bepaalde toepassing hoort, maar dat is geen bewijs dat dat specifieke onderzoek een noodzakelijke – of zelfs maar een belangrijke schakel – was in de ontwikkeling van die toepassing. Het beste wat je achteraf kunt zeggen is dat het best van pas kwam. Het belang van fundamenteel onderzoek in het algemeen kun je er al helemaal niet uit afleiden, want dan moet je ook al dat fundamentele onderzoek meerekenen waar nooit iets buikbaars uitgekomen is.

Daar komt nog bij dat de Nobelprijs met zevenmijlslaarzen door de geschiedenis raast. Het is niet het oorspronkelijke, nogal explosieve, batterijtje van Wittingham dat in onze telefoons zit. Voordat die gemaakt kon worden waren nog honderden of misschien wel duizenden nieuwe ontdekkingen en ontwikkelingen nodig. Er ging niet voor niets vijftig jaar overheen. Hoe verhoudt de mankracht achter het fundamentele onderzoek zit zich eigenlijk tot de mankracht die nodig was om die batterijen echt werkend te krijgen?

Je kunt allerlei redenen hebben om fundamenteel onderzoek in het zonnetje te zetten. Dat er soms mooie toepassingen uit voortkomen spreekt tot de verbeelding, maar het is misleidend. De rol die het betreffende onderzoek écht heeft gespeeld voor die toepassingen is niet precies te achterhalen en vermoedelijk relatief klein.

Natuurlijk kunnen toepassingen en fundamentele kennis elkaar beïnvloeden en het is een Nobel-feestje waard om die bevruchting te vieren, maar dat feestje deugt op haar beurt niet als rechtvaardiging voor het bestaan van fundamenteel onderzoek. Daarom denk ik dat het contraproductief is om (oud) fundamenteel onderzoek te rechtvaardigen door te wijzen op moderne toepassingen. Als het argument niet klopt prikt iemand erop een dag doorheen.

Ik denk dat het beter is om het nut van fundamenteel onderzoek te verdedigen aan de hand van de waarde die het hier en nu voor ons heeft. Er zijn verschillende manieren waarop je dit kunt doen, maar ik zie het nut van fundamenteel onderzoek vooral vanuit zijn invloed op ander onderzoek. In fundamenteel onderzoek verkennen we wegen die we niet zouden verkennen als we ons druk maakten over toepassingen. Fundamenteel onderzoek vergroot zo onze horizon; het maakt ons slimmer. Als fundamenteel onderzoek andere wetenschappers, fundamenteel, of toegepast op een nieuwe manier aan het denken zet, is het goed onderzoek.

En of het ooit de lange weg naar een praktische toepassing vind? Ach.

Meer lezen?
In stokoude kennis bespreek ik uitgebreider waarom de toepassingen van nu niet herleidbaar zijn tot de oude kennis van toen. Ik ben van plan een blogje te schrijven over valorisatie waar ik nog eens in ga op kennis die wel tot toepassingen moet leiden.

Voor de informatie over de Nobelprijzen van dit jaar heb ik vooral gebruik gemaakt van het artikel daarover in het NRC, ik kende het onderzoek zelf niet voor de prijs uitgereikt werd. Ik heb me in deze post geconcentreerd op de verbinding die in de Nobelprijzen wordt gelegd tussen onderzoek en toepassing, maar ook andere aspecten van de Nobelprijs, zoals de focus op een individueel genie zijn kritiek waar. In Chemistry World verscheen daarover dit artikel.

Evidence-based Practice

Zou het niet mooi zijn als professionals hun handelen wat meer zouden baseren op wetenschappelijk bewijs? Zodat leerlingen onderwijs krijgen waarvan we weten dat het werkt; zorgverleners die dingen doen die objectief het beste zijn voor hun patiënten; en zodat – waarom ook niet? – accountants de boeken op de best denkbare manier controleren? Het is eigenlijk moeilijk om daar tegen te zijn, toch? Nou ja, je raadt het al… Ik vind op zijn minst dat een paar kanttekeningen op hun plaats zijn.

Een van de lastige dingen van het bespreken van evidence based practice – het gebruiken van wetenschappelijk bewijs in de praktijk dus – is dat er verschillende varianten van het idee bestaan. De strikte variant legt de nadruk op de wetenschappelijkheid van het bewijs dat gebruikt wordt. De zachte variant legt vooral de nadruk op het gebruik van bewijs in de praktijk.

In de strikte variant moeten professionals dus op de hoogte zijn van de uitkomsten van wetenschappelijk onderzoek en hun praktijken daarop baseren. De strikte variant stelt eigenlijk dat het enige bewijs dat professionals mogen gebruiken, wetenschappelijk van aard zou moeten zijn. In de zachte variant moet een professional óók zoveel mogelijk bewijs gebruiken, maar dat hoeft niet per se wetenschappelijk te zijn. Een professional mag in de zachte variant ook zelf bewijs verzamelen door collega’s of haar doelgroep te ondervragen of door dingen aan hen voor te leggen. Met die zachte variant is ook van alles mis, maar dat bespreek ik later nog eens. In dit blogje wil ik vooral de strikte variant eens onder de loep nemen.

Laat me duidelijk zijn: ik ben een voorstander van evidence based medicine. Ik vind het belangrijk dat medische behandelingen die ik onderga, eerst wetenschappelijk bewezen zijn. Behandelingen die de toets der kritiek niet kunnen doorstaan, zoals gebedsgenezing, acupunctuur en homeopathie, kunnen bij mij rekenen op veel scepsis. Maar de vraag is volgens mij of dit idee van evidence based medicine te vertalen is naar onderwijs, (zachte) zorg en accounting; of dat die vakgebieden juist om een wezenlijk andere benadering vragen.

Mijn antwoord laat zich raden. Ik denk dat zorg, onderwijs en accounting anders zijn. In mijn ogen is evidence-based-practice namelijk gebaseerd op een one-size-fits-all gedachte terwijl deze vakgebieden -goede accountancy misschien uitgezonderd – eerder vragen om professioneel maatwerk. Maatwerk is nooit gebaseerd op één enkele bron van bewijs. Maatwerk stelt de situatie of de omgeving centraal waarin bepaalde ingrepen effectief kunnen zijn; terwijl veel wetenschappelijk werk die afhankelijkheid van context juist buiten beschouwing laat.

Dat zit hem in wat telt als wetenschappelijk bewijs. De heilige graal van aanhangers van evidence based practice is vaak de randomised controlled trial (RCT). Het idee van een RCT is dat we onderzoeken of een benadering werkt ongeacht wie het ondergaat of wie het uitvoert. Één groep patiënten krijgt een medicijn, een andere groep krijgt een nepmedicijn. Niemand weet wie in welke groep zit, de patiënten niet, de dokters niet, de onderzoekers niet. Daardoor kunnen we vaststellen of een medicijn werkzaam is los van de context: wie de patiënt is, wie de behandelaar is, hoe het contact tussen die twee verloopt. De bedoeling is immers om de effectiviteit van een bepaalde benadering te bewijzen voor elke context. Dus zonder rekening te houden met kundigheid van de dokters, of de specifieke wensen van patiënten of gebruikers. En dat is meteen de grote zwakte van de RCT.

Zeker: als een medicijn door een RCT komt, weten we zeker dat het werkt voor de meeste behandelaars en de meeste patiënten. Dat is waardevolle kennis voor zorgverleners. En ik zou zeker niet willen dat ze iets voorschrijven waarvan de werkzaamheid niet is aangetoond.

Maar, nu die leraar. Die bijvoorbeeld rare grappen maakt om de aandacht vast te houden. Mag hij dit wel doen als niet wetenschappelijk is aangetoond dat het werkt?

We willen zeker graag dat een docent methoden gebruikt waarvan hij weet dat ze werken. Het is fijn als hij passende werkvormen gebruikt, bijvoorbeeld. Daar heeft hij een opleiding voor genoten. Maar de grappen die hij maakt, horen daar niet bij. Het interesseert ons niet of die voor alle docenten en alle leerlingen werken.

Sterker nog: dat soort generalisaties zit misschien alleen maar in de weg. De details van zijn werk: hoe hij een relatie opbouwt, hoe hij verschillende leerlingen verschillend aanpakt, de duizenden andere beslissingen die een docent elke dag weer neemt? Die zijn aan het professionele oordeel van de docent. Dat finetunen moet hij zelf doen, dat vraagt om fingerspitzengefühl. Je wil dat zijn aandacht in de klas is bij hoe zijn leerlingen reageren, niet bij wat de wetenschap ervan zal vinden. Dit zijn contextspecifieke beslissingen, daarover kunnen RCT’s geen uitspraken doen.

Wat we van een docent willen, is dat hij goed waarneemt, ervaringskennis gebruikt, fouten maakt en daarvan leert binnen een grofmazig wetenschappelijk kader. Nu is dat in de geneeskunde niet anders. Artsen, zeker huisartsen, voegen dat stukje professionaliteit aan de wetenschap toe. Dit maakt het mogelijk maakt om mensen goede zorg te leveren, zonder ze te reduceren tot een statistiek. De evidence-based-practice discussie is dus, zoals zo vaak, geen zwart-witdiscussie. Het is vooral een gevecht om ruimte. Hoe strak moeten de wetenschappelijke kaders zijn – en met hoeveel autonomie gedijen professionals?

Interessant genoeg wordt deze discussie dan weer weinig op basis van wetenschappelijk bewijs gevoerd. De wetenschappers trekken vaak aan de evidence-based kant en onderbouwen hun standpunten ironisch genoeg met anekdotes over professionals die helemaal niet blijken te handelen naar hun mooie wetenschappelijke inzichten. De professionals trekken aan de autonomie-kant en komen met allerlei uitzonderingen waar de wetenschap niets over te zeggen heeft. Volgens mij komen we zo – al touwtrekkend – niet verder.

Je zou een meta-studie willen doen, waarin afhankelijk van het vakgebied vergeleken wordt of het vergroten of juist verkleinen van de professionele ruimte beter werkt. Dan kunnen we het debat op een wetenschappelijke in plaats van een anekdotische manier beslechten. Mits we het eerst wel eens eens kunnen worden over de miljoen dollar-vraag: wat bedoelen we eigenlijk met “beter”?

Meer lezen?

Ik schreef al eens een kritisch stuk over de praktijk van evidence-based-medicine getiteld ongezond. Die misstanden doen natuurlijk niets af aan de principes. In verkoudheid bespreek ik dat er verschillende soorten bewijs en manieren om die te wegen zijn. In A Priori ga ik in op situaties waar je juist liever niet het beste bewijs inzet.