Helix

Ik kan me weinig onderwerpen voor de geest halen waar vormonderzoek zoveel impact had dan bij het onderzoek naar de structuur van het DNA. De ontdekking van James Watson, Francis Crick, Maurice Wilkins en Rosalind Franklin in 1953, vormde een belangrijke schakel in de bewijsketen van de evolutietheorie, is de eerste grote mijlpaal in het vakgebied van de microbiologie en veranderde het onderzoek van de erfelijkheidsleer definitief.

Dat is allemaal mooi, maar het allermooiste aan deze ontdekking is misschien dat er een heel smakelijk boekje over geschreven is door één van de onderzoekers. James Watson gaf in ‘The Double Helix’ een kijkje achter de schermen en liet zien hoe de ontdekking in zijn werk ging. Althans zijn versie ervan, want de bijdrage van de andere onderzoekers – en met name die van Rosalind Franklin – worden als bijzaak weggezet. Nog mooier dan het boekje zelf is dan is misschien de controverse die er over ‘The Double Helix’ ontstond.

De ontdekking zelf hing ook van toeval en intriges aan elkaar. Dat begint al met het onderwerp. Het lag op dat moment helemaal niet voor de hand om de structuur van DNA te gaan onderzoeken. Begin jaren 50 was het nog onzeker of DNA wel een rol speelde in erfelijkheid. Onderzoekers namen aan dat erfelijke informatie in de cel moest worden vastgelegd en ook wel dat elke cel deze informatie moest bevatten. Maar er zijn allerlei eiwitten in de cel en de informatie zou best eens verdeeld kunnen zijn over verschillende eiwitten. Dit was eigenlijk ook de heersende visie.

Dat de vier onderzoekers zich op DNA gingen toeleggen had te maken met experimenten aan bacteriën in de jaren 40 die suggereerden dat DNA wel eens een grote rol zou kunnen spelen bij de erfelijkheid. Maar het was zeker niet zo dat men al dacht dat DNA de enige drager van erfelijk materiaal zou zijn en het was ook niet duidelijk dat het blootleggen van de structuur van het molecuul zou kunnen helpen dit te aannemelijk te maken.

Daarnaast was het iets dat moeilijk te achterhalen was. De techniek om de structuur van moleculen bloot te legggen stond nog in de kinderschoenen. Men gebruikte daar Röntgenstraling voor, maar dit soort straling kon niet door lenzen worden afgebogen, waardoor er niet zoiets bestond als een röntgenmicroscoop. Wat wel kon was iets met Röntgenstraling bestralen en dan kijken hoe de straling afboog. Afhankelijk van de buigingspatronen kon je de aspecten van de moleculaire structuur ‘ herleiden. Het was een zeer pittige experimentele techniek omdat het materiaal wat bestraald werd heel goed geprepareerd moest zijn en omdat bij te complexe materialen er niets meer te herleiden viel omdat de buigingspatronen te ingewikkeld waren. De bijdrage van Rosalind Franklin in het onderzoek is geweest om deze techniek te perfectioneren en toe te passen op zoiets complex als het DNA.

Maar in ‘The Double Helix’ gaat James Watson eigenlijk niet in op dit experimentele werk. Het boekje leest eerder als een schelmenroman. Hoofdpersoon James Watson is een 24 jarige onderzoeker, vrij lui, arrogant en egocentrisch, maar wel hongerig om een grote ontdekking te doen. Hij is niet het soort onderzoeker dat zich bezighoudt met details en stukje bij beetje een techniek ontwikkelt om precieze metingen te doen, maar meer iemand die ideeën sprokkelt en dan op basis van gissingen en intuïties probeert tot dingen te komen die natuurlijk, wel een beetje belangrijk en baanbrekend moeten zijn want anders telt het niet. Francis Crick is hierin zijn partner in crime, maar ook wel zijn geweten – iemand met meer senioriteit, die de kritische vragen stelt.

Het balletje gaat rollen als Watson een presentatie ziet van Linus Pauling van een onderzoek naar een ander biologisch molecuul. Het heeft toevallig ook de vorm van een helix, maar dat is niet wat het meeste indruk maakt. De onderzoeker is achter de structuur gekomen door op basis van de Röntgenbeelden een model te maken van het molecuul. Ongeveer zoals je dat vroeger bij scheikunde gedaan zal hebben door bolletjes die atomen moesten voorstellen met stokjes te verbinden. Dat spreekt Watson aan: het moet voor hem op basis van wat er van DNA bekend is toch ook mogelijk zijn een model van DNA te maken en misschien levert dat dan wel iets interessants op!

Dus gaan Watson en Crick aan de slag met hun moleculaire Lego, maar ze hebben er weinig succes mee.
Er is simpelweg te weinig van DNA bekend om zo’n structuur meteen te kunnen bouwen en met behulp van de Röntgentechnieken van Wilkins en Franklin kunnen ze wel iets meer te weten te komen, maar de relaties zijn niet bepaald warm. Daarbij hebben ze andere wetenschapsopvattingen: Wilkins en Franklin willen eerst de data laten spreken en Watson en Crick en speculeren er op los. Wat ook niet helpt is dat Watson en Crick geen steun krijgen voor hun werk in hun eigen lab: men ziet weinig in het onderwerp en ze boeken te weinig progressie.

Toch sprokkelt Watson stukje bij beetje de elementen bij elkaar die hij nodig heeft. Welke moleculen aan de binnenkant zitten en welke aan de buitenkant; het gegeven dat de aminozuren waarmee de dwarsverbindingen in DNA gemaakt worden in gelijke hoeveelheden voorkomen; het feit dat ook DNA een helixstructuur heeft en welke afstand er tussen de verschillende ringen moet zitten. Het meeste hiervan haalt hij uit foto’s die Franklin genomen heeft, maar die hij door de grote antipathie tussen de twee alleen indirect weet te verkrijgen. Het bouwwerk dat ze uiteindelijk maken is nog altijd een gok, maar het is een erg mooie oplossing, hetgeen voor Watson en Crick reden is aan te nemen dat het wel waar moet zijn.

Waarom is die structuur zo van belang? Het is zeker een mooie structuur die mooi dat die nu als symbool voor erfelijkheid dient, maar die culturele betekenis zal de natuur natuurlijk weer worst wezen. Dus wat wel?

Watson en Crick drukken het in hun artikel als volgt uit.

“It has not escaped our notice that the specific pairing we have postulated immediately suggests a possible copying mechanism for the genetic material.”

De ‘ontdekking’ die in de structuur omsloten is, is dat het laat zien hoe je een precieze kopie kan maken van een gen. De dwarsverbanden in de dubbele helix kunnen uit verschillende aminozuren bestaan, maar er zijn wel vaste paren van aminozuren. Bij celdeling kan het molecuul dus doormidden gesneden worden waarna de 2 helften aangevuld kunnen worden met nieuw materiaal. Door de vaste paring kan dat maar op één manier, waardoor de kopie precies hetzelfde moet zij als het origineel.

Het was destijds een kernprobleem hoe genetisch materiaal zo goed intact kon blijven als het bij elke celdeling opnieuw gekopieerd moet worden. De structuur van Watson en Crick loste dat op. De consequentie van dat inzicht is dat de genetische informatie omsloten zit in de aminozuren die de bruggen vormen. Elke brug vormt dan een letter die exact overgeschreven wordt bij deling. Dit geeft op haar beurt weer een verklaring voor de diversiteit van levensvormen die allemaal DNA als erfelijk materiaal hebben. Er kan immers op deze manier heel verschillende informatie opgeslagen worden in DNA (bijvoorbeeld voor verschillende dieren), die toch exact behouden blijft bij elk kopie. Samen leiden deze aspecten van de structuur tot de conclusie dat DNA de drager van het genetische materiaal van levensvormen kan zijn.

‘The Double Helix’ laat zien hoeveel gokwerk er nodig was om tot deze structuur te komen, en hoe dun het bewijs voor deze structuur bij publicatie was. Laat staan voor de verdergaande conclusies die we er nu makkelijk aan kunnen verbinden. Het boekje verkondigd ook Watsons visie dat wetenschap in de eerste plaats om ideeën gaat en pas in de tweede plaats om experimenteel werk. En voor de oplettende lezer laat het zien hoe veel dat wringt. De waardeloze samenwerking tussen Watson en Franklin wordt door Watson bijvoorbeeld breed uitgemeten, maar de schuld wordt natuurlijk bij het karakter van Franklin gelegd en het feit dat ze een vrouw is. We vinden geen wroeging over dat Watson en Crick haar metingen ‘leenden’ zonder daar credits voor de ontdekking tegenover te stellen, terwijl het evident is dat ze zonder haar metingen nergens kwamen.

Dit is ook het mooie van het boekje. Het gebruikt een van de belangrijkste ontdekkingen uit de geschiedenis om de slechte kanten van de wetenschap te belichten. Het gaat niet bepaald over alle waarborgen van zorgvuldigheid die je aan het wetenschappelijk bedrijf mag vragen. Het gaat om het spel en het sociale proces met al haar intriges, die ook een rol spelen binnen dat systeem.

Dat brengt Watson veel bravoure, waar je kritisch op kan zijn. Hij heeft immers een voorbeeldfunctie. Maar ik zie het meer als een karakterrrek van Watson. De onderzoeker die met Lego de structuur van DNA hielp ontdekken is dezelfde als de onderzoeker die schaamteloos schreef over de rafelrandjes van die ontdekking. Watson was steeds iemand die zich weinig aantrok van hoe dingen horen. Ik vind het moeilijk dat niet charmant te vinden.

Wel heb je je als lezer de plicht om je ook te verdiepen in de perspectieven van de andere spelers. Bijvoorbeeld door ‘Rosalind Franklin and DNA’ van Anne Sayre te lezen. Dit boekje belicht de ontdekking vanuit het perspectief van een persoon die een voorbeeldiger wetenschapper was – en als je het mij vraagt degene die, meer nog dan Watson, aanspraak kan maken op de titel ontdekker van de structuur van het DNA.

Meer lezen?

Ik schreef eerder over evolutietheorie in evolutiesnelheid en over gedachtenexperimenten als een manier om de wetenschap verder te brengen. Ik schreef over wetenschapssociologie in Lableven en De zwarte dozen van Latour.

Voor dit blogje maakte ik gebruik van The Double Helixs van James Watson en Rosalind Franklin and DNA van Anne Sayre. De quote komt direct uit het oorspronkelijke artikel van Watson en Crick.

Het onbegrijpelijke brein

The Idea of the Brain van Matthew Cobb geeft lezers een inkijkje in waar de neurowetenschap vandaan komt en waar ze staat. Je leert ervan over hoe het brein werkt en over hoe de wetenschap werkt. Het is die dubbele laag die het zo’n boeiend boek maakt.

Cobb is een nuchtere wetenschapshistoricus. Het zou gemakkelijk genoeg geweest zijn om te laten zien dat ideeën die we nu natuurlijk vinden, zoals specialisatie in het brein, al voorkwamen bij de oude Grieken of Arabieren en dat de voortschrijdende wetenschap steeds meer bewijs gevonden heeft voor die ideeën. Maar Cobb kiest ervoor om steeds te laten zien hoe een idee over het brein ontstond, welke vruchten het afwierp en hoe eigenlijk steeds ook het spoor weer doodliep. Dat doet hij voor ideeën die we nu absurd vinden, zoals dat het brein in het hart zit, maar ook voor ideeën die we nu voor waar aannemen zoals evolutie.

Daarmee laat hij zien dat de wetenschap niet vooruitgaat via een serie briljante ideeën en ontdekkingen, maar dat er evengoed, of zelfs vooral, toevallige ontdekkingen, verwarring en fouten nodig zijn om verder te komen. Cogg beschrijft de ideeën uit het verleden niet als stappen op weg naar ons huidige begrip, maar zoals ze in die tijd gebruikt werden. Min of meer volledige theorieën in al hun complexiteit en met de bijbehorende onduidelijkheden. Dat geeft, mits je als lezer de neiging kan onderdrukken de lijntjes naar de toekomst zelf te leggen een eerlijk beeld van de ontwikkeling van de wetenschap.

Door het boek heen valt steeds op hoe belangrijk technologie is geweest om het brein te begrijpen. Technologie wordt gebruikt om inzichtelijk te maken hoe het brein zou kunnen werken; het meest algemeen in de vorm van ‘het brein als een machine’, maar eigenlijk heeft in de loop der tijd heeft elke opwindende nieuwe technologie die rol vervult. Technologie wordt gebruikt als metafoor voor het brein, maar de omgekeerde richting is ook aanwezig. Het brein werd gezien als een Telegraaf, maar Telegraaf lijnen werden gezien in termen van zenuwactiviteit. Daarmee is het begrip van het brein dus sterk cultureel verankert.

Wat ook opvalt is hoe weerbarstig het brein is als het gaat om het verzamelen van empirisch bewijs over haar werking. Dat gold voor de Aritsotelianen die hun kennis moesten vergaren door breinen van verschillende dieren te verzamelen, het gold voor de wetenschappers die stroomstootjes gingen toedienen aan het brein van zieke patiënten, maar het geld nog steeds voor de hedendaagse neurowetenschappers. Zij komen met hun dure scanners niet verder dan te laten zien welke stukjes, met elk tientallen miljoenen cellen van het brein, een beetje actiever zijn bij het uitvoeren van een bepaalde taak.

Het lukt ook maar niet om het goede niveau van analyse te vinden. Het lijkt er op dat het brein op verschillende niveaus van organisatie op een andere manier begrepen moet worden en dat die niveaus zich niet één op één in elkaar laten vertalen. Enkele cellen werken wezenlijk anders dan groepen cellen. Op sommige niveaus is het brein gespecialiseerd en gelokaliseerd, op andere niveaus is het gedistribueerd.

Een mogelijkheid om het gedrag van groepen cellen te begrijpen is het terug te brengen naar eenvoudigere netwerken en dan op te schalen. Onderzoek aan fruitvliegjes en zebravissen kan ons misschien meer leren over het brein, dan de beste fMRI scanners. Genetische manipulatie kan daarbij mogelijk helpen. Het maakt het mogelijk systematisch te experimenteren met hoe het gedrag van deze beesten beïnvloed wordt door kleine aanpassingen aan het brein.

Maar of we daarmee wél verder komen is nog steeds de vraag. We zullen ook nieuwe ideeën moeten ontwikkelen: nieuwe metaforen en concepten om het brein te begrijpen. Want Cobb laat zien dat de moderne breinwetenschap, met al haar empirisch geweld en technisch vernuft: de wetenschap die valse herinneringen in dieren kan implanteren en mensen in staat kan stellen computers te besturen met hun gedachten, er toch maar beperkt in slaagt voortgang te boeken in het daadwerkelijke begrip van de werking van het brein als geheel.

Deze kwestie wordt ook door breinwetenschappers zelf opgeroepen. Eric Jonas en Konrad Paul Koning deden een poging om de technieken die neurowetenschappers gebruiken op verschillende manieren toe te passen op de MOS 6507 processor. De MOS 6507 is de chip die in de jaren 70 in computers zat en spelletjes als Donkey Kong en Space Invaders mogelijk maakte. Het is een relatief eenvoudig apparaat waarvan de werking volledig bekend is.

Jonas en Koning brachten de structuur in kaart, schakelden sommige delen uit en deden allerlei andere dingen die neurowetenschappers plachten te doen. Ze slaagden er echter niet in te achterhalen hoe informatie in die chip verwerkt werd. Dit mislukte jammerlijk. Ze concludeerden dat de technieken van de neuroscience onvoldoende geschikt waren om het noodzakelijke begrip van dit intelligente apparaat op te bouwen.

Kunnen we, vraagt Cobb, het brein leren begrijpen met de technieken die we nu tot onze beschikking hebben? En hebben we meer techniek of meer eerder verbeelding nodig om dat te doen? Cobb neigt naar het laatste, maar misschien is de vraag die het boek nog het meest oproept wat we eigenlijk bedoelen met het begrijpen van het brein.

Ooit waren we best tevreden met het idee van het brein als een computer, maar nu willen we echt meer. Ooit dachten we dat het brein de complexiteit van een stoommachine zou hebben, nu weten we echt wel beter. Maar als we Cobb’s geschiedenis serieus nemen moeten we ook meenemen dat de invulling van begrijpen mee-veranderd is met de wetenschap. Elk hoofdstuk, elke metafoor, elk kernidee, kwam met begrip maar ook met veranderde en ook met gegroeide behoefte om het brein in detail te begrijpen. Dat zal in de toekomst niet anders zijn. We blijven op reis.

Meer lezen?

Dit is de slotpost van een serie blogjes over breinwetenschap aan de hand van het boek van Matthew Cobb. De serie start met een introductie in het blogje ‘brein quintologie‘, om daarna in op zoek naar het brein in te gaan op de oude breinwetenschappen; in informatieverwerker op de toepassing van het idee van informatie en communicatie op het brein; en in gedachtenmeting op de moderne breinwetenschap.

Ik schreef al eerder over het brein. Bijvoorbeeld in ‘wil‘ waar ik inga op de wetenschappelijke discussie rondom het bewustzijn, en in ‘geheugenmachine‘ waar ik inga op de werking van het geheugen.

Ik schreef ook al eerder over wetenschapsgeschiedenis. Bijvoorbeeld in de wetenschapsgeschiedenis van Rens Bod en over de wisselwerking tussen informatiewetenschappen en technologie en in ‘reading James Gleick’s the information’. Het schrijven van Cobb doet ook sterk denken aan de wetenschapsfilosofie van Larry Laudan.

Deze blogjes zijn natuurlijk vooral bedoeld om jullie lekker te maken om The Idea of the Brain zelf te lezen.

Gedachtenmeting

Technologieontwikkeling heeft ons denken over het brein beïnvloed doordat we het brein proberen te begrijpen vanuit de werking van die machines: zoals het idee van het brein als een telefooncentrale of het brein als een computer.

Maar dankzij de technologie kunnen we ook steeds slimmere metingen aan het brein doen. Toegegeven: ook de leerlingen van Aristoteles deden aan empirische breinwetenschap – door het uiterlijk van het brein van verschillend dieren te vergelijken. Maar de moderne technologie stelt ons in staat om in levende breinen activiteit te meten, om in te grijpen in het denken met elektronica en om precieze het brein na te bootsen in computermodellen. Dat is machtig gereedschap.

Hoe ver brengt al dit technologische geweld ons eigenlijk bij het begrijpen van het brein? De moderne wetenschap is versnippert in allerlei specialismen en dit geld ook voor het onderzoek aan het brein. Laten we er eens een aantal van bekijken.

Geheugen
Ik heb het eerder in deze serie al gehad over de lokalisatie gedachte : dat bepaalde taken op een bepaalde plek in het brein worden uitgevoerd. Maar we kunnen dit idee natuurlijk toepassen op het geheugen. Als ik aan mijn oma denk, heb ik daar dan een specifieke cel of een klein groepje cellen bij nodig?

Het idee van lokalisatie van het geheugen heeft een grote impuls gehad door de experimenten van neurochirurg Wilder Penfield. Hij liet zien dat als het brein op specifieke plekken gestimuleerd wordt mensen zeer specifieke, levendige herinneringen rapporteren – alsof ze het op dat moment meemaakten. De suggestie dat die herinnering op die specifieke plek is opgeslagen is dan ook sterk. Ook de verwerking van zintuiglijke informatie was volgens Penfield gelokaliseerd hetgeen resulteerde in het beroemde homunculus plaatje: waar de hersenen zijn afgebeeld met specifieke delen van het lijf waar ze aan gekoppeld zijn.

Toch wierpen deze bevindingen niet meteen het idee dat herinneringen juist gedistribueerd werden opgeslagen tegen. Een probleem was dat de herinneringen die Penfield kon oproepen heel anders zijn dan normale herinneringen. Ze waren heel levendig en vol detail, terwijl ‘normale’ herinneringen juist vaag zijn en veel met veel raadwerk aan elkaar gehouden worden. Bovendien was zijn stimulatie vrij grofmazig waardoor het nog altijd de vraag is wat hij precies stimuleerde. Een andere vraag was hoe een herinnering precies in een hersencel opgeslagen kan zijn.

Deze laatste vraag werd beantwoord door Donald Hebb. Hij stelde dat het brein leert door het netwerk van neuronen aan te passen. Erik Kandel toonde later aan de hand van zeeslakken aan dat Hebb’s hypothese correct was. Geheugen werkt via het versterken en verzwakken van connecties in het brein. Dit netwerkidee sluit niet uit dat specifieke cellen aan specifieke herinneringen gekoppeld zijn, maar hoe ‘lokaal’ of ‘geïsoleerd’ die netwerken zijn is een open vraag. We weten simpelweg niet hoeveel cellen samen een herinnering vangen, of die dicht bij elkaar zitten – en in hoeveel herinneringen elke cel een rol speelt.

Het vermogen om nieuwe herinneringen op te slaan kan kapot gaan. De patiënt Henry Molaison werd bijvoorbeeld voor epilepsie behandeld met een breinoperatie waarin delen van het brein worden verwijderd (lobotomie) – een behandeling die wel op schizofrene patiënten werd uitgevoerd.

Daarna kom Henry geen nieuwe herinneringen meer opslaan. Oude herinneringen waren nog prima en werkte zoals altijd, maar nieuwe gebeurtenissen sloeg hij gewoon niet op. Henry is uitgebreid onderzocht en daardoor hebben we veel geleerd over het brein, maar een van de meest duidelijke dingen is dat er een specifiek hersengebied is: de hypocampus, waar de opslag van herinneringen geregeld word.

Inmiddels weten we zoveel van de biochemische kant van leren, dat we valse herinneringen in muizen kunnen inplanten met elektronica. Bepaalde cellen waarvan we weten dat ze betrokken zijn bij het herkennen van een bepaalde geur worden gestimuleerd samen met cellen die met beloning te maken hebben. Vervolgens herkennen muizen die geur, ook al hebben ze hem nooit eerder in het lab geroken.

Het onderzoek van de neurologie van het geheugen is dus wat paradoxaal. We weten erg veel en we begrijpen het brein zelfs zo goed dat we het kunnen controleren, terwijl we tegelijkertijd nog altijd geen antwoorden op basale vragen hebben over hoe herkenningen worden opgeslagen.

Cirquits
Aangezien we weten dat herinneringen in netwerken van cellen worden opgeslagen, is het dan niet mogelijk om het brein te leren kennen door het simpelweg in kaart te brengen? Dat wil zeggen door vast te stellen welke neuronen met welke verbonden zijn?

Wetenschappers hebben dit op verschillende manieren proberen te doen. Één manier is om het gedrag van individuele neuronen bestuderen in het lab en in het brein. Dit onderzoek is begonnen met katten. Onderzoekers verdoofden een kat, maten de activiteit van één van de hersencellen als gevolg van lichtinval in het oog. De cel bleek alleen gevoelig voor een lijn die verticaal bewoog. Andere vormen en bewegingen hadden geen effect. Het idee was geboren dat cellen hoogst gespecialiseerd zijn.

Mensen zijn ook op deze manier onderzocht. Ook daar bleek specialisatie. Er bleken bijvoorbeeld cellen bij proefpersonen die reageerden op afbeeldingen Jennifer Aston en niet op andere gezichten of beelden.

Toch is de conclusie dat er zoiets bestaat als een Jennifer-Aston-cel niet helemaal terecht. De cel is immers verbonden in een netwerk. De ‘code’ voor de actrice kan verdeeld zijn over heel veel cellen waar deze cel toevallig een deel van uitmaakt. En de cel kan bijdragen aan andere codes waar we geen weet van hebben omdat die niet getest zijn.

Door onze focus op die ene cel verliezen we het totaal uit het oog – en daardoor weten we eigenlijk nog steeds vrij weinig. De indruk die wel ontstaat is dat er een hiërarchie bestaat in het brein, waarbij sommige cellen gevoelig zijn voor veel verschillende stimuli en anderen die veel meer gespecialiseerd zijn, waarbij de gespecialiseerde cellen veel bijdragen aan de herkenning van een bepaald concept. Maar wat die ‘topcel’ dan precies codeert is alsnog een grote vraag.

Als je niet teveel wil inzoomen op een enkele cel kan je als wetenschapper ook de bedrading als geheel onderzoeken: welke cellen zijn precies met elkaar verbonden? Dit wordt het connectome genoemd. Dit is alleen voor de meest eenvoudige dieren te doen. Een enkele hersencel kan verbindingen hebben met tientallen andere cellen en dat kan wel 30m bedrading betekenen.

In de jaren tachtig lukte het voor een wormpje: C.elegans. Het wormpje heeft 900 cellen, waaronder 300 neuronen. Seymour Benner kreeg er de Nobelprijs voor. Inmiddels wordt aan een diagram van de fruitvlieg larve gewerkt. Daarmee lijkt iets wat ook maar in de verste verte lijkt op de complexiteit van een zoogdierenbrein nog ver weg.

En dan is de vraag wat die bedrading laat zien. Onderzoek liet zien dat bij verantwoordelijkheden op verschillende manieren in het netwerk terecht kunnen komen. Met andere woorden voor zover we al een eenduidig antwoord uit te halen is over wat de fysieke bedrading is, dan kan hersenactiviteit nog altijd op verschillende manieren door die bedrading ontspinnen. Cellen kunnen verschillende rollen aannemen. Dat roept de vraag op hoe dit breinkaart project ooit inzichten gaat opleveren waar we direct mee doorkijken. Op zijn minst zullen we moeten modelleren wat er op die infrastructuur gebeurd.

Computers
Daar komen computers weer van pas het brein kan softwarematig gesimuleerd worden. Vroege pogingen lijken op wat nu het neurale netwerk genoemd wordt. Er is een input en een output en stukjes software daar tussen in (verborgen lagen) die signalen bewerken en doorgeven aan andere cellen.

In principe is dit een krachtig model van hoe het brein werkt en het heeft ons lerende en patroonherkennede computers gebracht, maar weinig inzicht in hoe het brein werkt. Op zich kan je monitoren hoe de software veranderd op basis van een leertaak, maar dat heeft zo weinig inzicht gebracht dat van AI gezegd wordt dat het een soort alchemie is. Soms werkt het goed, maar soms ook niet en niemand lijkt te kunnen begrijpen waarom dan.

Een indrukwekkende loot aan deze stam zijn brein-computer interfaces. Via een implantaat bouwen wetenschappers een directe link tussen het brein en een computer. Mensen kunnen zo met hun brein een prothese leren besturen en er zijn ook pogingen protheses voor de zintuigen, zoals de ogen, te maken. Het lijkt het ultieme bewijs dat we het brein zo goed begrijpen dat we het onder controle kunnen krijgen, maar feitelijk zien we hoe twee lerende systemen zich op elkaar aan kunnen passen. Het brein leert de input van de prothese verwerken, de prothese leert patronen in de elektriciteit van het brein te herkennen. Die lerende systemen blijken succesvol samen te kunnen werken en, hoe indrukwekkend dat ook is, het leert ons weinig over de precieze werking van het brein.

Chemie
Tot nu toe hebben we vooral de elektrische kant van het brein besproken, maar het brein is ook een chemische fabriek.

De ontdekking van LSD luide een tijdperk in waarin de chemie van het brein volop in de belangstelling kwam te staan. De werking werd toevallig ontdekt door Albert Hofman in 1943 toen hij het stofje, ontwikkeld als middel om beter te kunnen ademen tot zich nam en tijdens een fietstochtje in een hallucinante trip belande.

Er was wel bekend dat er stoffen waren die je stemming konden beïnvloeden, maar zulke sterke en precieze effecten op het brein waren onbekend. Al snel werden ook andere stoffen ontdekt zoals antidepressiva en lithium. De ontdekking van deze stoffen viel ongeveer samen met de vaststelling dat de overdracht van neuroactiviteit chemisch en dus niet elektrisch van aard is. Het had een enorme impact op de psychiatrie (destijds nog in de ban van psychoanalytica), maar na deze vruchtbare beginperiode liep de vondst van psychoactieve stoffen dood.

Er werden honderden chemische stoffen geïdentificeerd die op verschillende tijdschalen een effect op het brein hebben, waardoor er een nieuwe laag van complexiteit aan ons begrip van het brein werd toegevoegd. Alsof een brein dat puur elektrisch werkt al niet ingewikkeld genoeg was. Helaas begrijpen we nog weinig van de precieze rol van al deze stoffen en is het toedienen van psychoactieve stoffen aan het lichaam een vrij grofmazige methode om het brein mee te behandelen. Daarom – en omdat er al jaren geen goede kandidaten zijn – loopt dit onderzoek een beetje dood.

Lokalisatie
Naast lokalisatie van het geheugen is ook lokalisaties van functie nog altijd een onderwerp van onderzoek. Dit onderzoek nam in de tweede helft van de 20e eeuw een grote vlucht door fMRI. fMRI is een indrukwekkende scanningstechniek die vrij precies kan vaststellen waar er bloed door het brein stroomt. Dit wordt op haar beurt als een indicator van activiteit gezien. Vrij precies is overigens nog altijd zeer grofmazig in relatie tot individuele hersensellen: een gebiedjes van één fMRI pixel bevat 5,5 miljoen neuronen.

fMRI is populair omdat op relatief eenvoudige wijze kan worden aangetoond dat bepaalde hersengebieden actief zijn bij bepaalde taken, waarop een hersengebied voor specifieke emoties, bepaalde soorten beelden en andere stimuli geïdentificeeerd kunnen worden. Het idee achter dit programma is dat we die hersengebieden één voor één in kaart kunnen brengen, waarmee we een basis leggen om ook iets te zeggen over de samenwerking van al die gebiedjes. We kunnen de losse radertjes als het ware later weer in elkaar zetten om te laten zien hoe de machinerie van ons denken werkt.

Het probleem is echter er geen bewijs is dat zulke specialisaties bestaan. Immers dat een bepaald gedeelte actiever is tijdens een bepaalde taak zegt niet zoveel over wat het gebied precies doet en in hoeverre het steun ondervind van andere hersenonderdelen, noch hoe het zou reageren op andere stimuli. Het is vrijwel onmogelijk om op basis van al deze losse experimenten ook maar te begrijpen hoe het hersendeel zelf werkt.

En dan is er nog de vraag of die fMRI metingen zelf wel deugen. Omdat er zoveel statistiek nodig is om tot de beelden te komen is er een risico op ‘vals positieven’: experimenten met een uitkomst zonder dat er iets aan de hand was. Dat dit kan optreden is op spectaculaire wijze aangetoond door onderzoekers die een hersengebied vonden voor het herkennen van emoties in een dode zalm. Ze schreven het artikel over de dode zalm vervolgens precies op zoals onderzoekers die fMRI bij levende mensen toepassen doen, waardoor ze extra pijnlijk duidelijk maakten dat deze wetenschap niet zo sterk is als dat de auteurs zelf geloven.

Ook de interpretatie dat fMRI tenminste heeft laten zien dat lokalisatie de regel en niet de uitzondering is in het functioneren van het brein lijkt niet te kloppen. Veel experimenten laten ook zien dat veel taken in het brein gedistribueerd zijn over het hele brein. Zoals de beroemde spiegelneuronen, die eerst verondersteld werden om met weinig op een bepaalde plek te zitten, maar later toch verdeeld bleken over het hele brein. 11% van de neuronen uit de neocortex blijken spiegelneuronen te zijn. Eigenlijk is de uitkomst van al dit onderzoek dat lokalisatie nooit het hele verhaal vertelt en dat we nog altijd weinig weten van hoe het brein haar netwerken organiseert.

Lokalisatie van functies in netwerken van cellen is nog altijd een plausibele hypothese, maar die netwerken zijn zeker niet altijd ook geconcentreerd in de ruimte. De fMRI heeft dezelfde problemen als de Jennifer-Aston-cel experimenten – en die zijn nog lang niet opgelost.

Bewustzijn
Als we toch aan het meten zijn: wat zou het mooi zijn als we op een fMRI plaatje precies konden zien waar het bewustzijn zit zodat we eindelijk kunnen vaststellen dat, en hoe, het bewustzijn een product is van hersenactiviteit.

Experimenteel is dat niet triviaal. Je moet immers onbewuste hersenactiviteit met bewuste hersenactiviteit vergelijken. Maar iemand een cognitieve taak geven, zoals in fMRI gebruikelijk is werkt hier niet voor omdat dit allemaal ‘bewuste’ taken zijn.

Toch is er wel onderzoek uitgevoerd naar de ‘neurologische correlaten van het bewustzijn’. Men is begonnen met het meten van hersenactiviteit bij het ontwaken. Dat ligt voor de hand omdat we bij het slapen niet bewust zijn en bij het wakker worden wel. Dat onderzoek liep echter dood omdat het signaal te vaag was.

Ander onderzoek richtte zich op de rol van hersenhelften. Dit was mogelijk bij dieren en mensen van wie de hersenhelften operatief gescheiden waren. Dit onderzoek gaf in ieder geval sterk bewijs dat het brein een rol speelt in het bewustzijn. Bij mensen met losgesneden hersenhelften kunnen de beide helften apart van elkaar bestudeerd worden, omdat de visuele input verdeeld is. Het rechteroog is gekoppeld aan de linker hersenhelft en andersom.

De experimenten laten zien dat de twee hersenhelften allebei tekenen van bewustzijn tonen, hoewel dit makkelijker te onderzoeken is voor de linker hersenhelft waar onze taalproductie zit. Beide helften lijken zich echter op geen enkele manier van de ander bewust. De suggestie van deze experimenten is dat als je het brein splitst je ook twee verschillende bewustzijnen krijgt. Hetgeen in ieder geval de suggestie werkt dat breinactiviteit en bewustzijn sterk samenhangen.

Nieuw onderzoek richt zich op het stimuleren van bepaalde delen van het brein. Zo zijn er delen van het brein die door gestimuleerd te worden gevoelens van angst oproepen bij de proefpersonen. Of er een deel van de hersenen bestaat dat angstbewustzijn controleerde is maar zeer de vraag. Dezelfde cellen zijn bij andere processen ook betrokken.

Samengevat is er hooguit zwak empirisch bewijs voor de relatie tussen het brein en het bewustzijn. Genoeg om de stelling te ondersteunen dat het bewustzijn veroorzaakt wordt door het brein, maar niet genoeg om licht te werpen op hoe dat dan in zijn werk gaat. Er zijn in de laatste jaren theorieën ontwikkeld over deze relatie, maar overtuigend empirisch bewijs, of zelfs de definitie van hoe dat bewijs er uit moet zien is er gewoon nog niet.

Tot slot
De moderne wetenschap heeft met haar technologisch vernuft, en focus op wat meetbaar is enorm veel kennis opgeleverd over de biologie van het brein. Maar het wel de vraag of we nu ook beter grip hebben op de werking van het brein. We zien het als een orgaan dat informatie opslaat door netwerken van cellen aan te passen. Maar hoe dat in zijn werk gaat; hoe die netwerken zelf georganiseerd zijn; wat de rol is van al die chemische stoffen die bij het proces betrokken zijn en hoe belangrijk lokalisatie is? Eigenlijk weten we daar nog heel weinig van af.

We hebben er duizenden puzzelstukjes bij gekregen, maar niet zoveel nieuwe ideeën over hoe het brein zou kunnen werken waar al die puzzelstukjes in passen. In die zin kun je je afvragen of we zoveel verder zijn dan een halve eeuw geleden. Er is door het empirische geweld en de explosie van onderzoek in de neurologische breinwetenschap veel hard bewijs, maar weinig ideeën over wat we eigenlijk proberen te bewijzen.

Een kernprobleem lijkt te zijn dat het bewijs op macroniveau: “hoe reageert het totale netwerk op een impuls” slecht te koppelen is aan het mesoniveau “welke activiteit zien daarbij we in de hersenen” en het microniveau “hoe reageert één cel. Het is natuurlijk niet uit te sluiten dat die schakels snel zullen gevonden worden, maar de bottleneck lijkt eerder in ons denken over het brein te zitten dan in de metingen waar in de moderne tijd zo de nadruk op is komen te liggen.

Meer lezen?
Dit blogje is in zijn geheel gebaseerd op ‘The Idea of the Brain’ van Matthew Cobb. Het maakt het derde deel uit van een quintologie, die begon met de post ‘brein quintologie’, verder ging met ‘op zoek naar het brein’ en ‘informatieverwerker’ en nog verder gaat met ‘het onbegrijpelijke brein‘.

Ik schreef al eens over de ontwikkeling van ‘little science naar big science‘, iets dat zich spiegelt in de breinwetenschap, besprak het bewustzijn in ‘wil‘ en het geheugen in geheugenmachine.

Deze blogjes zijn natuurlijk nog het meest bedoeld om jullie lekker te maken om ‘The Idea of the Brain‘ zelf te lezen.

Informatieverwerker

Hebben we het brein altijd al gezien als een ‘soort computer’. Niet bepaald.

Waar we in de industriële revolutie het brein vooral probeerden te begrijpen met de begrippen die we ook voor de toenmalige machines inzetten: krachten, elektriciteit, scheiding van functies, werd in het begin van de 20e eeuw ‘informatie’ pas het dominante begrip.

Met de introductie van de meet- en regeltechniek en later ook de computer, was een generatie machines ontstaan die misschien meer geschikt was om als model voor het brein te dienen dan de stoommachine en haar opvolgers. Dit blogje gaat in op de omslag in ons denken over het brein als gevolg van die ontwikkeling.

Inhibitie (19e eeuw)
Misschien was het een wetenschappelijke ontwikkeling die eind negentiende eeuw gedaan werd die ons voor het eerst op het informatiespoor zette: inhibitie. Inhibitie is het effect dat sommige zenuwen lichaamsfuncties remmen in plaats van stimuleren.

In 1845 lieten Ernst en Eduard Weber zien dat elektrische stimulatie van bepaalde zenuwen de hartsnelheid kon verlagen in plaats van verhogen. Natuurlijk, dit idee van het lichaam als regelsysteem paste wel in de mechanische (pneumatische) metaforen die in die tijd voor het zenuwstelsel opgang vonden, maar het was niet makkelijk te onderzoeken en het was onduidelijk hoe het voor het brein werkte.

De vragen die inhibitie opriepen werden nog versterkt door de ideeën van Hermann von Helmholtz die liet zien dat perceptie geen passief proces was. Het oude idee was dat de wereld een indruk op ons brein achterlaat, maar Helmholz had redenen om een actief proces te veronderstellen. Het argument was dat het brein een 3D wereldbeeld construeert uit twee 2D beelden die door beide ogen worden waargenomen. Dit gebeurt onbewust, maar het betekent wel dat de beelden waar we ons bewust van worden gezien moeten worden als een soort conclusie die aan het bewustzijn gevoerd wordt, eerder dan een directe afdruk van de buitenwereld.

Helmholz’ idee werd ondersteund door de filosofie van Emuanuel Kant die stelde dat perceptie ontstaat doordat het brein haar kenvermogen op de werkelijkheid projecteert. Beide ontdekkingen gaven aanleiding om het brein als een proactief orgaan te zien, eerder dan een passieve waarnemer van de werkelijkheid. De vraag bleef alleen: hoe dan?

Neuronen (19e en 20e eeuw)
Vandaag de dag zouden we ongetwijfeld neuronen bij ons antwoord betrekken. Neuronen zijn de cellen waar ons zenuwstelsel uit is opgebouwd, maar het duurde lang voordat zelfs maar kon worden vastgesteld dat het cellen waren.

Neuronen zijn met elkaar verbonden via fijne vertakkingen die moeilijk waarneembaar zijn. Daardoor kon niet worden vastgesteld of het zenuwstelsel uit losse cellen bestond of dat het eerder een weefsel was dat tussen andere cellen lag. Hier kwam verandering toen Camillo Goglin bij toeval een techniek ontdekte die bij het afdrukken de zenuwcellen een andere kleur gaf dan omliggende cellen. Nu konden zenuwcellen zichtbaar gemaakt worden.

De techniek werd verbeterd door een andere wetenschapper: Ramon Cajal. Maar beide wetenschappers verschilden van mening over wat de prints met zenuwcellen eigenlijk lieten zien: een weefsel of losse cellen. Toen Golgi en Cajal samen de Nobelprijs kregen waren ze het nog altijd oneens. Uiteindelijk werd aangetoond dat zenuwcellen inderdaad als cellen gezien moeten worden en niet als een weefsel.

Dit inzicht bracht de wetenschap wel verder. Met een bouwsteen in handen: de cel, het neuron, kon het zenuwstelsel veel beter onderzocht worden. Langzaam werd duidelijk dat zenuwcellen verschillen in vorm, dat er op verschillende locaties cellen met verschillende vormen bestaan – hetgeen op specialisatie duidt- dat de cellen vertakkingen als ingangen hebben (dendrieten) en dat ze uitgangen hebben (axonen). Dat de overgang tussen twee zenuwcellen een belangrijke rol speelt in hun functioneren (de synaps).

Ook werd duidelijk dat stroom maar in één richting door de hersencel kan. En dat de cellen er in slagen spieren te activeren via een chemisch proces bij de overgang tussen twee cellen. Deze laatste bevinding was de uitkomst van een lang wetenschappelijk dispuut waarin voorstanders van een chemische theorie (soups) lijnrecht tegenover die van een elektrische theorie (sparks) stonden.

Hoe meer we wisten van het brein door deze lijn van onderzoek, hoe meer het misschien begon te dagen dat we nog weinig wisten. De telefooncentrale was lang een metafoor geweest om het brein mee te begrijpen, maar het was duidelijk dat als de neuronen al als schakelaars gezien moesten worden, dat ze wezenlijk anders werkten dan de schakelingen in deze centrales.

Machines (20e eeuw)
Het gebruiken van ideeën uit de techniek om het lichaam te begrijpen is vermoedelijk al zo oud als het denken en we zijn het in deze geschiedenis van het denken over het brein al verschillende malen tegengekomen. Maar in de 20e eeuw draaiden onderzoekers de richting om. Ze gingen pogingen doen om het brein in technische zin na te maken, ze ontwikkelden robots.

De meet- en regeltechniek kwam op en machines die bijvoorbeeld een koers vast konden houden werden daardoor mogelijk. Thomas Ross bouwde een robot die via trial en error zijn weg door een doolhof kon vinden en dit daarna kon herhalen; de meest eenvoudige manier om een leerproces weer te geven. Maar in veel opzichten was Ross’ machine niet meer dan een gimmick. Een wijziging in het doolhof maakte al dat de robot zijn weg niet meer kon vinden.

Het onderzoek naar inhibitie had al aangetoond dat neuronen ook deel uit maken van een meet en regelsysteem. We wisten alleen nog niet hoe. Onderzoek naar de elektrische werking van neuronen gaf antwoorden – en nieuwe vragen.

Elektriciteit gaat heel anders door een neuron dan door een metaaldraad en ook veel langzamer. De eerste biochemische modellen werden voorgesteld om dit te kunnen verklaren. Ook werd ontdekt dat zenuwen alles-of-niets gedrag vertonen. Ze zijn in essentie digitaal. Ze kunnen met een hogere frequentie signalen doorgeven, maar het signaal zelf is altijd even sterk.

Met behulp van, in de eerste wereldoorlog ontdekte radioversterkers, lieten Edgar Adrian en Yngve Zotterman zien dat (1) neuronen digitaal van karakter zijn, (2) ze stoppen met vuren als ze teveel gestimuleerd worden en (3) dat de intensiteit uitgedrukt wordt in frequentie en niet in amplitude. Later paste Adrian deze versterkingstechniek ook op het brein als geheel toe en ontdekte dat het brein in rust in een bepaalde frequentie actief is (we noemen dat nu alfagolven).

Deze ontdekkingen lieten misschien eerder de ‘vreemdheid’ van het zenuwstelsel zien dan dat het antwoorden gaf over de werking, maar het introduceerde, samen met de robotexperimenten, begrippen in het denken over het brein die later heel centraal zouden worden: informatie, code en boodschap.

Controle (20e eeuw).
En toen werd de computer uitvonden: eerst op papier door Alan Turing en John von Neuman, in de jaren 40, en later in de jaren 50 werden ze ook gebouwd. Turing bewees dat de ‘Turing machine’, een vrij eenvoudig denkbeeldig apparaat, werkelijk elke berekening kon uitvoeren die denkbaar was. Kon het niet zo zijn dat het brein hetzelfde in elkaar zat?

In de vroege ontwikkeling van de computer was er veel enthousiasme over deze ideeën. Het vakgebied van de cybernetica kwam er uit voort. Hier stond de symbolische verwerking van signalen en communicatie centraal. Maar de droom dat het op korte termijn mogelijk zou zijn een computer te maken die het menselijk brein zou simuleren spatte al snel uiteen.

De eerste intelligente robots waren ook niet erg intelligent, maar wat erger was, de binaire werking van de computer leek niet op de werking van neuronen. Die zijn in principe ook binair, maar ze verwerken signalen op een analoge manier. Signaalsterkte word uitgedrukt in vuurfrequentie. De logische schakelingen in de computer met en-poorten en of-poorten kunnen helemaal niet met een dergelijk signaal omgaan.

Het idee dat het brein een machine is die symbolen verwerkt is blijven hangen, maar er was echt een model nodig van hoe de biologie die verwerking aanpakt voordat deze lijn van denken iets wezenlijks kon opleveren.

Tot slot
Het zenuwstelsel is te zien als een regelsysteem en als een informatieverwerker. In veel opzichten denken we er nog altijd zo over. En toch hebben de meet- en regeltechniek en computerwetenschappen de belofte dat ze ons zouden helpen om het brein te begrijpen maar zeer gedeeltelijk ingelost.

Op sommige niveaus lijkt ons zenuwstelsel op een regelsysteem, maar de soorten signalen die het gebruikt zijn heel anders dan hoe we dit in de techniek hebben opgelost. Steeds moesten we concluderen dat het brein toch echt anders werkt dan de techniek die we als model gebruikten.

En dan is er nog de vraag hoe het allemaal schaalt. Hoe ontstaan uit al deze signaalverwerking ‘intelligentie’ en ‘bewustzijn’? Het is nog altijd een vraagstuk waar we slecht raad mee weten. Daarom zijn we, zoals ik in mijn volgende blogje laat zien, computers maar gaan inzetten om het brein beter door te meten en te modelleren, in plaats van zelf als een model voor het brein te dienen.

Meer lezen?
Dit blogje is in zijn geheel gebaseerd op ‘The Idea of the Brain’ van Matthew Cobb. Het maakt het derde deel uit van een quintologie, die begon met de post ‘brein quintologie’, verder ging met ‘op zoek naar het brein’ en nog verder gaat met ‘gedachtenmeting‘ en ‘het onbegrijpelijke brein‘.

Ik schreef al eerder over de wisselwerking tussen informatiewetenschappen en technologie en in ‘reading James Gleick’s the information’ en over de ideeën van Emanuel Kant in ‘kenvermogen

Deze blogjes zijn natuurlijk vooral bedoeld om jullie lekker te maken om The Idea of the Brain zelf te lezen.

Op zoek naar het brein

Hoe zijn we er achter gekomen dat onze zielenroerselen: ons denken over hele spectrum van de meest alledaagse gedachten tot speculatie over de diepste vragen over onszelf en het bestaan, allemaal voortgebracht worden door een paar kilo weefsel ergens in ons hoofd?

Tot de negentiende eeuw was de vraag waar het denken plaatsvind al even urgent als de vraag hoe het denken werkt. Omdat we nog weinig wisten van de natuurkunde en de biologie, en omdat we geen apparatuur hadden om eens goed te kijken wat er nou gebeurde, laat de breinwetenschap zich tot de negentiende eeuw nog kenmerken door veel gis- en conceptueel denkwerk. Iets waar we in de huidige tijd van (ver) doorgevoerd empirisme misschien juist wat meer behoefte aan hebben.

In ‘The Idea of the Brain’ laat Matthew Cobb zien dat het denken over het brein, altijd sterk is beïnvloed door heersende theorieën buiten de breinwetenschap. Dat dat ideeën heeft opgeleverd waar we nog steeds op bouwen, mag haast niet verbazen.

Hart (tot 17e eeuw)
De eerste vraag die beantwoord moet worden is natuurlijk waar het brein zich bevind, of preciezer: waar komen gedachten en gevoelens eigenlijk vandaan. Lang was het meest gegeven antwoord daarop het hart. Dat is ook niet zo vreemd als je je bedenkt dat je hartslag veranderd als je emotioneel wordt en omdat het een actief orgaan is, net zoals de gedachten actief zijn. Zonder de biologielessen op de lagere school had je er waarschijnlijk net zo over gedacht.

Het is dan ook niet verrassend dat dit idee van het hart als drager van het denken lang dominant is geweest in de wetenschapsgeschiedenis. Overigens niet in de laatste plaats om dat Aristoteles deze visie onderschreef. Zijn gedachtegoed bleef tot in de middeleeuwen dominant in Europa.

Het idee dat het centrum van het denken in ons hoofd zit en ideeën over de functie van de zenuwen ontstonden door experimenten op mensen en dieren. Leerlingen van Aristoteles viel het bijvoorbeeld al op dat mensenhersenen een complexere vorm hadden dan hersenen van dieren, terwijl mensen ook intelligenter leken dan die dieren.

Na de Romeinse tijd lag het centrum van de wetenschap in de Arabische wereld, waar ideeën over het hart en het brein als oorsprong van ons mentale leven gebroederlijk naast elkaar bestonden. Het brein bestond misschien uit kamers met verschillende functies zoals waarnemen en inbeelden, redeneren en onthouden? Al die functies konden een eigen plek hebben in het brein. Misschien werden ze bewoond door geesten, die weer hun oorsprong in het hart hadden. Nog in de Romeinse tijd werd deze kamerhypothese weerlegd door anatomisch onderzoek. Er was in de anatomie van het brein niets te zien wat die functies kon verklaren.

Krachten (17e tot 18e eeuw)
In de wetenschappelijke revolutie mechaniseerde ons wereldbeeld. Wetenschap en techniek gingen hand in hand om oplossingen te vinden waarmee arbeid geautomatiseerd kon worden. Deze mechanische techniek werd vervolgens gebruikt als metafoor om mensen en dieren weer te begrijpen. Beroemd zijn plaatjes uit die tijd waar dieren voor het eerst als robots worden afgebeeld.

Zo verging het ook het brein. René Descartes dacht dat de geest iets fundamenteel anders was dan het lichaam en dat de eerste de laatste wist te besturen via de pijnappelklier. Het kernprobleem was hoe het brein er in kon slagen om invloed uit te oefenen op het lichaam. Dat de zenuwen hier een rol in speelden werd algemeen aangenomen, maar hoe de zenuwen hier een rol in speelde bleef een groot raadsel. Oudere ideeën suggereerden dat die invloed het gevolg was van een bepaalde zenuwlucht (pneuma) of dat het hydraulisch zou moeten gaan, via een vloeistof.

Gelukkig was de microscoop net uitgevonden. Die wees uit dat de zenuwen geen plaats hadden voor vloeistoffen of gassen. De filosoof John Locke stelde daarom voor dat het brein moest bestaan uit ‘denkende materie’. Dit werd als godlasterend gezien omdat het uitsloot dat de ziel onsterfelijk was en omdat het de mogelijkheid inhield dat dieren, maar ook niet levende objecten zouden kunnen denken – een absurde consequentie.

Elektriciteit (18e en 19e eeuw)
De opvolger van het krachtenidee was het idee van elektriciteit dat in de 18e eeuw populair werd. Hoewel dat nu een ‘correct’ idee lijkt, laat de geschiedenis vooral zien hoe weinig vooruitgang ermee geboekt werd.

Dat komt niet in de laatste plaats omdat elektriciteit zelf nog nauwelijks begrepen werd. Eerst was het nog vooral iets van circussen waar elektriciteit als rariteit getoond werd. Later kreeg men iets meer controle met de uitvinding van de condensator er later de batterij. Hoewel er bewijs was dat elektriciteit beweging kon stimuleren: in kikkerbenen en in andere dieren – en dat bepaalde sensaties elektrisch konden worden opgewekt, was geenszins duidelijk hoe dit precies samenhing met de werking van de hersenen of het brein.

Één probleem was dat zenuwsignalen veel langzamer waren dan elektriciteit in geleidende draden. Hermann von Helmholtz toonde aan dat zenuwsignalen ongeveer 30m per seconde gaan. Dat is vrij weinig, en dat roept daarom vragen op over de perceptie (die zou dus altijd achterlopen), maar ook over elektriciteit als oorzaak van het denken (daarvoor lijkt snelheid essentieel). Een ander probleem dat het niet logisch leek verschillende sensaties zoals zicht en gehoor dezelfde oorzaak zouden hebben. Ondanks dit gebrek aan bewijs was het idee van het elektrische brein populair, misschien nog het duidelijkst weergegeven in Mary Shelly’s roman Frankenstein.

Functie (19e eeuw)
In de achttiende en negentiende eeuw komt ook het idee van functie, en functielokalisatie op. Dit past in het idee van het brein als een machine.

Het idee is dat bepaalde delen van het brein verantwoordelijk zijn voor bepaalde functies. De schedelmetrie was op dit idee gebaseerd. Aan de hand van bulten in de schedel zou je iets kunnen vaststellen over iemand karakter. Schedelmetrie was altijd al controversieel en raakte uit de mode door gebrek aan bewijs.

Toch is lokalisatie geen vreemd idee. Er was bewijs doordat mensen met gedeeltelijk hersenletsel ook delen van hun vermogens kwijtraakten. En het kon experimenteel aangetoond worden dat dieren bepaalde dingen niet konden als specifiek letsel werd aangebracht. Of dat het toekennen van elektrische stoom in bepaalde delen van het brein dit effect hadden.

Dergelijke experimenten konden natuurlijk niet bij mensen gedaan worden, hoewel sommige artsen hun kans grepen als ze konden. Berucht is het experiment op Mary Rafferty, door Roberts Bartholow. Mary’s brein lag bloot vanwege een scheur in haar schedel. Bartholow zette deze, naar eigen zeggen met goedkeuring van de patiënt, op verschillende plekken onder stroom hetgeen tot verschillende onwillekeurig reacties van de patiënt leidde.

Het experiment werd met interesse én afschuw bekeken. Het gaf steun aan het idee dat het brein gespecialiseerde gebieden kent, maar het werd ook als hoogst onethisch gezien. Naast ethische vragen was er iets anders waardoor het spoor doodliep. De middelen om experimenten te doen met zwakstroom of om beschadiging toedienen op bepaalde plekken in het brein waren zó grofmazig dat er te weinig echt nieuwe ontdekkingen mee gedaan konden worden.

Evolutie (19e eeuw)
De evolutietheorie wierp een nieuw licht op alle biologie, en dus ook op het brein. Op dit moment is het lastig een theorie te bedenken over het lichaam als het niet te verklaren is hoe een en ander geëvolueerd is, maar in de tijd van Charles Darwin moest de evolutietheorie bewijzen dat het oplossingen bood voor problemen van andere theorieën.

Om eerlijk te zijn lukte dat voor het brein aanvankelijk maar matig. Darwin was heel terughoudend met zijn ideeën over de evolutie van het brein en kwam pas geruime tijd na de ‘Origin of Species’ met het boek ‘The Decent of Man’ waarin hij zijn theorie over de evolutie van intelligentie ontvouwde.

Hierin vinden we een focus op gedrag, hoe insecten sociale vermogens hebben en er gelijkenissen zijn tussen het gedrag van mensen en andere dieren en hoe huisdieren en primaten emoties lijken te hebben. Het past mooi in het gradualistische karakter van Darwins denken: mensen hebben een combinatie van eigenschappen die we overal in de natuur terugvinden en die ontstaan zijn in een lange evolutionaire geschiedenis – bepaalde aspecten van de menselijke intelligentie zijn misschien verder ontwikkelt dan bij andere dieren, maar ze zijn niet essentieel verschillend.

Het was, en het is eerlijk gezegd nog steeds, zó moeilijk voor mensen om hun uitzonderingspositie in de natuur op te geven dat Darwins ideeën tot op de millimeter bevochten werden. Nog altijd heeft een wetenschapper als Frans de Waal moeite om de wetenschappelijke gemeenschap te overtuigen dat dieren empathie kunnen hebben. En het idee dat andere dieren dan mensen bewustzijn kunnen hebben wordt nog altijd bevochten.

Een belangrijk conceptueel probleem voor de evolutietheorie is dat het geen licht werpt op de relatie tussen het brein en ons bewustzijn. Hoe produceert het brein gedachten? De evolutietheorie heeft geen antwoorden. Snel na Darwins dood werd het idee van George Romanes populair dat alle materie bewustzijn heeft. Er zou een alles doordringende telepathische substantie bestaan, die los stond van de materie, maar die er wel mee kon interacteren. In de maalstroom van speculaties over het brein verdween het idee van evolutie naar de achtergrond, omdat het nog onvoldoende overtuigingskracht had.

Tot slot
Veel ingrediënten van het moderne denken over het brein hebben wortels in in de vroege wetenschap: elektriciteit, lokalisatie van functie en evolutie. Maar deze jaren laten ook zien hoe een gebrek aan sterke ideeën over natuurkunde en biologie en -zoals we in de volgende blog zullen zien: informatiekunde – de breinwetenschap bemoeilijkten.

Er was te weinig empirisch bewijs om het denken bij te sturen. Daarom zien we in deze periode veel waardevolle speculatie en nog weinig experimenten die het denken dwingen antwoord te geven op specifieke vragen over het brein -en hoe het ons denken stuurt. Het was wachten op de twintigste eeuw waarin in de vorm van nieuwe technologie, nieuwe modellen voor het begrijpen van het brein ontstonden én waar nieuwe manieren om het gedrag van het brein te leren kennen opgang deden.

Meer lezen?
Dit blogje is in zijn geheel gebaseerd op ‘The Idea of the Brain’ van Matthew Cobb. Het maakt het tweede deel uit van een serie die begin met de post ‘brein quintologie’ en verder gaat met ‘informatiewerker’, ‘gedachtenmeting‘ en ‘het onbegrijpelijke brein‘.

Over de evolutietheorie schreef ik als eens eerder in ‘evolutiesnelheid

Deze blogjes zijn natuurlijk vooral bedoeld om jullie lekker te maken om The Idea of the Brain zelf te lezen.

Brein quintologie

Hoe denken, wij mensen, eigenlijk over onze eigen intelligentie? Matthew Cobb probeert in ‘The Idea of the Brain’ uiteen te zetten hoe het denken over het brein zich door de tijd heen ontwikkeld heeft. Dat is snoepen natuurlijk. Wetenschapsgeschiedenis is altijd al boeiend omdat het ons iets leert over hoe we, met vallen en opstaan, aan kennis komen. Maar als het onderwerp van die geschiedenis dan ook nog het orgaan is waar we die kennis mee opdoen, dan kan een beetje kentheoreticus zijn geluk niet op. Maar Cobb maakt het ons tegelijkertijd helemaal niet makkelijk. 

Cobb laat zeker zien hoeveel we meer te weten gekomen zijn over het brein in de loop van de tijd, maar ook hoeveel vragen nog open liggen – en hoe het maar de vraag is of we met de huidige wetenschappelijke aanpak antwoorden kunnen krijgen op die vragen. ‘The Idea of the Brain’ is het verslag van een onvoltooide reis. Als die reis je interesseert dan moet je het boek zeker bestellen en lezen, maar als je meer geïnteresseerd bent in de bestemming dan is het misschien verstandig om tenminste nog een paar decennia te wachten.

Afijn. Zelf vind ik dat het de reis is die telt en daarom neem ik ook wat meer ruimte dan gebruikelijk om Cobb’s ideeën te bespreken. Ik deel dit blogje op in vijf delen. Na deze overzichtspost ga ik in het tweede blogje in op de oude geschiedenis van het denken over het brein. In de oude geschiedenis moesten we leren dat onze intelligentie geproduceerd wordt door een orgaan, dat het zenuwstelsel en de hersenen dat orgaan vormen en dat het brein helaas niet eenvoudigweg uiteen te rafelen is in radertjes met een specifieke functie die samen onze intelligentie voortbrengen. 

In het derde blogje over dit onderwerp ga ik in op het brein als ‘informatieverwerkende machine’. In de vroege 20e eeuw begonnen we het brein te begrijpen als een orgaan dat signalen verwerkt, en omdat we in dezelfde tijd machines gingen bouwen die dat ook deden, zoals de telegraaf -en later- computers, dachten we dat we een aardig eind waren met het begrijpen ervan. We moesten nog leren dat het brein in een aantal opzichten fundamenteel anders in elkaar zit dan die machines.

In het vierde blogje ga ik in op hoe moderne wetenschappers het brein proberen te begrijpen door detailstudie van de processen die daar plaats vinden. Ze bestuderen hersenactiviteit in zoveel detail als mogelijk, ze proberen het brein te besturen met implantaten en ze proberen hersenprocessen na te bootsen in computers. Al die pogingen zijn op zichzelf erg indrukwekkend, maar Cobb roept wel de vraag op of we met al dat computergestuurd wetenschapsgeweld dichter bij het begrijpen van het brein gekomen zijn.

Tot slot ga ik in het vijfde blogje in op de overkoepelende lessen die we uit het werk van Cobb kunnen trekken: over het brein en over de hersenwetenschap. Over wat we weten en wat we nog mogen ontdekken en over de vraag of al dat gepuzzel wel zin heeft. Tot dan!

Meer lezen?

Dit is het eerste blogje van een serie over ‘The Idea of the Brain’ van Mathew Cobb. In het volgende blogje: op zoek naar het brein ga ik in op de oude breinwetenschappen; in informatieverwerker op de toepassing van het idee van informatie en communicatie op het brein; in gedachtenmeting op de moderne breinwetenschap; en in het ‘onbegrijpelijke brein‘ op de lessen die uit deze wetenschapsgeschiedenis getrokken kunnen worden.

Ik schreef al eens over het bewustzijn in ‘wil‘ en over de werking van het geheugen in ‘geheugenmachine

Ik schreef ook al eerder over wetenschapsgeschiedenis. Bijvoorbeeld in de wetenschapsgeschiedenis van Rens Bod en over de wisselwerking tussen informatiewetenschappen en technologie en in ‘reading James Gleick’s the information’.

Deze blogjes zijn natuurlijk vooral bedoeld om jullie lekker te maken om The Idea of the Brain zelf te lezen.

Wil

Het zou natuurlijk zo kunnen zijn dat ik dit blogje niet schrijf omdat me dat leuk leek en ik ertoe besloten heb, maar dat dat besluit op de een of andere manier voor me genomen is en dat mijn bewustzijn mij om een nog onbekende reden wijsmaakt dat ik dat besluit genomen heb. Of kortweg, dat het idee dat mensen bewuste besluiten nemen een illusie is. 

Dit lijkt een vreselijk omslachtige theorie, maar ze heeft fervente aanhangers, vooral onder neurowetenschappers. Wat bezielt hen toch? Waarom staat het het idee dat we bewuste besluiten kunnen nemen hen zo tegen? 

Het is vast een heel ingewikkelde kwestie, maar twee boosdoeners zijn overduidelijk. De eerste is René Descartes, de Franse filosoof die dacht dat ons denken het bewijs van ons bestaan is. De tweede is  Benjamin Libet die in de jaren 80 een experiment uitvoerde waar we nog steeds van in de war zijn.

Het verhaal van Descartes zal bekend zijn. Hij probeerde aan alles te twijfelen en kwam toen tot de conclusie dat men het lichaam wel, maar de geest niet kan betwijfelen. Dit leidde tot het dualisme. Voor Descartes waren lichaam en geest fundamenteel  verschillende dingen, met een andere substantie. Het lichaam was beperkt, stoffelijk en tijdelijk en de geest was vrij, onstoffelijk een eeuwig. Hoe lichaam en geest elkaar beïnvloedden wist Descartes niet, maar het idee dat de geest voortkomt uit het lichaam ging er bij hem zeker niet in. De geest was leidend, het lichaam hooguit een tijdelijk vehikel. Het dualisme is alweer uit, maar de vraag hoe de subjectieve beleving van het denken, het bewustzijn, samenhangt met de biologische basis ervan, het brein, is nog springlevend. 

In de jaren 80 voerde Benjamin Libet daarom een ingenieus psychologisch experiment uit dat die discussie behoorlijk op scherp zette. Libet vroeg proefpersonen om hun vingers vrijwillig te bewegen en om te rapporteren wanneer ze de aandrang voelden om die beweging uit te voeren, terwijl Libet hun hersenactiviteit mat. Het bleek dat de bijbehorende hersenactiviteit voor die beweging al ruim 200 milliseconde voordat mensen een aandrang voelden om hun vingers te bewegen in de hersenen te zien was. Mensen zetten de beweging al in voordat ze zich er bewust van zijn dat ze dat willen.

Dat is tegenintuïtief. Ons boerenverstand zegt: je moet eerst een besluit nemen voordat je er naar kan handelen. Dus moet je je eerst bewust worden dat je je hand wil bewegen en dan pas de beweging inzetten, niet andersom. Maar die omgekeerde volgorde is wel hetgeen Libet’s data lieten zien.

Zou het zo kunnen zijn dat het bewustzijn niet aan de knoppen van ons handelen zit, maar dat het zo’n beetje met de rest van de hersenen mee hobbelt – en dat het hooguit achteraf gevoel van controle voor ons fabriceert? Het bewustzijn is dan niet een stuur waarmee we richting kunnen geven aan het leven, maar een praatdoos die wat we toch al doen voor ons goedpraat. 

Het is deze naïeve interpretatie van het Libetexperiment die zo populair is onder neurowetenschappers. Dat heeft iets te maken met hun opvattingen over onderzoek. Neurowetenschappers proberen het brein te begrijpen vanuit de harde data die er over verzameld kan worden in EEG’s en fMRI scans. Ze zijn wars van getheoretiseer over het bewustzijn door filosofen, die net als Descartes destijds, met gedachtenexperimenten vast proberen te stellen wat het bewustzijn is. We hoeven allen naar Descartes te kijken om te zien wat voor absurde theorieën daar uit komen.

Daarom kunnen we volgens hen het bewustzijn beter experimenteel bestuderen. Met moderne apparatuur kan je immers de werkelijkheid zelf laten spreken. Voor neurowetenschappers is psychologie is in essentie een natuurwetenschap en ze vinden dat deze ook zo bedreven moeten worden. Dat is zo mooi aan het Libet experiment: het laat met harde data zien dat het bewustzijn niet bestaat.

Het probleem is alleen dat het Libet dat helemaal niet laat zien. Het ironische van de naïeve interpretatie van het Libet-experiment is dat deze in essentie Cartesiaans is. De gedachte is dat er twee verschillende dingen zijn: (1) het bewustzijn en (2) het brein, dat je van elk van die dingen onafhankelijk kan meten wanneer ze actief worden en dat je oorzaak en gevolg kan vastellen door te kijken wie het eerst in beweging komt. Diegene die het laatste komt kan niet de veroorzaker kan zijn van wat de ander doet. 

Dat lijkt een sluitende redenering, maar er deugt iets niet. Want wat hadden we eigenlijk verwacht te zien? Dat mensen zich eerst bewust worden van een besluit en dat er daarna pas hersenactiviteit ontstaat? Waar komt dat bewuste besluit dan vandaan, als het niet uit de hersenen komt? Is het idee echt dat er geen hersenactiviteit nodig is voordat we een besluit nemen en dat ons grijze cellen daarna gaan rennen en vliegen omdat het besluit nu eenmaal moet worden uitgevoerd? 

Het ligt toch veel meer voor de hand dat we in het Libet-experiment verschillende aspecten meten van één proces waarin we een bewust besluit nemen en tot actie over gaan. We kijken niet naar twee dingen maar naar één ding: het nemen van een besluit tot actie. Een bewust besluit gaat natuurlijk gepaard met hersenactiviteit en die heeft tijd nodig om aan te zwellen. Als je dat op verschillende manieren meer is het niet  vreemd dat het ene meetinstrument eerder opmerkt dat er iets gaande is dan het andere instrument. De EEG van Libet was gevoeliger voor de hersenactiviteit die bij het besluit hoorde dan de subjectieve beleving van de proefpersonen en sloeg daarom eerder uit. 

Dat is een weinig opzienbarende uitkomst. Het is niet verbazend dat het nemen van een besluit tijd kost. Het is niet verbazingwekkend dat daar allerlei hersenprocessen bij betrokken zijn. Het is niet verbazingwekkend dat we ons van sommige van die processen bewust zijn en van andere niet. We moeten het brein, het bewustzijn en zeker de vrije wil niet los van elkaar zien.

Het is niet dat het bewustzijn besluiten neemt die het brein vervolgens uitvoert, het brein neemt besluiten en wij zijn ons daarvan bewust. Of misschien nog iets pro-actiever: het bewustzijn neemt deel aan onze besluitvorming. De rol van het bewustzijn is misschien bescheidener dan Descartes voor ogen had en wat we denken te denken heeft misschien minder invloed op ons handelen dan we zouden willen, maar het Libetexperiment laat op geen enkele manier zien dat het bewustzijn een illusie is of dat de vrije wil niet bestaat. 


Wat het experiment wel laat zien is dat je om goede metingen te kunnen doen en die goed te kunnen interpreteren, een goede theorie nodig hebt. Er is te weinig bekend over de werking van het brein om te kunnen weten wat Libet nu precies mat en daardoor kunnen we er ook geen conclusies aan verbinden. Ik heb me er niet genoeg in verdiept, maar dezelfde beperking zou wel eens kunnen gelden voor veel moderner hersenonderzoek waar het idee van het bewustzijn als illusie mee onderbouwt wordt. 

Misschien ergeren de neurowetenschappers zich aan theorieën zoals die van Descartes, maar onderzoekers die de data laten spreken, terwijl ze de theorie verwaarlozen, hebben ons uiteindelijk even weinig te vertellen als filosofen die denken dat twijfel afdoende is om de absolute waarheid te achterhalen. 

Meer lezen?
Ik schreef over het gedachtenexperiment van Descartes in Brein in een vat en over zelfbewustzijn in Poetsvissen, ik schreef ook al eens eerder over Gedachtenexperimenten in het algemeen en over de werking van het brein.

Dit blogje is natuurlijk een heel sterke vereenvoudiging van een complex debat. Een goede beschouwing van het Libet experiment vind je in dit artikel van Jan Verplaetse. Een niet onbelangrijk detail is dat Libet niet hersenactiviteit in het algemeen mat, maar een specifieke hersengolf die het ‘readiness potential’ wordt genoemd. In dit stuk wordt goed uitgelegd wat dat is en wat het naar moderne inzichten wel en niet zou kunnen zeggen over het debat over bewustzijn en vrije wil.

De wetenschapsgeschiedenis van Rens Bod

In zijn boek “Een wereld vol patronen” doet Rens Bod een poging om een totaaloverzicht van de geschiedenis van menselijke kennis te geven. Alle kennis. Niet alleen die sinds de wetenschappelijke revolutie, maar ook van voor de uitvinding van de landbouw. Niet alleen westerse kennis – maar ook die in India, de Arabische wereld en China. Niet alleen de natuur-, maar ook de geesteswetenschappen. Ik weet niet zo snel hoe je een ambitieuzer project kan bedenken.

Ik begon aan “Een wereld vol patronen” omdat ik  de voorganger “De verborgen wetenschappen” prachtig vond. Dat boek verbreedde mijn kennis van de wetenschapsgeschiedenis enorm, omdat ik net zoals de meeste bèta’s vooral geschoold was in de westerse wis- en natuurkunde, sinds de Grieken. Ik had nooit van zoiets als filologie gehoord en het was boeiend om op deze manier ingewijd te worden in de problemen die schriftgeleerden moesten oplossen, de oplossingen die ze vonden en de impact die dat denken vervolgens had op de wetenschappen die ik beter kende.

Ik heb “Een wereld vol patronen” met plezier gelezen, maar het kon me minder bekoren dan “De verborgen wetenschappen”. Dat komt voor een belangrijk deel omdat ik dat boek al gelezen had en de nieuwe verbredingen me minder raakten. Ik zou graag meer weten over hoe kennis in de prehistorie zich ontwikkelde, maar omdat we het met grottekeningen en ingekerfde werktuigen moeten doen valt er per saldo niet zoveel over te zeggen. Het is een groot goed dat Bod de kennis van Arabische, Indiase, Chinese en oude Amerikaanse beschavingen een podium geeft, maar die brede blik zorgt ook dat de afzonderlijke verhalen nog weinig uit de verf komen.

Normatief werkt de brede blik uit het boek prima: dit zijn allemaal dingen die een wetenschapshistoricus in beschouwing zou moeten nemen. Maar de uitwerking al die onderdelen pakt nogal schetsmatig uit, hoe grondig het onderliggende onderzoek ook is. Daar komt nog bij dat Bod, de medische wetenschap uitgezonderd, de engineering disciplines niet meeneemt in zijn overzicht. Dat is een vreemde omissie. Als gebouwen, werktuigen, scheepvaart, aquaducten en stoommachines geen weerslag zijn van systematische kennis, wat dan wel?  Bod slaagt er in de ambitie van een totaalgeschiedenis van menselijke kennis stevig op de kaart te zetten, maar het resultaat  blijft sterk gekleurd door zijn eigen wetenschappelijke achtergrond.

Uiteraard probeert Bod ook duiding te geven aan de ontwikkeling van de menselijke kennis. Om kort te gaan werd de mens zich eerst bewust van patronen: regelmatigheden waarmee losse feiten in verband worden gebracht, zoals de maanstanden, de tonen in gespannen snaren, of de overeenkomsten tussen verschillende bronnen. Later, vanaf de vroege oudheid, zijn mensen daar onderliggende principes bij gaan zoeken: vuistregels, wiskundige begrippen of andersoortige theorieën. De volgende stap was het vinden van herleidingen: regels waarmee principes en patronen met elkaar in verband gebracht kunnen worden, zoals de logica. Daarna werd de focus om het aantal principes terug te brengen en gingen herleidingen een belangrijkere rol spelen. Dit ontaarde in de wetenschappelijke revolutie in de empirische cyclus: in Bod’s visie een  voorbeeld van een patroon in herleidingen.

Om eerlijk te zijn vind ik deze theorie over de ontwikkeling van kennis zonde van het boek. Bod schrijft het volgende over de Indische wetenschapper Panini, die beweerde dat alle taal recursief was:

De Grieken lijken Panini’s werk niet te hebben gekend […] ze zouden Panini zeker hebben gewaardeerd met hun hang naar het ene in het vele. (P98)

Ik vermoed dat de Grieken Bod’s reductie van al het systematische denkwerk uit de gehele mensheid naar een dans van twee soorten begrippen -patronen en principes- om dezelfde reden hadden kunnen waarderen. Hoe krachtig is het als je al die diversiteit, al die denkwijzen, als die subtiele manieren waarop de verschillende wetenschappen elkaar gevoed en beïnvloed hebben terug kan brengen tot een of twee makkelijk te begrijpen begrippen?

Niet zo krachtig als je het mij vraagt. Veel mensen zullen wel het zo zien, maar ik blijk niet erg “Grieks”. Want die twee begrippen zijn maar begrippen. Ik voel met niet verlicht door het idee dat je de grammatica en de afwisseling van dag en nacht allebei als ‘patronen’ kan zien die je vanuit ‘principes’ kan begrijpen. Dat is zó hoog over dat het afleid van die dingen die echt boeien. Het kan toch niet zo zijn dat dit de beste manier is om een zorgvuldige vergelijking  tussen bijvoorbeeld de ontwikkeling van het recht en de ontwikkeling van de natuurwetenschappen in de middeleeuwen te beschrijven? Dat ze zich beiden met principes en patronen bezig hielden is misschien wel waar, maar ook nogal een lege constatering. En dat terwijl Bod juist zo zorgvuldig werk verricht heeft om al die verschillende kennis in kaart te brengen.

De theorie lijkt een poging te zijn om te laten zien dat het menselijke denken een ontwikkeling heeft doorgemaakt en mogelijk dat die is verwetenschappelijkt, en daarmee gaat hij verder dan wetenschapsfilosofen als Popper en Laudan. Die beweren wel dat ze mechanismen voor de groei van kennis kunnen identificeren, maar passen die vervolgens eigenlijk niet toe op de geschiedenis zelf.  Laat staan dat ze er een ontwikkeling in ontwaren. Toch vind ik Bod ook op dit aspect overtuigingskracht missen: er komen veel uitzonderingen voor in het boek en Bod laat het bij beschrijvingen. Een verklaring waarom het denken door de tijd veranderd zou zijn ontbreekt. Interacties tussen de kennis en de context waarin die tot stand komt blijven onderbelicht. Daardoor blijft ook dit ontwikkelingsaspect teveel in het luchtledige hangen.

Kritische noten genoeg dus, maar dit zijn nauwelijks redenen om het boek in de boekhandel te laten liggen. De kracht van het boek zit hem niet in de duiding, het is juist de bloemlezing, de diversiteit die Bod in deze eenvoud probeert te vangen, die het de moeite waard maken. Ik had het liefst gezien dat Bod die diversiteit gewoon lekker vrij had gelaten, maar zo knellend is het patroon-principe-keurslijf nu ook weer niet. Je kunt er gewoon doorheen lezen en genieten van het denken van al die denkers waar je nog nooit van gehoord had die er achter tevoorschijn komt. 

Meer lezen?

Ik schreef over de groei van kennis in Het probleemoplossend vermogen van Larry Laudan, en Groeit kennis? In Anachronismen ging ik in op de moeilijkheid van het achteraf duiden van oude kennisstandaarden. Ik schreef ook al eens over het nut van Geschiedenis in het algemeen.

Er zijn weinig wetenschapshistorici die veel aandacht hebben voor de wisselwerking van de ontwikkeling van kennis en haar toepassing, maar uitzonderingen vormen wel Bruno Latour en ook The Information van James Gleick.

Zowel “De vergeten wetenschappen” en “Een wereld vol patronen” zijn het lezen waard.

Anachronismen

Imre Lakatos, de wetenschapsfilosoof, schijnt gezegd te hebben dat de wetenschapsfilosofie leeg is zonder de wetenschapsgeschiedenis en dat de wetenschapsgeschiedenis blind is zonder de wetenschapsfilosofie

Prachtig. Het zou inderdaad vreemd zijn als filosofen, die theorieën over de wetenschap opstellen, zich niet zouden interesseren voor hoe die wetenschap zich daadwerkelijk voltrokken heeft. Nou ja. Zulke filosofen bestaan wel natuurlijk: Lakatos begon er niet voor niets over. Het is ook lastig om geschiedenis te schrijven als je dat niet vanuit een theoretisch kader doet. Er is veel wetenschapsgeschiedenis. Als je niet specifiek naar iets op zoek bent word het lastig het allemaal te overzien. Hoewel ik me dan weer wel afvraag of de wetenschapshistorici uit de tijd van Lakatos blij waren met de avances van de filosoof. Heel gelukkig is dat huwelijk tussen de filosofie en de geschiedenis toch nooit echt geweest.

Daar zijn goede redenen voor, maar de spelbreker die ik het boeiendst vind is het probleem van de anachronistische kennisstandaarden.

Een anachronisme is iets dat niet in de tijd past. In de middeleeuwen keken mensen niet op hun horloge. In de jaren 90 waren er geen smartphones. In films kan het gebruik van anachronismen heel humoristisch werken. In de films van Monty Python verspreiden historische figuren zoals Koning Arthur en Jezus steeds opvallend moderne denkbeelden. 


Wetenschapsfilosofen die iets willen zeggen over wat kwalitatief hoogstaande kennis is, of die echte van valse wetenschap willen onderscheiden, lopen het risico net zo’n raar figuur te slaan als deze hoofdpersonen. Ze dringen zich niet alleen op aan de historici, maar ook aan de geschiedenis zelf. Er is geen enkel bewijs dat Aristoteles ooit gerandomiseerde dubbelblinde experimenten deed. Maakt dat hem een slechte wetenschapper?


Goed, dat was een flauwe retorische vraag, maar het punt zal duidelijk zijn: in de loop der tijd zijn de standaarden voor wat goede kennis is en voor hoe de wetenschap vooruitgang boekt veranderd. Daarmee is het anachronisme bijna onontkoombaar voor iedereen die iets verstandigs wil zeggen over de wetenschap. Hedendaagse ideeën over wetenschappelijke rationaliteit zeggen weinig over de wetenschap van vroeger en oude ideeën hebben inmiddels hun geldigheid verloren.


Het is ook een waar dilemma, want er zijn niet veel uitwegen te bedenken. Er is de olifant-in-de-porseleinkast benadering van Karl Popper, die beweerde dat de wetenschapsfilosofie normatief is en dat het dus niet gaat over hoe wetenschap is, maar over hoe ze moet zijn. Dat zet de wetenschapsgeschiedenis buitenspel en schoffeert met terugwerkende kracht alle wetenschappers die nog niet van Poppers gouden standaarden op de hoogte waren en zich er niet aan konden houden.


Er is ook de olifant-in-de-porseleinkast benadering van Paul Feierabent, die beweerde dat de wetenschapsgeschiedenis zo grillig is, dat er in het geheel niets te zeggen valt over welke benadering van de wetenschappen werkt en welke niet: anything goes. Daarmee zette hij de wetenschapsfilosofie buitenspel en reduceerde wetenschappers, goed en slecht, tot prutsers die maar wat aanklooien.


De gulden middenweg wordt bewandeld door iemand als Larry Laudan, die beweert dat er algemene principes zijn te geven voor de groei van wetenschap als geheel en tijdspecifieke invullingen van die principes die aan verandering onderhevig zijn. Volgens Laudan hebben wetenschappers altijd gewerkt aan het vergroten van het probleemoplossend vermogen van hun vak, maar verschillende ideeën gehad over hoe dat in te vullen is.


Dat klinkt een stuk eleganter dan de bruuske benadering van Popper en Feierabent, maar je kun je afvragen of het echt een uitweg biedt. Is het echt zoveel vriendelijker om van een tijdspecifieke invullingen van kwaliteit te spreken dan om te zeggen dat alles geoorloofd is? En loopt het algemene principe niet ook het risico anachronistisch te zijn? Probleemoplossend vermogen klinkt alvast heel erg als iets van nu – en niet van alle tijden.

Wat zou het mooi zijn als de filosofen van nu met de wetenschappers van toen in gesprek konden. Ik zou er heel wat voor over hebben om in te kunnen loggen op een Zoom call om een gesprek tussen Laudan en Aristoteles over probleemoplossend vermogen bij te wonen of met Popper over falsificatie. Of nee, als ik dan toch mag dromen: Aristoteles spreekt met Laudan over het probleem van anachronismen in de wetenschapsfilosofie.


Meer lezen?

Ik schreef over de ideeën van Larry Laudan in “Het probleemoplossend vermogen van Larry Laudan” en hij wees me in zijn boekje Progress and its Problems ook opmeet probleem van anachronismen. De ideeën van Karl Popper behandelde ik in “Groeit Kennis?” en “De drie werelden van Popper”.


De andere filosofen die ik hier noem trakteerde ik nog niet op zo’n uitgebreide bespreking. Maar het is interessant om de ideeën van Popper en Laudan eens te vergelijken met de uitkomsten van de empirische studies van de werking van wetenschap zoals ik die in “Lableven”, “De zwarte dozen van Latour” en “Big Science, Little Science” besprak.

Computerbesluit

Is het wel slim om computers overal over mee te laten denken? 

Ik stel de vraag natuurlijk omdat artificiele intelligentie (A.I.) een enorme hype is. Meestal gaan hypes ongemerkt weer voorbij, maar met A.I. zou dat wel eens anders kunnen zijn. We delegeren steeds meer beslissingen aan computers: A.I helpt doctoren met het stellen van diagnoses, rechters met het vaststellen van de strafmaat, banken met het maken van beslissingen over leningen en verzekeringen. Die denkondersteuning dient doelen uit het boekje van bedrijfsconsultants: we gebruiken slimme technologie om een kwaliteitsimpuls te geven en een efficiëntieslag te maken – en meer van dat soort dingen. Ik geloof ook wel dat dat werkt. Vaak zal het lukken om beslissingen met A.I. gemakkelijker te maken.


De vraag is alleen wel hoe het allemaal optelt. In een samenleving zijn beslissingen nogal belangrijke dingen. Ons bestaan hangt van beslissingen aan elkaar. Is het verstandig om die vervolgens één voor één, met de beste intenties, uit te besteden aan een computer? 


We hebben natuurlijk wel eerder technologie ontworpen om ons denken te ondersteunen. Als we even met zevenmijlslaarzen door de porseleinkast van de geschiedenis stampen, dan speelde de vraag of het verstandig was om het denken aan technologie uit te besteden al wel vaker. We vroegen het ons ook al af bij de uitvinding van de getallen, het schrift, de rekenliniaal, telecommunicatie, de rekenmachine, de computer en het internet. Al deze technologieën hebben de samenleving ingrijpend veranderd, maar maar weinig mensen zullen zeggen dat het achteraf gezien onverstandig was om ze in gebruik te nemen. Er is dus op zichzelf niets tegen brein-ondersteunende technologie. Waarom zou het voor A.I. anders zijn?


Één belangrijk verschil zit hem in de manier waarop A.I. beslissingen neemt. Zij doet dat door te leren van menselijke beslissingen. Het Amerikaanse bedrijf Amazon gebruikte A.I om ze te helpen sollicitanten te selecteren. Op basis van gegevens van mensen die eerder bij het bedrijf solliciteerden, berekende een computer hoe kansrijk het was dat een nieuwe sollicitant zou worden aangenomen. Er ontstond een relletje toen dat selectie algoritme een sterke voorkeur bleek te hebben voor mannelijke kandidaten. Het algoritme had allerlei dingen uit het menselijke beslissingsproces overgenomen, inclusief het seksisme dat binnen dit bedrijf gangbaar was.


Het verhaal leert ons dat A.I. conservatieve technologie is. Het is niet toevallig zo dat het Amazon algoritme het seksisme van de medewerkers reproduceerde, het is in de regel zo dat deze technologie de manier waarop beslissingen in het verleden genomen zijn, herhaalt. Dat is het hele idee. A.I. leert van de beslissingen van het verleden om de beslissingen van nu te kunnen ondersteunen. Deze verknoping van de technologie aan het menselijk handelen is wezenlijk anders dan andere technologieën in het rijtje erboven. Rekenmachines zijn als technologie veel neutraler. Waar de rekenmachine denkkracht vrij kan maken om nieuwe ideeën te bedenken, bindt A.I. ons impliciet aan het denken van gisteren. 


Het voorbeeld van Amazon laat ook meteen zien waarom er de laatste tijd zoveel over responsible A.I. (verantwoordelijke A.I.) gesproken wordt. Blijkbaar is een gebrek aan verantwoordelijkheid een probleem bij de inzet van A.I. dat nog opgelost moet worden. Het is ook niet zo vreemd om dit te bedenken. Als mensen besluiten nemen kunnen ze ter verantwoording geroepen worden, maar bij een algoritme kan dat niet. Wie is er verantwoordelijk als een zelfrijdende auto een ongeluk veroorzaakt? De bestuurder deed niets, de fabrikant kon niet weten dat deze situatie zich voor zou doen. Het is een algemeen probleem bij de inzet van A.I. Naarmate beslissingen meer op basis van A.I. genomen worden wordt het moeilijker verantwoording af te leggen over die beslissingen.


Kortom: hoe meer we het beslissen aan technologie overlaten hoe meer we het inruilen voor hoe het nu eenmaal gaat en wat nu eenmaal het beste is. Vaak is dat een goed idee: we winnen er tijd mee die we beter kunnen gebruiken en de kwaliteit van sommige beslissingen die met A.I. genomen zijn, is aantoonbaar hoger dan de menselijke beslissingen die er door vervangen worden. Maar die winst kent ook een prijs die we niet altijd in het oog hebben. 

Eigenlijk kun je zeggen dat het vergemakkelijken van beslissingen het vertrouwen erin ondergraaft. Het automatiseren van besluitvorming holt de verantwoordelijkheid van ons handelen uit. Hoe meer we ons doen en laten verweven in ingewikkelde systemen, hoe lastiger het wordt om de vinger op de zere plek te leggen als het eens mis gaat en hoe moeilijker het wordt om iets te veranderen. Je hoeft alleen maar naar het systeemfalen in de toeslagenaffaire te kijken om te zien hoe desastreus dat kan zijn. 


Dus nee, computers moeten niet overal over meebeslissen. We zullen soms een trager, duurder of slechter besluit moeten accepteren, simpelweg om iemand te hebben om mee na te kunnen gaan hoe het ooit genomen is.


Meer lezen?
Ik schreef al eens kritisch over A.I. in de rechtszaal in A Piori en in de criminaliteitsbestrijding in Glazen Bol. De analyse in dit blogje volgt een logica die gangbaar is in de media-ecologie. Dat dit is niet zonder haken en ogen, beschreef ik uitgebreid in media.