Helix

Ik kan me weinig onderwerpen voor de geest halen waar vormonderzoek zoveel impact had dan bij het onderzoek naar de structuur van het DNA. De ontdekking van James Watson, Francis Crick, Maurice Wilkins en Rosalind Franklin in 1953, vormde een belangrijke schakel in de bewijsketen van de evolutietheorie, is de eerste grote mijlpaal in het vakgebied van de microbiologie en veranderde het onderzoek van de erfelijkheidsleer definitief.

Dat is allemaal mooi, maar het allermooiste aan deze ontdekking is misschien dat er een heel smakelijk boekje over geschreven is door één van de onderzoekers. James Watson gaf in ‘The Double Helix’ een kijkje achter de schermen en liet zien hoe de ontdekking in zijn werk ging. Althans zijn versie ervan, want de bijdrage van de andere onderzoekers – en met name die van Rosalind Franklin – worden als bijzaak weggezet. Nog mooier dan het boekje zelf is dan is misschien de controverse die er over ‘The Double Helix’ ontstond.

De ontdekking zelf hing ook van toeval en intriges aan elkaar. Dat begint al met het onderwerp. Het lag op dat moment helemaal niet voor de hand om de structuur van DNA te gaan onderzoeken. Begin jaren 50 was het nog onzeker of DNA wel een rol speelde in erfelijkheid. Onderzoekers namen aan dat erfelijke informatie in de cel moest worden vastgelegd en ook wel dat elke cel deze informatie moest bevatten. Maar er zijn allerlei eiwitten in de cel en de informatie zou best eens verdeeld kunnen zijn over verschillende eiwitten. Dit was eigenlijk ook de heersende visie.

Dat de vier onderzoekers zich op DNA gingen toeleggen had te maken met experimenten aan bacteriën in de jaren 40 die suggereerden dat DNA wel eens een grote rol zou kunnen spelen bij de erfelijkheid. Maar het was zeker niet zo dat men al dacht dat DNA de enige drager van erfelijk materiaal zou zijn en het was ook niet duidelijk dat het blootleggen van de structuur van het molecuul zou kunnen helpen dit te aannemelijk te maken.

Daarnaast was het iets dat moeilijk te achterhalen was. De techniek om de structuur van moleculen bloot te legggen stond nog in de kinderschoenen. Men gebruikte daar Röntgenstraling voor, maar dit soort straling kon niet door lenzen worden afgebogen, waardoor er niet zoiets bestond als een röntgenmicroscoop. Wat wel kon was iets met Röntgenstraling bestralen en dan kijken hoe de straling afboog. Afhankelijk van de buigingspatronen kon je de aspecten van de moleculaire structuur ‘ herleiden. Het was een zeer pittige experimentele techniek omdat het materiaal wat bestraald werd heel goed geprepareerd moest zijn en omdat bij te complexe materialen er niets meer te herleiden viel omdat de buigingspatronen te ingewikkeld waren. De bijdrage van Rosalind Franklin in het onderzoek is geweest om deze techniek te perfectioneren en toe te passen op zoiets complex als het DNA.

Maar in ‘The Double Helix’ gaat James Watson eigenlijk niet in op dit experimentele werk. Het boekje leest eerder als een schelmenroman. Hoofdpersoon James Watson is een 24 jarige onderzoeker, vrij lui, arrogant en egocentrisch, maar wel hongerig om een grote ontdekking te doen. Hij is niet het soort onderzoeker dat zich bezighoudt met details en stukje bij beetje een techniek ontwikkelt om precieze metingen te doen, maar meer iemand die ideeën sprokkelt en dan op basis van gissingen en intuïties probeert tot dingen te komen die natuurlijk, wel een beetje belangrijk en baanbrekend moeten zijn want anders telt het niet. Francis Crick is hierin zijn partner in crime, maar ook wel zijn geweten – iemand met meer senioriteit, die de kritische vragen stelt.

Het balletje gaat rollen als Watson een presentatie ziet van Linus Pauling van een onderzoek naar een ander biologisch molecuul. Het heeft toevallig ook de vorm van een helix, maar dat is niet wat het meeste indruk maakt. De onderzoeker is achter de structuur gekomen door op basis van de Röntgenbeelden een model te maken van het molecuul. Ongeveer zoals je dat vroeger bij scheikunde gedaan zal hebben door bolletjes die atomen moesten voorstellen met stokjes te verbinden. Dat spreekt Watson aan: het moet voor hem op basis van wat er van DNA bekend is toch ook mogelijk zijn een model van DNA te maken en misschien levert dat dan wel iets interessants op!

Dus gaan Watson en Crick aan de slag met hun moleculaire Lego, maar ze hebben er weinig succes mee.
Er is simpelweg te weinig van DNA bekend om zo’n structuur meteen te kunnen bouwen en met behulp van de Röntgentechnieken van Wilkins en Franklin kunnen ze wel iets meer te weten te komen, maar de relaties zijn niet bepaald warm. Daarbij hebben ze andere wetenschapsopvattingen: Wilkins en Franklin willen eerst de data laten spreken en Watson en Crick en speculeren er op los. Wat ook niet helpt is dat Watson en Crick geen steun krijgen voor hun werk in hun eigen lab: men ziet weinig in het onderwerp en ze boeken te weinig progressie.

Toch sprokkelt Watson stukje bij beetje de elementen bij elkaar die hij nodig heeft. Welke moleculen aan de binnenkant zitten en welke aan de buitenkant; het gegeven dat de aminozuren waarmee de dwarsverbindingen in DNA gemaakt worden in gelijke hoeveelheden voorkomen; het feit dat ook DNA een helixstructuur heeft en welke afstand er tussen de verschillende ringen moet zitten. Het meeste hiervan haalt hij uit foto’s die Franklin genomen heeft, maar die hij door de grote antipathie tussen de twee alleen indirect weet te verkrijgen. Het bouwwerk dat ze uiteindelijk maken is nog altijd een gok, maar het is een erg mooie oplossing, hetgeen voor Watson en Crick reden is aan te nemen dat het wel waar moet zijn.

Waarom is die structuur zo van belang? Het is zeker een mooie structuur die mooi dat die nu als symbool voor erfelijkheid dient, maar die culturele betekenis zal de natuur natuurlijk weer worst wezen. Dus wat wel?

Watson en Crick drukken het in hun artikel als volgt uit.

“It has not escaped our notice that the specific pairing we have postulated immediately suggests a possible copying mechanism for the genetic material.”

De ‘ontdekking’ die in de structuur omsloten is, is dat het laat zien hoe je een precieze kopie kan maken van een gen. De dwarsverbanden in de dubbele helix kunnen uit verschillende aminozuren bestaan, maar er zijn wel vaste paren van aminozuren. Bij celdeling kan het molecuul dus doormidden gesneden worden waarna de 2 helften aangevuld kunnen worden met nieuw materiaal. Door de vaste paring kan dat maar op één manier, waardoor de kopie precies hetzelfde moet zij als het origineel.

Het was destijds een kernprobleem hoe genetisch materiaal zo goed intact kon blijven als het bij elke celdeling opnieuw gekopieerd moet worden. De structuur van Watson en Crick loste dat op. De consequentie van dat inzicht is dat de genetische informatie omsloten zit in de aminozuren die de bruggen vormen. Elke brug vormt dan een letter die exact overgeschreven wordt bij deling. Dit geeft op haar beurt weer een verklaring voor de diversiteit van levensvormen die allemaal DNA als erfelijk materiaal hebben. Er kan immers op deze manier heel verschillende informatie opgeslagen worden in DNA (bijvoorbeeld voor verschillende dieren), die toch exact behouden blijft bij elk kopie. Samen leiden deze aspecten van de structuur tot de conclusie dat DNA de drager van het genetische materiaal van levensvormen kan zijn.

‘The Double Helix’ laat zien hoeveel gokwerk er nodig was om tot deze structuur te komen, en hoe dun het bewijs voor deze structuur bij publicatie was. Laat staan voor de verdergaande conclusies die we er nu makkelijk aan kunnen verbinden. Het boekje verkondigd ook Watsons visie dat wetenschap in de eerste plaats om ideeën gaat en pas in de tweede plaats om experimenteel werk. En voor de oplettende lezer laat het zien hoe veel dat wringt. De waardeloze samenwerking tussen Watson en Franklin wordt door Watson bijvoorbeeld breed uitgemeten, maar de schuld wordt natuurlijk bij het karakter van Franklin gelegd en het feit dat ze een vrouw is. We vinden geen wroeging over dat Watson en Crick haar metingen ‘leenden’ zonder daar credits voor de ontdekking tegenover te stellen, terwijl het evident is dat ze zonder haar metingen nergens kwamen.

Dit is ook het mooie van het boekje. Het gebruikt een van de belangrijkste ontdekkingen uit de geschiedenis om de slechte kanten van de wetenschap te belichten. Het gaat niet bepaald over alle waarborgen van zorgvuldigheid die je aan het wetenschappelijk bedrijf mag vragen. Het gaat om het spel en het sociale proces met al haar intriges, die ook een rol spelen binnen dat systeem.

Dat brengt Watson veel bravoure, waar je kritisch op kan zijn. Hij heeft immers een voorbeeldfunctie. Maar ik zie het meer als een karakterrrek van Watson. De onderzoeker die met Lego de structuur van DNA hielp ontdekken is dezelfde als de onderzoeker die schaamteloos schreef over de rafelrandjes van die ontdekking. Watson was steeds iemand die zich weinig aantrok van hoe dingen horen. Ik vind het moeilijk dat niet charmant te vinden.

Wel heb je je als lezer de plicht om je ook te verdiepen in de perspectieven van de andere spelers. Bijvoorbeeld door ‘Rosalind Franklin and DNA’ van Anne Sayre te lezen. Dit boekje belicht de ontdekking vanuit het perspectief van een persoon die een voorbeeldiger wetenschapper was – en als je het mij vraagt degene die, meer nog dan Watson, aanspraak kan maken op de titel ontdekker van de structuur van het DNA.

Meer lezen?

Ik schreef eerder over evolutietheorie in evolutiesnelheid en over gedachtenexperimenten als een manier om de wetenschap verder te brengen. Ik schreef over wetenschapssociologie in Lableven en De zwarte dozen van Latour.

Voor dit blogje maakte ik gebruik van The Double Helixs van James Watson en Rosalind Franklin and DNA van Anne Sayre. De quote komt direct uit het oorspronkelijke artikel van Watson en Crick.

Het onbegrijpelijke brein

The Idea of the Brain van Matthew Cobb geeft lezers een inkijkje in waar de neurowetenschap vandaan komt en waar ze staat. Je leert ervan over hoe het brein werkt en over hoe de wetenschap werkt. Het is die dubbele laag die het zo’n boeiend boek maakt.

Cobb is een nuchtere wetenschapshistoricus. Het zou gemakkelijk genoeg geweest zijn om te laten zien dat ideeën die we nu natuurlijk vinden, zoals specialisatie in het brein, al voorkwamen bij de oude Grieken of Arabieren en dat de voortschrijdende wetenschap steeds meer bewijs gevonden heeft voor die ideeën. Maar Cobb kiest ervoor om steeds te laten zien hoe een idee over het brein ontstond, welke vruchten het afwierp en hoe eigenlijk steeds ook het spoor weer doodliep. Dat doet hij voor ideeën die we nu absurd vinden, zoals dat het brein in het hart zit, maar ook voor ideeën die we nu voor waar aannemen zoals evolutie.

Daarmee laat hij zien dat de wetenschap niet vooruitgaat via een serie briljante ideeën en ontdekkingen, maar dat er evengoed, of zelfs vooral, toevallige ontdekkingen, verwarring en fouten nodig zijn om verder te komen. Cogg beschrijft de ideeën uit het verleden niet als stappen op weg naar ons huidige begrip, maar zoals ze in die tijd gebruikt werden. Min of meer volledige theorieën in al hun complexiteit en met de bijbehorende onduidelijkheden. Dat geeft, mits je als lezer de neiging kan onderdrukken de lijntjes naar de toekomst zelf te leggen een eerlijk beeld van de ontwikkeling van de wetenschap.

Door het boek heen valt steeds op hoe belangrijk technologie is geweest om het brein te begrijpen. Technologie wordt gebruikt om inzichtelijk te maken hoe het brein zou kunnen werken; het meest algemeen in de vorm van ‘het brein als een machine’, maar eigenlijk heeft in de loop der tijd heeft elke opwindende nieuwe technologie die rol vervult. Technologie wordt gebruikt als metafoor voor het brein, maar de omgekeerde richting is ook aanwezig. Het brein werd gezien als een Telegraaf, maar Telegraaf lijnen werden gezien in termen van zenuwactiviteit. Daarmee is het begrip van het brein dus sterk cultureel verankert.

Wat ook opvalt is hoe weerbarstig het brein is als het gaat om het verzamelen van empirisch bewijs over haar werking. Dat gold voor de Aritsotelianen die hun kennis moesten vergaren door breinen van verschillende dieren te verzamelen, het gold voor de wetenschappers die stroomstootjes gingen toedienen aan het brein van zieke patiënten, maar het geld nog steeds voor de hedendaagse neurowetenschappers. Zij komen met hun dure scanners niet verder dan te laten zien welke stukjes, met elk tientallen miljoenen cellen van het brein, een beetje actiever zijn bij het uitvoeren van een bepaalde taak.

Het lukt ook maar niet om het goede niveau van analyse te vinden. Het lijkt er op dat het brein op verschillende niveaus van organisatie op een andere manier begrepen moet worden en dat die niveaus zich niet één op één in elkaar laten vertalen. Enkele cellen werken wezenlijk anders dan groepen cellen. Op sommige niveaus is het brein gespecialiseerd en gelokaliseerd, op andere niveaus is het gedistribueerd.

Een mogelijkheid om het gedrag van groepen cellen te begrijpen is het terug te brengen naar eenvoudigere netwerken en dan op te schalen. Onderzoek aan fruitvliegjes en zebravissen kan ons misschien meer leren over het brein, dan de beste fMRI scanners. Genetische manipulatie kan daarbij mogelijk helpen. Het maakt het mogelijk systematisch te experimenteren met hoe het gedrag van deze beesten beïnvloed wordt door kleine aanpassingen aan het brein.

Maar of we daarmee wél verder komen is nog steeds de vraag. We zullen ook nieuwe ideeën moeten ontwikkelen: nieuwe metaforen en concepten om het brein te begrijpen. Want Cobb laat zien dat de moderne breinwetenschap, met al haar empirisch geweld en technisch vernuft: de wetenschap die valse herinneringen in dieren kan implanteren en mensen in staat kan stellen computers te besturen met hun gedachten, er toch maar beperkt in slaagt voortgang te boeken in het daadwerkelijke begrip van de werking van het brein als geheel.

Deze kwestie wordt ook door breinwetenschappers zelf opgeroepen. Eric Jonas en Konrad Paul Koning deden een poging om de technieken die neurowetenschappers gebruiken op verschillende manieren toe te passen op de MOS 6507 processor. De MOS 6507 is de chip die in de jaren 70 in computers zat en spelletjes als Donkey Kong en Space Invaders mogelijk maakte. Het is een relatief eenvoudig apparaat waarvan de werking volledig bekend is.

Jonas en Koning brachten de structuur in kaart, schakelden sommige delen uit en deden allerlei andere dingen die neurowetenschappers plachten te doen. Ze slaagden er echter niet in te achterhalen hoe informatie in die chip verwerkt werd. Dit mislukte jammerlijk. Ze concludeerden dat de technieken van de neuroscience onvoldoende geschikt waren om het noodzakelijke begrip van dit intelligente apparaat op te bouwen.

Kunnen we, vraagt Cobb, het brein leren begrijpen met de technieken die we nu tot onze beschikking hebben? En hebben we meer techniek of meer eerder verbeelding nodig om dat te doen? Cobb neigt naar het laatste, maar misschien is de vraag die het boek nog het meest oproept wat we eigenlijk bedoelen met het begrijpen van het brein.

Ooit waren we best tevreden met het idee van het brein als een computer, maar nu willen we echt meer. Ooit dachten we dat het brein de complexiteit van een stoommachine zou hebben, nu weten we echt wel beter. Maar als we Cobb’s geschiedenis serieus nemen moeten we ook meenemen dat de invulling van begrijpen mee-veranderd is met de wetenschap. Elk hoofdstuk, elke metafoor, elk kernidee, kwam met begrip maar ook met veranderde en ook met gegroeide behoefte om het brein in detail te begrijpen. Dat zal in de toekomst niet anders zijn. We blijven op reis.

Meer lezen?

Dit is de slotpost van een serie blogjes over breinwetenschap aan de hand van het boek van Matthew Cobb. De serie start met een introductie in het blogje ‘brein quintologie‘, om daarna in op zoek naar het brein in te gaan op de oude breinwetenschappen; in informatieverwerker op de toepassing van het idee van informatie en communicatie op het brein; en in gedachtenmeting op de moderne breinwetenschap.

Ik schreef al eerder over het brein. Bijvoorbeeld in ‘wil‘ waar ik inga op de wetenschappelijke discussie rondom het bewustzijn, en in ‘geheugenmachine‘ waar ik inga op de werking van het geheugen.

Ik schreef ook al eerder over wetenschapsgeschiedenis. Bijvoorbeeld in de wetenschapsgeschiedenis van Rens Bod en over de wisselwerking tussen informatiewetenschappen en technologie en in ‘reading James Gleick’s the information’. Het schrijven van Cobb doet ook sterk denken aan de wetenschapsfilosofie van Larry Laudan.

Deze blogjes zijn natuurlijk vooral bedoeld om jullie lekker te maken om The Idea of the Brain zelf te lezen.

Gedachtenmeting

Technologieontwikkeling heeft ons denken over het brein beïnvloed doordat we het brein proberen te begrijpen vanuit de werking van die machines: zoals het idee van het brein als een telefooncentrale of het brein als een computer.

Maar dankzij de technologie kunnen we ook steeds slimmere metingen aan het brein doen. Toegegeven: ook de leerlingen van Aristoteles deden aan empirische breinwetenschap – door het uiterlijk van het brein van verschillend dieren te vergelijken. Maar de moderne technologie stelt ons in staat om in levende breinen activiteit te meten, om in te grijpen in het denken met elektronica en om precieze het brein na te bootsen in computermodellen. Dat is machtig gereedschap.

Hoe ver brengt al dit technologische geweld ons eigenlijk bij het begrijpen van het brein? De moderne wetenschap is versnippert in allerlei specialismen en dit geld ook voor het onderzoek aan het brein. Laten we er eens een aantal van bekijken.

Geheugen
Ik heb het eerder in deze serie al gehad over de lokalisatie gedachte : dat bepaalde taken op een bepaalde plek in het brein worden uitgevoerd. Maar we kunnen dit idee natuurlijk toepassen op het geheugen. Als ik aan mijn oma denk, heb ik daar dan een specifieke cel of een klein groepje cellen bij nodig?

Het idee van lokalisatie van het geheugen heeft een grote impuls gehad door de experimenten van neurochirurg Wilder Penfield. Hij liet zien dat als het brein op specifieke plekken gestimuleerd wordt mensen zeer specifieke, levendige herinneringen rapporteren – alsof ze het op dat moment meemaakten. De suggestie dat die herinnering op die specifieke plek is opgeslagen is dan ook sterk. Ook de verwerking van zintuiglijke informatie was volgens Penfield gelokaliseerd hetgeen resulteerde in het beroemde homunculus plaatje: waar de hersenen zijn afgebeeld met specifieke delen van het lijf waar ze aan gekoppeld zijn.

Toch wierpen deze bevindingen niet meteen het idee dat herinneringen juist gedistribueerd werden opgeslagen tegen. Een probleem was dat de herinneringen die Penfield kon oproepen heel anders zijn dan normale herinneringen. Ze waren heel levendig en vol detail, terwijl ‘normale’ herinneringen juist vaag zijn en veel met veel raadwerk aan elkaar gehouden worden. Bovendien was zijn stimulatie vrij grofmazig waardoor het nog altijd de vraag is wat hij precies stimuleerde. Een andere vraag was hoe een herinnering precies in een hersencel opgeslagen kan zijn.

Deze laatste vraag werd beantwoord door Donald Hebb. Hij stelde dat het brein leert door het netwerk van neuronen aan te passen. Erik Kandel toonde later aan de hand van zeeslakken aan dat Hebb’s hypothese correct was. Geheugen werkt via het versterken en verzwakken van connecties in het brein. Dit netwerkidee sluit niet uit dat specifieke cellen aan specifieke herinneringen gekoppeld zijn, maar hoe ‘lokaal’ of ‘geïsoleerd’ die netwerken zijn is een open vraag. We weten simpelweg niet hoeveel cellen samen een herinnering vangen, of die dicht bij elkaar zitten – en in hoeveel herinneringen elke cel een rol speelt.

Het vermogen om nieuwe herinneringen op te slaan kan kapot gaan. De patiënt Henry Molaison werd bijvoorbeeld voor epilepsie behandeld met een breinoperatie waarin delen van het brein worden verwijderd (lobotomie) – een behandeling die wel op schizofrene patiënten werd uitgevoerd.

Daarna kom Henry geen nieuwe herinneringen meer opslaan. Oude herinneringen waren nog prima en werkte zoals altijd, maar nieuwe gebeurtenissen sloeg hij gewoon niet op. Henry is uitgebreid onderzocht en daardoor hebben we veel geleerd over het brein, maar een van de meest duidelijke dingen is dat er een specifiek hersengebied is: de hypocampus, waar de opslag van herinneringen geregeld word.

Inmiddels weten we zoveel van de biochemische kant van leren, dat we valse herinneringen in muizen kunnen inplanten met elektronica. Bepaalde cellen waarvan we weten dat ze betrokken zijn bij het herkennen van een bepaalde geur worden gestimuleerd samen met cellen die met beloning te maken hebben. Vervolgens herkennen muizen die geur, ook al hebben ze hem nooit eerder in het lab geroken.

Het onderzoek van de neurologie van het geheugen is dus wat paradoxaal. We weten erg veel en we begrijpen het brein zelfs zo goed dat we het kunnen controleren, terwijl we tegelijkertijd nog altijd geen antwoorden op basale vragen hebben over hoe herkenningen worden opgeslagen.

Cirquits
Aangezien we weten dat herinneringen in netwerken van cellen worden opgeslagen, is het dan niet mogelijk om het brein te leren kennen door het simpelweg in kaart te brengen? Dat wil zeggen door vast te stellen welke neuronen met welke verbonden zijn?

Wetenschappers hebben dit op verschillende manieren proberen te doen. Één manier is om het gedrag van individuele neuronen bestuderen in het lab en in het brein. Dit onderzoek is begonnen met katten. Onderzoekers verdoofden een kat, maten de activiteit van één van de hersencellen als gevolg van lichtinval in het oog. De cel bleek alleen gevoelig voor een lijn die verticaal bewoog. Andere vormen en bewegingen hadden geen effect. Het idee was geboren dat cellen hoogst gespecialiseerd zijn.

Mensen zijn ook op deze manier onderzocht. Ook daar bleek specialisatie. Er bleken bijvoorbeeld cellen bij proefpersonen die reageerden op afbeeldingen Jennifer Aston en niet op andere gezichten of beelden.

Toch is de conclusie dat er zoiets bestaat als een Jennifer-Aston-cel niet helemaal terecht. De cel is immers verbonden in een netwerk. De ‘code’ voor de actrice kan verdeeld zijn over heel veel cellen waar deze cel toevallig een deel van uitmaakt. En de cel kan bijdragen aan andere codes waar we geen weet van hebben omdat die niet getest zijn.

Door onze focus op die ene cel verliezen we het totaal uit het oog – en daardoor weten we eigenlijk nog steeds vrij weinig. De indruk die wel ontstaat is dat er een hiërarchie bestaat in het brein, waarbij sommige cellen gevoelig zijn voor veel verschillende stimuli en anderen die veel meer gespecialiseerd zijn, waarbij de gespecialiseerde cellen veel bijdragen aan de herkenning van een bepaald concept. Maar wat die ‘topcel’ dan precies codeert is alsnog een grote vraag.

Als je niet teveel wil inzoomen op een enkele cel kan je als wetenschapper ook de bedrading als geheel onderzoeken: welke cellen zijn precies met elkaar verbonden? Dit wordt het connectome genoemd. Dit is alleen voor de meest eenvoudige dieren te doen. Een enkele hersencel kan verbindingen hebben met tientallen andere cellen en dat kan wel 30m bedrading betekenen.

In de jaren tachtig lukte het voor een wormpje: C.elegans. Het wormpje heeft 900 cellen, waaronder 300 neuronen. Seymour Benner kreeg er de Nobelprijs voor. Inmiddels wordt aan een diagram van de fruitvlieg larve gewerkt. Daarmee lijkt iets wat ook maar in de verste verte lijkt op de complexiteit van een zoogdierenbrein nog ver weg.

En dan is de vraag wat die bedrading laat zien. Onderzoek liet zien dat bij verantwoordelijkheden op verschillende manieren in het netwerk terecht kunnen komen. Met andere woorden voor zover we al een eenduidig antwoord uit te halen is over wat de fysieke bedrading is, dan kan hersenactiviteit nog altijd op verschillende manieren door die bedrading ontspinnen. Cellen kunnen verschillende rollen aannemen. Dat roept de vraag op hoe dit breinkaart project ooit inzichten gaat opleveren waar we direct mee doorkijken. Op zijn minst zullen we moeten modelleren wat er op die infrastructuur gebeurd.

Computers
Daar komen computers weer van pas het brein kan softwarematig gesimuleerd worden. Vroege pogingen lijken op wat nu het neurale netwerk genoemd wordt. Er is een input en een output en stukjes software daar tussen in (verborgen lagen) die signalen bewerken en doorgeven aan andere cellen.

In principe is dit een krachtig model van hoe het brein werkt en het heeft ons lerende en patroonherkennede computers gebracht, maar weinig inzicht in hoe het brein werkt. Op zich kan je monitoren hoe de software veranderd op basis van een leertaak, maar dat heeft zo weinig inzicht gebracht dat van AI gezegd wordt dat het een soort alchemie is. Soms werkt het goed, maar soms ook niet en niemand lijkt te kunnen begrijpen waarom dan.

Een indrukwekkende loot aan deze stam zijn brein-computer interfaces. Via een implantaat bouwen wetenschappers een directe link tussen het brein en een computer. Mensen kunnen zo met hun brein een prothese leren besturen en er zijn ook pogingen protheses voor de zintuigen, zoals de ogen, te maken. Het lijkt het ultieme bewijs dat we het brein zo goed begrijpen dat we het onder controle kunnen krijgen, maar feitelijk zien we hoe twee lerende systemen zich op elkaar aan kunnen passen. Het brein leert de input van de prothese verwerken, de prothese leert patronen in de elektriciteit van het brein te herkennen. Die lerende systemen blijken succesvol samen te kunnen werken en, hoe indrukwekkend dat ook is, het leert ons weinig over de precieze werking van het brein.

Chemie
Tot nu toe hebben we vooral de elektrische kant van het brein besproken, maar het brein is ook een chemische fabriek.

De ontdekking van LSD luide een tijdperk in waarin de chemie van het brein volop in de belangstelling kwam te staan. De werking werd toevallig ontdekt door Albert Hofman in 1943 toen hij het stofje, ontwikkeld als middel om beter te kunnen ademen tot zich nam en tijdens een fietstochtje in een hallucinante trip belande.

Er was wel bekend dat er stoffen waren die je stemming konden beïnvloeden, maar zulke sterke en precieze effecten op het brein waren onbekend. Al snel werden ook andere stoffen ontdekt zoals antidepressiva en lithium. De ontdekking van deze stoffen viel ongeveer samen met de vaststelling dat de overdracht van neuroactiviteit chemisch en dus niet elektrisch van aard is. Het had een enorme impact op de psychiatrie (destijds nog in de ban van psychoanalytica), maar na deze vruchtbare beginperiode liep de vondst van psychoactieve stoffen dood.

Er werden honderden chemische stoffen geïdentificeerd die op verschillende tijdschalen een effect op het brein hebben, waardoor er een nieuwe laag van complexiteit aan ons begrip van het brein werd toegevoegd. Alsof een brein dat puur elektrisch werkt al niet ingewikkeld genoeg was. Helaas begrijpen we nog weinig van de precieze rol van al deze stoffen en is het toedienen van psychoactieve stoffen aan het lichaam een vrij grofmazige methode om het brein mee te behandelen. Daarom – en omdat er al jaren geen goede kandidaten zijn – loopt dit onderzoek een beetje dood.

Lokalisatie
Naast lokalisatie van het geheugen is ook lokalisaties van functie nog altijd een onderwerp van onderzoek. Dit onderzoek nam in de tweede helft van de 20e eeuw een grote vlucht door fMRI. fMRI is een indrukwekkende scanningstechniek die vrij precies kan vaststellen waar er bloed door het brein stroomt. Dit wordt op haar beurt als een indicator van activiteit gezien. Vrij precies is overigens nog altijd zeer grofmazig in relatie tot individuele hersensellen: een gebiedjes van één fMRI pixel bevat 5,5 miljoen neuronen.

fMRI is populair omdat op relatief eenvoudige wijze kan worden aangetoond dat bepaalde hersengebieden actief zijn bij bepaalde taken, waarop een hersengebied voor specifieke emoties, bepaalde soorten beelden en andere stimuli geïdentificeeerd kunnen worden. Het idee achter dit programma is dat we die hersengebieden één voor één in kaart kunnen brengen, waarmee we een basis leggen om ook iets te zeggen over de samenwerking van al die gebiedjes. We kunnen de losse radertjes als het ware later weer in elkaar zetten om te laten zien hoe de machinerie van ons denken werkt.

Het probleem is echter er geen bewijs is dat zulke specialisaties bestaan. Immers dat een bepaald gedeelte actiever is tijdens een bepaalde taak zegt niet zoveel over wat het gebied precies doet en in hoeverre het steun ondervind van andere hersenonderdelen, noch hoe het zou reageren op andere stimuli. Het is vrijwel onmogelijk om op basis van al deze losse experimenten ook maar te begrijpen hoe het hersendeel zelf werkt.

En dan is er nog de vraag of die fMRI metingen zelf wel deugen. Omdat er zoveel statistiek nodig is om tot de beelden te komen is er een risico op ‘vals positieven’: experimenten met een uitkomst zonder dat er iets aan de hand was. Dat dit kan optreden is op spectaculaire wijze aangetoond door onderzoekers die een hersengebied vonden voor het herkennen van emoties in een dode zalm. Ze schreven het artikel over de dode zalm vervolgens precies op zoals onderzoekers die fMRI bij levende mensen toepassen doen, waardoor ze extra pijnlijk duidelijk maakten dat deze wetenschap niet zo sterk is als dat de auteurs zelf geloven.

Ook de interpretatie dat fMRI tenminste heeft laten zien dat lokalisatie de regel en niet de uitzondering is in het functioneren van het brein lijkt niet te kloppen. Veel experimenten laten ook zien dat veel taken in het brein gedistribueerd zijn over het hele brein. Zoals de beroemde spiegelneuronen, die eerst verondersteld werden om met weinig op een bepaalde plek te zitten, maar later toch verdeeld bleken over het hele brein. 11% van de neuronen uit de neocortex blijken spiegelneuronen te zijn. Eigenlijk is de uitkomst van al dit onderzoek dat lokalisatie nooit het hele verhaal vertelt en dat we nog altijd weinig weten van hoe het brein haar netwerken organiseert.

Lokalisatie van functies in netwerken van cellen is nog altijd een plausibele hypothese, maar die netwerken zijn zeker niet altijd ook geconcentreerd in de ruimte. De fMRI heeft dezelfde problemen als de Jennifer-Aston-cel experimenten – en die zijn nog lang niet opgelost.

Bewustzijn
Als we toch aan het meten zijn: wat zou het mooi zijn als we op een fMRI plaatje precies konden zien waar het bewustzijn zit zodat we eindelijk kunnen vaststellen dat, en hoe, het bewustzijn een product is van hersenactiviteit.

Experimenteel is dat niet triviaal. Je moet immers onbewuste hersenactiviteit met bewuste hersenactiviteit vergelijken. Maar iemand een cognitieve taak geven, zoals in fMRI gebruikelijk is werkt hier niet voor omdat dit allemaal ‘bewuste’ taken zijn.

Toch is er wel onderzoek uitgevoerd naar de ‘neurologische correlaten van het bewustzijn’. Men is begonnen met het meten van hersenactiviteit bij het ontwaken. Dat ligt voor de hand omdat we bij het slapen niet bewust zijn en bij het wakker worden wel. Dat onderzoek liep echter dood omdat het signaal te vaag was.

Ander onderzoek richtte zich op de rol van hersenhelften. Dit was mogelijk bij dieren en mensen van wie de hersenhelften operatief gescheiden waren. Dit onderzoek gaf in ieder geval sterk bewijs dat het brein een rol speelt in het bewustzijn. Bij mensen met losgesneden hersenhelften kunnen de beide helften apart van elkaar bestudeerd worden, omdat de visuele input verdeeld is. Het rechteroog is gekoppeld aan de linker hersenhelft en andersom.

De experimenten laten zien dat de twee hersenhelften allebei tekenen van bewustzijn tonen, hoewel dit makkelijker te onderzoeken is voor de linker hersenhelft waar onze taalproductie zit. Beide helften lijken zich echter op geen enkele manier van de ander bewust. De suggestie van deze experimenten is dat als je het brein splitst je ook twee verschillende bewustzijnen krijgt. Hetgeen in ieder geval de suggestie werkt dat breinactiviteit en bewustzijn sterk samenhangen.

Nieuw onderzoek richt zich op het stimuleren van bepaalde delen van het brein. Zo zijn er delen van het brein die door gestimuleerd te worden gevoelens van angst oproepen bij de proefpersonen. Of er een deel van de hersenen bestaat dat angstbewustzijn controleerde is maar zeer de vraag. Dezelfde cellen zijn bij andere processen ook betrokken.

Samengevat is er hooguit zwak empirisch bewijs voor de relatie tussen het brein en het bewustzijn. Genoeg om de stelling te ondersteunen dat het bewustzijn veroorzaakt wordt door het brein, maar niet genoeg om licht te werpen op hoe dat dan in zijn werk gaat. Er zijn in de laatste jaren theorieën ontwikkeld over deze relatie, maar overtuigend empirisch bewijs, of zelfs de definitie van hoe dat bewijs er uit moet zien is er gewoon nog niet.

Tot slot
De moderne wetenschap heeft met haar technologisch vernuft, en focus op wat meetbaar is enorm veel kennis opgeleverd over de biologie van het brein. Maar het wel de vraag of we nu ook beter grip hebben op de werking van het brein. We zien het als een orgaan dat informatie opslaat door netwerken van cellen aan te passen. Maar hoe dat in zijn werk gaat; hoe die netwerken zelf georganiseerd zijn; wat de rol is van al die chemische stoffen die bij het proces betrokken zijn en hoe belangrijk lokalisatie is? Eigenlijk weten we daar nog heel weinig van af.

We hebben er duizenden puzzelstukjes bij gekregen, maar niet zoveel nieuwe ideeën over hoe het brein zou kunnen werken waar al die puzzelstukjes in passen. In die zin kun je je afvragen of we zoveel verder zijn dan een halve eeuw geleden. Er is door het empirische geweld en de explosie van onderzoek in de neurologische breinwetenschap veel hard bewijs, maar weinig ideeën over wat we eigenlijk proberen te bewijzen.

Een kernprobleem lijkt te zijn dat het bewijs op macroniveau: “hoe reageert het totale netwerk op een impuls” slecht te koppelen is aan het mesoniveau “welke activiteit zien daarbij we in de hersenen” en het microniveau “hoe reageert één cel. Het is natuurlijk niet uit te sluiten dat die schakels snel zullen gevonden worden, maar de bottleneck lijkt eerder in ons denken over het brein te zitten dan in de metingen waar in de moderne tijd zo de nadruk op is komen te liggen.

Meer lezen?
Dit blogje is in zijn geheel gebaseerd op ‘The Idea of the Brain’ van Matthew Cobb. Het maakt het derde deel uit van een quintologie, die begon met de post ‘brein quintologie’, verder ging met ‘op zoek naar het brein’ en ‘informatieverwerker’ en nog verder gaat met ‘het onbegrijpelijke brein‘.

Ik schreef al eens over de ontwikkeling van ‘little science naar big science‘, iets dat zich spiegelt in de breinwetenschap, besprak het bewustzijn in ‘wil‘ en het geheugen in geheugenmachine.

Deze blogjes zijn natuurlijk nog het meest bedoeld om jullie lekker te maken om ‘The Idea of the Brain‘ zelf te lezen.

Informatieverwerker

Hebben we het brein altijd al gezien als een ‘soort computer’. Niet bepaald.

Waar we in de industriële revolutie het brein vooral probeerden te begrijpen met de begrippen die we ook voor de toenmalige machines inzetten: krachten, elektriciteit, scheiding van functies, werd in het begin van de 20e eeuw ‘informatie’ pas het dominante begrip.

Met de introductie van de meet- en regeltechniek en later ook de computer, was een generatie machines ontstaan die misschien meer geschikt was om als model voor het brein te dienen dan de stoommachine en haar opvolgers. Dit blogje gaat in op de omslag in ons denken over het brein als gevolg van die ontwikkeling.

Inhibitie (19e eeuw)
Misschien was het een wetenschappelijke ontwikkeling die eind negentiende eeuw gedaan werd die ons voor het eerst op het informatiespoor zette: inhibitie. Inhibitie is het effect dat sommige zenuwen lichaamsfuncties remmen in plaats van stimuleren.

In 1845 lieten Ernst en Eduard Weber zien dat elektrische stimulatie van bepaalde zenuwen de hartsnelheid kon verlagen in plaats van verhogen. Natuurlijk, dit idee van het lichaam als regelsysteem paste wel in de mechanische (pneumatische) metaforen die in die tijd voor het zenuwstelsel opgang vonden, maar het was niet makkelijk te onderzoeken en het was onduidelijk hoe het voor het brein werkte.

De vragen die inhibitie opriepen werden nog versterkt door de ideeën van Hermann von Helmholtz die liet zien dat perceptie geen passief proces was. Het oude idee was dat de wereld een indruk op ons brein achterlaat, maar Helmholz had redenen om een actief proces te veronderstellen. Het argument was dat het brein een 3D wereldbeeld construeert uit twee 2D beelden die door beide ogen worden waargenomen. Dit gebeurt onbewust, maar het betekent wel dat de beelden waar we ons bewust van worden gezien moeten worden als een soort conclusie die aan het bewustzijn gevoerd wordt, eerder dan een directe afdruk van de buitenwereld.

Helmholz’ idee werd ondersteund door de filosofie van Emuanuel Kant die stelde dat perceptie ontstaat doordat het brein haar kenvermogen op de werkelijkheid projecteert. Beide ontdekkingen gaven aanleiding om het brein als een proactief orgaan te zien, eerder dan een passieve waarnemer van de werkelijkheid. De vraag bleef alleen: hoe dan?

Neuronen (19e en 20e eeuw)
Vandaag de dag zouden we ongetwijfeld neuronen bij ons antwoord betrekken. Neuronen zijn de cellen waar ons zenuwstelsel uit is opgebouwd, maar het duurde lang voordat zelfs maar kon worden vastgesteld dat het cellen waren.

Neuronen zijn met elkaar verbonden via fijne vertakkingen die moeilijk waarneembaar zijn. Daardoor kon niet worden vastgesteld of het zenuwstelsel uit losse cellen bestond of dat het eerder een weefsel was dat tussen andere cellen lag. Hier kwam verandering toen Camillo Goglin bij toeval een techniek ontdekte die bij het afdrukken de zenuwcellen een andere kleur gaf dan omliggende cellen. Nu konden zenuwcellen zichtbaar gemaakt worden.

De techniek werd verbeterd door een andere wetenschapper: Ramon Cajal. Maar beide wetenschappers verschilden van mening over wat de prints met zenuwcellen eigenlijk lieten zien: een weefsel of losse cellen. Toen Golgi en Cajal samen de Nobelprijs kregen waren ze het nog altijd oneens. Uiteindelijk werd aangetoond dat zenuwcellen inderdaad als cellen gezien moeten worden en niet als een weefsel.

Dit inzicht bracht de wetenschap wel verder. Met een bouwsteen in handen: de cel, het neuron, kon het zenuwstelsel veel beter onderzocht worden. Langzaam werd duidelijk dat zenuwcellen verschillen in vorm, dat er op verschillende locaties cellen met verschillende vormen bestaan – hetgeen op specialisatie duidt- dat de cellen vertakkingen als ingangen hebben (dendrieten) en dat ze uitgangen hebben (axonen). Dat de overgang tussen twee zenuwcellen een belangrijke rol speelt in hun functioneren (de synaps).

Ook werd duidelijk dat stroom maar in één richting door de hersencel kan. En dat de cellen er in slagen spieren te activeren via een chemisch proces bij de overgang tussen twee cellen. Deze laatste bevinding was de uitkomst van een lang wetenschappelijk dispuut waarin voorstanders van een chemische theorie (soups) lijnrecht tegenover die van een elektrische theorie (sparks) stonden.

Hoe meer we wisten van het brein door deze lijn van onderzoek, hoe meer het misschien begon te dagen dat we nog weinig wisten. De telefooncentrale was lang een metafoor geweest om het brein mee te begrijpen, maar het was duidelijk dat als de neuronen al als schakelaars gezien moesten worden, dat ze wezenlijk anders werkten dan de schakelingen in deze centrales.

Machines (20e eeuw)
Het gebruiken van ideeën uit de techniek om het lichaam te begrijpen is vermoedelijk al zo oud als het denken en we zijn het in deze geschiedenis van het denken over het brein al verschillende malen tegengekomen. Maar in de 20e eeuw draaiden onderzoekers de richting om. Ze gingen pogingen doen om het brein in technische zin na te maken, ze ontwikkelden robots.

De meet- en regeltechniek kwam op en machines die bijvoorbeeld een koers vast konden houden werden daardoor mogelijk. Thomas Ross bouwde een robot die via trial en error zijn weg door een doolhof kon vinden en dit daarna kon herhalen; de meest eenvoudige manier om een leerproces weer te geven. Maar in veel opzichten was Ross’ machine niet meer dan een gimmick. Een wijziging in het doolhof maakte al dat de robot zijn weg niet meer kon vinden.

Het onderzoek naar inhibitie had al aangetoond dat neuronen ook deel uit maken van een meet en regelsysteem. We wisten alleen nog niet hoe. Onderzoek naar de elektrische werking van neuronen gaf antwoorden – en nieuwe vragen.

Elektriciteit gaat heel anders door een neuron dan door een metaaldraad en ook veel langzamer. De eerste biochemische modellen werden voorgesteld om dit te kunnen verklaren. Ook werd ontdekt dat zenuwen alles-of-niets gedrag vertonen. Ze zijn in essentie digitaal. Ze kunnen met een hogere frequentie signalen doorgeven, maar het signaal zelf is altijd even sterk.

Met behulp van, in de eerste wereldoorlog ontdekte radioversterkers, lieten Edgar Adrian en Yngve Zotterman zien dat (1) neuronen digitaal van karakter zijn, (2) ze stoppen met vuren als ze teveel gestimuleerd worden en (3) dat de intensiteit uitgedrukt wordt in frequentie en niet in amplitude. Later paste Adrian deze versterkingstechniek ook op het brein als geheel toe en ontdekte dat het brein in rust in een bepaalde frequentie actief is (we noemen dat nu alfagolven).

Deze ontdekkingen lieten misschien eerder de ‘vreemdheid’ van het zenuwstelsel zien dan dat het antwoorden gaf over de werking, maar het introduceerde, samen met de robotexperimenten, begrippen in het denken over het brein die later heel centraal zouden worden: informatie, code en boodschap.

Controle (20e eeuw).
En toen werd de computer uitvonden: eerst op papier door Alan Turing en John von Neuman, in de jaren 40, en later in de jaren 50 werden ze ook gebouwd. Turing bewees dat de ‘Turing machine’, een vrij eenvoudig denkbeeldig apparaat, werkelijk elke berekening kon uitvoeren die denkbaar was. Kon het niet zo zijn dat het brein hetzelfde in elkaar zat?

In de vroege ontwikkeling van de computer was er veel enthousiasme over deze ideeën. Het vakgebied van de cybernetica kwam er uit voort. Hier stond de symbolische verwerking van signalen en communicatie centraal. Maar de droom dat het op korte termijn mogelijk zou zijn een computer te maken die het menselijk brein zou simuleren spatte al snel uiteen.

De eerste intelligente robots waren ook niet erg intelligent, maar wat erger was, de binaire werking van de computer leek niet op de werking van neuronen. Die zijn in principe ook binair, maar ze verwerken signalen op een analoge manier. Signaalsterkte word uitgedrukt in vuurfrequentie. De logische schakelingen in de computer met en-poorten en of-poorten kunnen helemaal niet met een dergelijk signaal omgaan.

Het idee dat het brein een machine is die symbolen verwerkt is blijven hangen, maar er was echt een model nodig van hoe de biologie die verwerking aanpakt voordat deze lijn van denken iets wezenlijks kon opleveren.

Tot slot
Het zenuwstelsel is te zien als een regelsysteem en als een informatieverwerker. In veel opzichten denken we er nog altijd zo over. En toch hebben de meet- en regeltechniek en computerwetenschappen de belofte dat ze ons zouden helpen om het brein te begrijpen maar zeer gedeeltelijk ingelost.

Op sommige niveaus lijkt ons zenuwstelsel op een regelsysteem, maar de soorten signalen die het gebruikt zijn heel anders dan hoe we dit in de techniek hebben opgelost. Steeds moesten we concluderen dat het brein toch echt anders werkt dan de techniek die we als model gebruikten.

En dan is er nog de vraag hoe het allemaal schaalt. Hoe ontstaan uit al deze signaalverwerking ‘intelligentie’ en ‘bewustzijn’? Het is nog altijd een vraagstuk waar we slecht raad mee weten. Daarom zijn we, zoals ik in mijn volgende blogje laat zien, computers maar gaan inzetten om het brein beter door te meten en te modelleren, in plaats van zelf als een model voor het brein te dienen.

Meer lezen?
Dit blogje is in zijn geheel gebaseerd op ‘The Idea of the Brain’ van Matthew Cobb. Het maakt het derde deel uit van een quintologie, die begon met de post ‘brein quintologie’, verder ging met ‘op zoek naar het brein’ en nog verder gaat met ‘gedachtenmeting‘ en ‘het onbegrijpelijke brein‘.

Ik schreef al eerder over de wisselwerking tussen informatiewetenschappen en technologie en in ‘reading James Gleick’s the information’ en over de ideeën van Emanuel Kant in ‘kenvermogen

Deze blogjes zijn natuurlijk vooral bedoeld om jullie lekker te maken om The Idea of the Brain zelf te lezen.

Brein quintologie

Hoe denken, wij mensen, eigenlijk over onze eigen intelligentie? Matthew Cobb probeert in ‘The Idea of the Brain’ uiteen te zetten hoe het denken over het brein zich door de tijd heen ontwikkeld heeft. Dat is snoepen natuurlijk. Wetenschapsgeschiedenis is altijd al boeiend omdat het ons iets leert over hoe we, met vallen en opstaan, aan kennis komen. Maar als het onderwerp van die geschiedenis dan ook nog het orgaan is waar we die kennis mee opdoen, dan kan een beetje kentheoreticus zijn geluk niet op. Maar Cobb maakt het ons tegelijkertijd helemaal niet makkelijk. 

Cobb laat zeker zien hoeveel we meer te weten gekomen zijn over het brein in de loop van de tijd, maar ook hoeveel vragen nog open liggen – en hoe het maar de vraag is of we met de huidige wetenschappelijke aanpak antwoorden kunnen krijgen op die vragen. ‘The Idea of the Brain’ is het verslag van een onvoltooide reis. Als die reis je interesseert dan moet je het boek zeker bestellen en lezen, maar als je meer geïnteresseerd bent in de bestemming dan is het misschien verstandig om tenminste nog een paar decennia te wachten.

Afijn. Zelf vind ik dat het de reis is die telt en daarom neem ik ook wat meer ruimte dan gebruikelijk om Cobb’s ideeën te bespreken. Ik deel dit blogje op in vijf delen. Na deze overzichtspost ga ik in het tweede blogje in op de oude geschiedenis van het denken over het brein. In de oude geschiedenis moesten we leren dat onze intelligentie geproduceerd wordt door een orgaan, dat het zenuwstelsel en de hersenen dat orgaan vormen en dat het brein helaas niet eenvoudigweg uiteen te rafelen is in radertjes met een specifieke functie die samen onze intelligentie voortbrengen. 

In het derde blogje over dit onderwerp ga ik in op het brein als ‘informatieverwerkende machine’. In de vroege 20e eeuw begonnen we het brein te begrijpen als een orgaan dat signalen verwerkt, en omdat we in dezelfde tijd machines gingen bouwen die dat ook deden, zoals de telegraaf -en later- computers, dachten we dat we een aardig eind waren met het begrijpen ervan. We moesten nog leren dat het brein in een aantal opzichten fundamenteel anders in elkaar zit dan die machines.

In het vierde blogje ga ik in op hoe moderne wetenschappers het brein proberen te begrijpen door detailstudie van de processen die daar plaats vinden. Ze bestuderen hersenactiviteit in zoveel detail als mogelijk, ze proberen het brein te besturen met implantaten en ze proberen hersenprocessen na te bootsen in computers. Al die pogingen zijn op zichzelf erg indrukwekkend, maar Cobb roept wel de vraag op of we met al dat computergestuurd wetenschapsgeweld dichter bij het begrijpen van het brein gekomen zijn.

Tot slot ga ik in het vijfde blogje in op de overkoepelende lessen die we uit het werk van Cobb kunnen trekken: over het brein en over de hersenwetenschap. Over wat we weten en wat we nog mogen ontdekken en over de vraag of al dat gepuzzel wel zin heeft. Tot dan!

Meer lezen?

Dit is het eerste blogje van een serie over ‘The Idea of the Brain’ van Mathew Cobb. In het volgende blogje: op zoek naar het brein ga ik in op de oude breinwetenschappen; in informatieverwerker op de toepassing van het idee van informatie en communicatie op het brein; in gedachtenmeting op de moderne breinwetenschap; en in het ‘onbegrijpelijke brein‘ op de lessen die uit deze wetenschapsgeschiedenis getrokken kunnen worden.

Ik schreef al eens over het bewustzijn in ‘wil‘ en over de werking van het geheugen in ‘geheugenmachine

Ik schreef ook al eerder over wetenschapsgeschiedenis. Bijvoorbeeld in de wetenschapsgeschiedenis van Rens Bod en over de wisselwerking tussen informatiewetenschappen en technologie en in ‘reading James Gleick’s the information’.

Deze blogjes zijn natuurlijk vooral bedoeld om jullie lekker te maken om The Idea of the Brain zelf te lezen.

Wil

Het zou natuurlijk zo kunnen zijn dat ik dit blogje niet schrijf omdat me dat leuk leek en ik ertoe besloten heb, maar dat dat besluit op de een of andere manier voor me genomen is en dat mijn bewustzijn mij om een nog onbekende reden wijsmaakt dat ik dat besluit genomen heb. Of kortweg, dat het idee dat mensen bewuste besluiten nemen een illusie is. 

Dit lijkt een vreselijk omslachtige theorie, maar ze heeft fervente aanhangers, vooral onder neurowetenschappers. Wat bezielt hen toch? Waarom staat het het idee dat we bewuste besluiten kunnen nemen hen zo tegen? 

Het is vast een heel ingewikkelde kwestie, maar twee boosdoeners zijn overduidelijk. De eerste is René Descartes, de Franse filosoof die dacht dat ons denken het bewijs van ons bestaan is. De tweede is  Benjamin Libet die in de jaren 80 een experiment uitvoerde waar we nog steeds van in de war zijn.

Het verhaal van Descartes zal bekend zijn. Hij probeerde aan alles te twijfelen en kwam toen tot de conclusie dat men het lichaam wel, maar de geest niet kan betwijfelen. Dit leidde tot het dualisme. Voor Descartes waren lichaam en geest fundamenteel  verschillende dingen, met een andere substantie. Het lichaam was beperkt, stoffelijk en tijdelijk en de geest was vrij, onstoffelijk een eeuwig. Hoe lichaam en geest elkaar beïnvloedden wist Descartes niet, maar het idee dat de geest voortkomt uit het lichaam ging er bij hem zeker niet in. De geest was leidend, het lichaam hooguit een tijdelijk vehikel. Het dualisme is alweer uit, maar de vraag hoe de subjectieve beleving van het denken, het bewustzijn, samenhangt met de biologische basis ervan, het brein, is nog springlevend. 

In de jaren 80 voerde Benjamin Libet daarom een ingenieus psychologisch experiment uit dat die discussie behoorlijk op scherp zette. Libet vroeg proefpersonen om hun vingers vrijwillig te bewegen en om te rapporteren wanneer ze de aandrang voelden om die beweging uit te voeren, terwijl Libet hun hersenactiviteit mat. Het bleek dat de bijbehorende hersenactiviteit voor die beweging al ruim 200 milliseconde voordat mensen een aandrang voelden om hun vingers te bewegen in de hersenen te zien was. Mensen zetten de beweging al in voordat ze zich er bewust van zijn dat ze dat willen.

Dat is tegenintuïtief. Ons boerenverstand zegt: je moet eerst een besluit nemen voordat je er naar kan handelen. Dus moet je je eerst bewust worden dat je je hand wil bewegen en dan pas de beweging inzetten, niet andersom. Maar die omgekeerde volgorde is wel hetgeen Libet’s data lieten zien.

Zou het zo kunnen zijn dat het bewustzijn niet aan de knoppen van ons handelen zit, maar dat het zo’n beetje met de rest van de hersenen mee hobbelt – en dat het hooguit achteraf gevoel van controle voor ons fabriceert? Het bewustzijn is dan niet een stuur waarmee we richting kunnen geven aan het leven, maar een praatdoos die wat we toch al doen voor ons goedpraat. 

Het is deze naïeve interpretatie van het Libetexperiment die zo populair is onder neurowetenschappers. Dat heeft iets te maken met hun opvattingen over onderzoek. Neurowetenschappers proberen het brein te begrijpen vanuit de harde data die er over verzameld kan worden in EEG’s en fMRI scans. Ze zijn wars van getheoretiseer over het bewustzijn door filosofen, die net als Descartes destijds, met gedachtenexperimenten vast proberen te stellen wat het bewustzijn is. We hoeven allen naar Descartes te kijken om te zien wat voor absurde theorieën daar uit komen.

Daarom kunnen we volgens hen het bewustzijn beter experimenteel bestuderen. Met moderne apparatuur kan je immers de werkelijkheid zelf laten spreken. Voor neurowetenschappers is psychologie is in essentie een natuurwetenschap en ze vinden dat deze ook zo bedreven moeten worden. Dat is zo mooi aan het Libet experiment: het laat met harde data zien dat het bewustzijn niet bestaat.

Het probleem is alleen dat het Libet dat helemaal niet laat zien. Het ironische van de naïeve interpretatie van het Libet-experiment is dat deze in essentie Cartesiaans is. De gedachte is dat er twee verschillende dingen zijn: (1) het bewustzijn en (2) het brein, dat je van elk van die dingen onafhankelijk kan meten wanneer ze actief worden en dat je oorzaak en gevolg kan vastellen door te kijken wie het eerst in beweging komt. Diegene die het laatste komt kan niet de veroorzaker kan zijn van wat de ander doet. 

Dat lijkt een sluitende redenering, maar er deugt iets niet. Want wat hadden we eigenlijk verwacht te zien? Dat mensen zich eerst bewust worden van een besluit en dat er daarna pas hersenactiviteit ontstaat? Waar komt dat bewuste besluit dan vandaan, als het niet uit de hersenen komt? Is het idee echt dat er geen hersenactiviteit nodig is voordat we een besluit nemen en dat ons grijze cellen daarna gaan rennen en vliegen omdat het besluit nu eenmaal moet worden uitgevoerd? 

Het ligt toch veel meer voor de hand dat we in het Libet-experiment verschillende aspecten meten van één proces waarin we een bewust besluit nemen en tot actie over gaan. We kijken niet naar twee dingen maar naar één ding: het nemen van een besluit tot actie. Een bewust besluit gaat natuurlijk gepaard met hersenactiviteit en die heeft tijd nodig om aan te zwellen. Als je dat op verschillende manieren meer is het niet  vreemd dat het ene meetinstrument eerder opmerkt dat er iets gaande is dan het andere instrument. De EEG van Libet was gevoeliger voor de hersenactiviteit die bij het besluit hoorde dan de subjectieve beleving van de proefpersonen en sloeg daarom eerder uit. 

Dat is een weinig opzienbarende uitkomst. Het is niet verbazend dat het nemen van een besluit tijd kost. Het is niet verbazingwekkend dat daar allerlei hersenprocessen bij betrokken zijn. Het is niet verbazingwekkend dat we ons van sommige van die processen bewust zijn en van andere niet. We moeten het brein, het bewustzijn en zeker de vrije wil niet los van elkaar zien.

Het is niet dat het bewustzijn besluiten neemt die het brein vervolgens uitvoert, het brein neemt besluiten en wij zijn ons daarvan bewust. Of misschien nog iets pro-actiever: het bewustzijn neemt deel aan onze besluitvorming. De rol van het bewustzijn is misschien bescheidener dan Descartes voor ogen had en wat we denken te denken heeft misschien minder invloed op ons handelen dan we zouden willen, maar het Libetexperiment laat op geen enkele manier zien dat het bewustzijn een illusie is of dat de vrije wil niet bestaat. 


Wat het experiment wel laat zien is dat je om goede metingen te kunnen doen en die goed te kunnen interpreteren, een goede theorie nodig hebt. Er is te weinig bekend over de werking van het brein om te kunnen weten wat Libet nu precies mat en daardoor kunnen we er ook geen conclusies aan verbinden. Ik heb me er niet genoeg in verdiept, maar dezelfde beperking zou wel eens kunnen gelden voor veel moderner hersenonderzoek waar het idee van het bewustzijn als illusie mee onderbouwt wordt. 

Misschien ergeren de neurowetenschappers zich aan theorieën zoals die van Descartes, maar onderzoekers die de data laten spreken, terwijl ze de theorie verwaarlozen, hebben ons uiteindelijk even weinig te vertellen als filosofen die denken dat twijfel afdoende is om de absolute waarheid te achterhalen. 

Meer lezen?
Ik schreef over het gedachtenexperiment van Descartes in Brein in een vat en over zelfbewustzijn in Poetsvissen, ik schreef ook al eens eerder over Gedachtenexperimenten in het algemeen en over de werking van het brein.

Dit blogje is natuurlijk een heel sterke vereenvoudiging van een complex debat. Een goede beschouwing van het Libet experiment vind je in dit artikel van Jan Verplaetse. Een niet onbelangrijk detail is dat Libet niet hersenactiviteit in het algemeen mat, maar een specifieke hersengolf die het ‘readiness potential’ wordt genoemd. In dit stuk wordt goed uitgelegd wat dat is en wat het naar moderne inzichten wel en niet zou kunnen zeggen over het debat over bewustzijn en vrije wil.

De wetenschapsgeschiedenis van Rens Bod

In zijn boek “Een wereld vol patronen” doet Rens Bod een poging om een totaaloverzicht van de geschiedenis van menselijke kennis te geven. Alle kennis. Niet alleen die sinds de wetenschappelijke revolutie, maar ook van voor de uitvinding van de landbouw. Niet alleen westerse kennis – maar ook die in India, de Arabische wereld en China. Niet alleen de natuur-, maar ook de geesteswetenschappen. Ik weet niet zo snel hoe je een ambitieuzer project kan bedenken.

Ik begon aan “Een wereld vol patronen” omdat ik  de voorganger “De verborgen wetenschappen” prachtig vond. Dat boek verbreedde mijn kennis van de wetenschapsgeschiedenis enorm, omdat ik net zoals de meeste bèta’s vooral geschoold was in de westerse wis- en natuurkunde, sinds de Grieken. Ik had nooit van zoiets als filologie gehoord en het was boeiend om op deze manier ingewijd te worden in de problemen die schriftgeleerden moesten oplossen, de oplossingen die ze vonden en de impact die dat denken vervolgens had op de wetenschappen die ik beter kende.

Ik heb “Een wereld vol patronen” met plezier gelezen, maar het kon me minder bekoren dan “De verborgen wetenschappen”. Dat komt voor een belangrijk deel omdat ik dat boek al gelezen had en de nieuwe verbredingen me minder raakten. Ik zou graag meer weten over hoe kennis in de prehistorie zich ontwikkelde, maar omdat we het met grottekeningen en ingekerfde werktuigen moeten doen valt er per saldo niet zoveel over te zeggen. Het is een groot goed dat Bod de kennis van Arabische, Indiase, Chinese en oude Amerikaanse beschavingen een podium geeft, maar die brede blik zorgt ook dat de afzonderlijke verhalen nog weinig uit de verf komen.

Normatief werkt de brede blik uit het boek prima: dit zijn allemaal dingen die een wetenschapshistoricus in beschouwing zou moeten nemen. Maar de uitwerking al die onderdelen pakt nogal schetsmatig uit, hoe grondig het onderliggende onderzoek ook is. Daar komt nog bij dat Bod, de medische wetenschap uitgezonderd, de engineering disciplines niet meeneemt in zijn overzicht. Dat is een vreemde omissie. Als gebouwen, werktuigen, scheepvaart, aquaducten en stoommachines geen weerslag zijn van systematische kennis, wat dan wel?  Bod slaagt er in de ambitie van een totaalgeschiedenis van menselijke kennis stevig op de kaart te zetten, maar het resultaat  blijft sterk gekleurd door zijn eigen wetenschappelijke achtergrond.

Uiteraard probeert Bod ook duiding te geven aan de ontwikkeling van de menselijke kennis. Om kort te gaan werd de mens zich eerst bewust van patronen: regelmatigheden waarmee losse feiten in verband worden gebracht, zoals de maanstanden, de tonen in gespannen snaren, of de overeenkomsten tussen verschillende bronnen. Later, vanaf de vroege oudheid, zijn mensen daar onderliggende principes bij gaan zoeken: vuistregels, wiskundige begrippen of andersoortige theorieën. De volgende stap was het vinden van herleidingen: regels waarmee principes en patronen met elkaar in verband gebracht kunnen worden, zoals de logica. Daarna werd de focus om het aantal principes terug te brengen en gingen herleidingen een belangrijkere rol spelen. Dit ontaarde in de wetenschappelijke revolutie in de empirische cyclus: in Bod’s visie een  voorbeeld van een patroon in herleidingen.

Om eerlijk te zijn vind ik deze theorie over de ontwikkeling van kennis zonde van het boek. Bod schrijft het volgende over de Indische wetenschapper Panini, die beweerde dat alle taal recursief was:

De Grieken lijken Panini’s werk niet te hebben gekend […] ze zouden Panini zeker hebben gewaardeerd met hun hang naar het ene in het vele. (P98)

Ik vermoed dat de Grieken Bod’s reductie van al het systematische denkwerk uit de gehele mensheid naar een dans van twee soorten begrippen -patronen en principes- om dezelfde reden hadden kunnen waarderen. Hoe krachtig is het als je al die diversiteit, al die denkwijzen, als die subtiele manieren waarop de verschillende wetenschappen elkaar gevoed en beïnvloed hebben terug kan brengen tot een of twee makkelijk te begrijpen begrippen?

Niet zo krachtig als je het mij vraagt. Veel mensen zullen wel het zo zien, maar ik blijk niet erg “Grieks”. Want die twee begrippen zijn maar begrippen. Ik voel met niet verlicht door het idee dat je de grammatica en de afwisseling van dag en nacht allebei als ‘patronen’ kan zien die je vanuit ‘principes’ kan begrijpen. Dat is zó hoog over dat het afleid van die dingen die echt boeien. Het kan toch niet zo zijn dat dit de beste manier is om een zorgvuldige vergelijking  tussen bijvoorbeeld de ontwikkeling van het recht en de ontwikkeling van de natuurwetenschappen in de middeleeuwen te beschrijven? Dat ze zich beiden met principes en patronen bezig hielden is misschien wel waar, maar ook nogal een lege constatering. En dat terwijl Bod juist zo zorgvuldig werk verricht heeft om al die verschillende kennis in kaart te brengen.

De theorie lijkt een poging te zijn om te laten zien dat het menselijke denken een ontwikkeling heeft doorgemaakt en mogelijk dat die is verwetenschappelijkt, en daarmee gaat hij verder dan wetenschapsfilosofen als Popper en Laudan. Die beweren wel dat ze mechanismen voor de groei van kennis kunnen identificeren, maar passen die vervolgens eigenlijk niet toe op de geschiedenis zelf.  Laat staan dat ze er een ontwikkeling in ontwaren. Toch vind ik Bod ook op dit aspect overtuigingskracht missen: er komen veel uitzonderingen voor in het boek en Bod laat het bij beschrijvingen. Een verklaring waarom het denken door de tijd veranderd zou zijn ontbreekt. Interacties tussen de kennis en de context waarin die tot stand komt blijven onderbelicht. Daardoor blijft ook dit ontwikkelingsaspect teveel in het luchtledige hangen.

Kritische noten genoeg dus, maar dit zijn nauwelijks redenen om het boek in de boekhandel te laten liggen. De kracht van het boek zit hem niet in de duiding, het is juist de bloemlezing, de diversiteit die Bod in deze eenvoud probeert te vangen, die het de moeite waard maken. Ik had het liefst gezien dat Bod die diversiteit gewoon lekker vrij had gelaten, maar zo knellend is het patroon-principe-keurslijf nu ook weer niet. Je kunt er gewoon doorheen lezen en genieten van het denken van al die denkers waar je nog nooit van gehoord had die er achter tevoorschijn komt. 

Meer lezen?

Ik schreef over de groei van kennis in Het probleemoplossend vermogen van Larry Laudan, en Groeit kennis? In Anachronismen ging ik in op de moeilijkheid van het achteraf duiden van oude kennisstandaarden. Ik schreef ook al eens over het nut van Geschiedenis in het algemeen.

Er zijn weinig wetenschapshistorici die veel aandacht hebben voor de wisselwerking van de ontwikkeling van kennis en haar toepassing, maar uitzonderingen vormen wel Bruno Latour en ook The Information van James Gleick.

Zowel “De vergeten wetenschappen” en “Een wereld vol patronen” zijn het lezen waard.

Anachronismen

Imre Lakatos, de wetenschapsfilosoof, schijnt gezegd te hebben dat de wetenschapsfilosofie leeg is zonder de wetenschapsgeschiedenis en dat de wetenschapsgeschiedenis blind is zonder de wetenschapsfilosofie

Prachtig. Het zou inderdaad vreemd zijn als filosofen, die theorieën over de wetenschap opstellen, zich niet zouden interesseren voor hoe die wetenschap zich daadwerkelijk voltrokken heeft. Nou ja. Zulke filosofen bestaan wel natuurlijk: Lakatos begon er niet voor niets over. Het is ook lastig om geschiedenis te schrijven als je dat niet vanuit een theoretisch kader doet. Er is veel wetenschapsgeschiedenis. Als je niet specifiek naar iets op zoek bent word het lastig het allemaal te overzien. Hoewel ik me dan weer wel afvraag of de wetenschapshistorici uit de tijd van Lakatos blij waren met de avances van de filosoof. Heel gelukkig is dat huwelijk tussen de filosofie en de geschiedenis toch nooit echt geweest.

Daar zijn goede redenen voor, maar de spelbreker die ik het boeiendst vind is het probleem van de anachronistische kennisstandaarden.

Een anachronisme is iets dat niet in de tijd past. In de middeleeuwen keken mensen niet op hun horloge. In de jaren 90 waren er geen smartphones. In films kan het gebruik van anachronismen heel humoristisch werken. In de films van Monty Python verspreiden historische figuren zoals Koning Arthur en Jezus steeds opvallend moderne denkbeelden. 


Wetenschapsfilosofen die iets willen zeggen over wat kwalitatief hoogstaande kennis is, of die echte van valse wetenschap willen onderscheiden, lopen het risico net zo’n raar figuur te slaan als deze hoofdpersonen. Ze dringen zich niet alleen op aan de historici, maar ook aan de geschiedenis zelf. Er is geen enkel bewijs dat Aristoteles ooit gerandomiseerde dubbelblinde experimenten deed. Maakt dat hem een slechte wetenschapper?


Goed, dat was een flauwe retorische vraag, maar het punt zal duidelijk zijn: in de loop der tijd zijn de standaarden voor wat goede kennis is en voor hoe de wetenschap vooruitgang boekt veranderd. Daarmee is het anachronisme bijna onontkoombaar voor iedereen die iets verstandigs wil zeggen over de wetenschap. Hedendaagse ideeën over wetenschappelijke rationaliteit zeggen weinig over de wetenschap van vroeger en oude ideeën hebben inmiddels hun geldigheid verloren.


Het is ook een waar dilemma, want er zijn niet veel uitwegen te bedenken. Er is de olifant-in-de-porseleinkast benadering van Karl Popper, die beweerde dat de wetenschapsfilosofie normatief is en dat het dus niet gaat over hoe wetenschap is, maar over hoe ze moet zijn. Dat zet de wetenschapsgeschiedenis buitenspel en schoffeert met terugwerkende kracht alle wetenschappers die nog niet van Poppers gouden standaarden op de hoogte waren en zich er niet aan konden houden.


Er is ook de olifant-in-de-porseleinkast benadering van Paul Feierabent, die beweerde dat de wetenschapsgeschiedenis zo grillig is, dat er in het geheel niets te zeggen valt over welke benadering van de wetenschappen werkt en welke niet: anything goes. Daarmee zette hij de wetenschapsfilosofie buitenspel en reduceerde wetenschappers, goed en slecht, tot prutsers die maar wat aanklooien.


De gulden middenweg wordt bewandeld door iemand als Larry Laudan, die beweert dat er algemene principes zijn te geven voor de groei van wetenschap als geheel en tijdspecifieke invullingen van die principes die aan verandering onderhevig zijn. Volgens Laudan hebben wetenschappers altijd gewerkt aan het vergroten van het probleemoplossend vermogen van hun vak, maar verschillende ideeën gehad over hoe dat in te vullen is.


Dat klinkt een stuk eleganter dan de bruuske benadering van Popper en Feierabent, maar je kun je afvragen of het echt een uitweg biedt. Is het echt zoveel vriendelijker om van een tijdspecifieke invullingen van kwaliteit te spreken dan om te zeggen dat alles geoorloofd is? En loopt het algemene principe niet ook het risico anachronistisch te zijn? Probleemoplossend vermogen klinkt alvast heel erg als iets van nu – en niet van alle tijden.

Wat zou het mooi zijn als de filosofen van nu met de wetenschappers van toen in gesprek konden. Ik zou er heel wat voor over hebben om in te kunnen loggen op een Zoom call om een gesprek tussen Laudan en Aristoteles over probleemoplossend vermogen bij te wonen of met Popper over falsificatie. Of nee, als ik dan toch mag dromen: Aristoteles spreekt met Laudan over het probleem van anachronismen in de wetenschapsfilosofie.


Meer lezen?

Ik schreef over de ideeën van Larry Laudan in “Het probleemoplossend vermogen van Larry Laudan” en hij wees me in zijn boekje Progress and its Problems ook opmeet probleem van anachronismen. De ideeën van Karl Popper behandelde ik in “Groeit Kennis?” en “De drie werelden van Popper”.


De andere filosofen die ik hier noem trakteerde ik nog niet op zo’n uitgebreide bespreking. Maar het is interessant om de ideeën van Popper en Laudan eens te vergelijken met de uitkomsten van de empirische studies van de werking van wetenschap zoals ik die in “Lableven”, “De zwarte dozen van Latour” en “Big Science, Little Science” besprak.

Het probleemoplossend vermogen van Larry Laudan

In “Progress and its Problems” probeert Larry Laudan iets te doen wat de meeste wetenschapsfilosofen nooit gelukt is: een geschiedsgetrouwe theorie van wetenschappelijke vooruitgang formuleren. Dat is dapper en interessant – want die wetenschapsgeschiedenis is weerbarstig – en het resultaat mag er wezen: Laudan’s wetenschapsfilosofie is eenvoudig, elegant en genuanceerd.

De vooruitgangskwestie

Wetenschappers zijn graag zeker van hun zaak. Dat wil zeggen dat ze er alles aan doen om te zorgen dat hun uitspraken kloppen en dat ze morgen en overmorgen ook nog kloppen. Tegelijkertijd laat de geschiedenis zien dat wetenschappelijke inzichten in de loop der tijd steeds veranderen. Die twee dingen staan op gespannen voet met elkaar: wetenschappers beweren sinds de wetenschappelijke revolutie dat ze manieren hebben om tot zekere kennis te komen, maar die geschiedenis geeft ze gewoon steeds ongelijk. Er is in de hele wetenschapsgeschiedenis nog nauwelijks een wetenschappelijke uitspraak geweest die later niet herzien moest worden. 

Die spanning tussen de status aparte van wetenschappelijke kennis en de feilbaarheid van de wetenschap lost op als we aannemen dat wetenschap vooruit gaat. Als wetenschappers er in slagen om steeds voort te borduren op bestaande inzichten en deze aan nieuwe tests te onderwerpen, om op die manier onze kennis van de wereld aan te scherpen. Dan kunnen ze beweren dat ze én de beste manier hebben om aan zekere kennis te komen én dat die kennis steeds veranderd – omdat dat bij de aanpak om tot zekere kennis te komen hoort. Het is het steeds voortschrijdende inzicht dat wetenschappelijke kennis zijn ‘status aparte’ geeft.

Maar ook hier laat de wetenschapsgeschiedenis ons in de steek. Onderzoek naar de vooruitgang van wetenschappelijke kennis laat zien dat dat proces chaotisch is, dat criteria die wetenschappers formuleren om vooruitgang vast te stellen – zoals verificatie en falsificatie – niet daadwerkelijk leidend zijn voor de keuzes die ze maken en dat sociale processen – zoals een strijd om invloed en middelen -, veel impact kunnen hebben op het wetenschappelijke bedrijf. Zolang we slecht begrijpen hoé de wetenschap vooruitgang boekt kunnen we niet zeker zijn dát de wetenschap vooruitgang boekt.

In een notendop is dit dus het probleem:

1 Als we terug kijken in de geschiedenis zien we veel achterhaalde inzichten. 

2 Daardoor denken we dat de wetenschap vooruit gaat.

3 Maar we begrijpen eigenlijk niet hoe dat in zijn werk gaat. 

4 Daardoor kunnen we wetenschappelijke vooruitgang niet herkennen. Bij ontwikkelingen in de wetenschap weten we niet of we naar vooruitgang of gewoon naar verandering kijken.

5 Dit geeft weer problemen voor de status van wetenschappelijke kennis. De vraag is of de feiten van vandaag het resultaat zijn van een zoektocht die al in de 16 eeuw begon of eerder ‘in de waan van de dag’ ontstaan zijn.

Probleemoplossen

Volgens Laudan kunnen we wetenschappelijke vooruitgang het best begrijpen als we wetenschap zien als een probleemoplossingsdiscipline. De stelling dat wetenschappers aan wetenschappelijke problemen werken, lijkt eigenlijk weinig opzienbarend. Maar andere wetenschapsfilosofen hebben zich vooral gericht op concrete activiteiten binnen dat probleemoplossen, zoals: het doen van observaties, het uitvoeren van experimenten of de logische structuur van argumenten. Daardoor ligt de nadruk in die filosofieën sterk op het experimentele handwerk. Laudan kiest voor een globalere kijk, een die meer zicht geeft op het proces van vooruitgang in plaats van het formuleren van een gouden standaard voor wetenschappelijke bewijsvoering.

Wat is een wetenschappelijk probleem? Volgens Laudan zijn er twee soorten: empirische problemen en conceptuele problemen.

Een empirisch probleem doet zich voor wanneer de werkelijkheid zich anders gedraagt dan je zou verwachten. In de ochtend vind je vaak waterdruppeltjes op de ruiten. Dit is een empirisch probleem totdat je een er bevredigende verklaring voor hebt, zoals dat koude lucht minder water kan bevatten dan warme lucht. Deze verklaring vormt meteen een nieuw empirisch probleem. Waarom kan koude lucht minder water bevatten dan warme lucht? Dat vraagt ook weer om een verklaring. Empirische problemen ontstaan in het samenspel tussen theorie en werkelijkheid.

Een conceptueel probleem doet zich voor wanneer een theorie niet in overeenstemming is met andere theorieën. Zou je het condens op de ruiten verklaren door te stellen dat ruiten zweten als het koud wordt, dan moet je duidelijk maken dat het niet vreemd is om te zeggen dat dingen kunnen zweten en dat kou een reden kan zijn om te gaan zweten. Dit zijn conceptuele problemen. Conceptuele problemen ontstaan in het samenspel tussen verschillende theorieën. 

Elke theorie kan empirische en conceptuele problemen oplossen maar veroorzaakt typisch ook weer nieuwe conceptuele en empirische problemen. Afhankelijk van hoe belangrijk we de opgeloste problemen vinden en de nieuwe problemen die zich voordoen zijn we geneigd een theorie te accepteren – of niet. 

Volgens Laudan kenmerkt wetenschappelijke vooruitgang zich door een groei van het aantal opgeloste problemen en de afname van het aantal onopgeloste problemen. Maar omdat niet alle problemen even belangrijk gevonden worden, is de boekhouding complexer dan op het eerste gezicht lijkt. Laten we eerst eens naar de “empirische problemen” kijken.

Status van empirische problemen

Volgens Laudan bestaan er drie soorten empirische problemen.

  1. Opgeloste problemen. Dit zijn empirische problemen waar een adequate verklaring voor is. Dauw op de ruiten, bijvoorbeeld.
  2. Onopgeloste problemen. Dit zijn empirische problemen waar geen enkele bestaande theorie een verklaring voor heeft. Of poetsvissen zelfbewustzijn hebben, bijvoorbeeld.
  3. Anomalieën. Dit zijn empirische problemen die in strijd zijn met een geldige theorie. Als blijkt dat er deeltjes zijn die sneller gaan dan het licht is dit een anomalie voor de relativiteitstheorie.

Je zou zeggen dat onopgeloste problemen het belangrijkst zijn voor de wetenschap. Daar is immers vooruitgang te boeken. Maar de praktijk leert dat het onontgonnen terrein door wetenschappers relatief onbelangrijk gevonden wordt.

Toen Robert Brown in 1828 door zijn microscoop naar pollen in een bakje water keek, zag hij dat ze schijnbaar willekeurig door elkaar bewogen. Je zou zeggen dat deze ‘Browniaanse beweging’ een opwindende ontdekking was, waar wetenschappers meteen op doken. Maar dat was niet zo. Wetenschappers steggelden over het belang er van en voor welke theorie het eigenlijk een probleem kon zijn. Keken we naar iets wat biologisch van aard was, elektrisch, optisch? Omdat ze geen theorieën hadden om het probleem te duiden konden ze ook niet beslissen hoe belangrijk het was en liet een oplossing op zich wachten. 

Het was uiteindelijk 80 jaar later toen Albert Einstein een van zijn eerste wetenschappelijke ontdekkingen deed door aan tonen dat de pollen door de beweging van watermoleculen in beweging gebracht worden. Daarmee deed hij een grote bijdrage aan de warmteleer én aan de status van de Browniaanse beweging. Tot die tijd had Brown een grappig, slecht begrepen experiment beschreven, wat relatief weinig aandacht kreeg. Vanaf dat moment was het een centraal leerstuk in de warmteleer.

Het belang van wetenschappelijke problemen hangt dus af van hun bewijskracht voor een bepaalde theorie. Omdat het voor onopgeloste problemen niet zeker is wat die latere bewijskracht zal zijn, zijn ze voor veel wetenschappers eigenlijk minder relevant.

Daarom zijn anomalieën zo belangrijk voor de wetenschap. Een anomalie is een luis in de pels van de wetenschap. Anomalieën zeuren aan het hoofd van de wetenschapper, ze wijzen er op dat de mooie theorieën waar de onderzoekers zo lang aan gewerkt hebben toch niet kunnen kloppen. Als je er in slaagt om een anomalie in een opgelost probleem om te turnen sta je als wetenschapper supersterk. En het mooie van anomalieën is dat dat al van te voren bekend is. Je weet welke theorie je een steuntje in de rug kan geven en waarom.

We kunnen concluderen dat voor empirische problemen geldt dat anomalieën het belangrijkst zijn, daarna opgeloste problemen en dan pas onopgeloste problemen. Maar Laudan merkt terecht op dat deze inventarisatie niet afdoende is om de wetenschapsgeschiedenis recht te doen. Maar al te vaak werden theorieën die empirische problemen prima konden oplossen, ter zijde geschoven ten faveure van theorieën die beter in het wereldbeeld van de wetenschappers pasten. Daarom moeten we ook conceptuele problemen in beschouwing nemen.

Conceptuele problemen

De meeste wetenschapsfilosofieën keuren het alleen goed als wetenschappers op basis van experimenten en observaties voor een theorie kiezen. Maar Laudan stelt dat er hele rationele, niet empirische gronden kunnen zijn om een theorie aan te hangen. Sterker nog conceptuele problemen hebben volgens hem een grotere invloed op de vooruitgang van de wetenschap dan empirische problemen.

Conceptuele problemen ontstaan als theorieën in strijd lijken te zijn met andere theorieën. Even aangenomen dat theorieën geen interne problemen hebben, zoals vage concepten of verborgen cirkelredeneringen, zijn er volgens Laudan drie bronnen van conceptuele problemen: strijdige theorieën, methodologische problemen of problemen met het wereldbeeld van wetenschappers.

Strijdige theorieën hebben aannames die niet met elkaar te rijmen zijn. Ptolemeus dacht dat de aarde in het midden van het heelal staat, terwijl Copernicus dacht dat de zon in het midden staat. Dit is een conceptueel probleem want het kan niet allebei waar zijn. Je zou misschien zeggen dat het een empirisch probleem is want als je even een ruimteschip naar de zon stuurt dan kun je er wel achter komen hoe het zit, maar even los van het vraagstuk welk bewijs dat ruimteschip dan moest verzamelen om deze kwestie uit de lucht te helpen, was het in die tijd niet mogelijk met een experiment te beslissen welke theorie waar was. 

Dat kon wel op een andere grond. Copernicus ideeën waren namelijk in strijd met de toenmalige natuurkunde. Aristoteles had allerlei ideeën ontwikkeld over hoe dingen op en buiten de aarde bewogen en die moesten heroverwogen worden als wetenschappers het idee van Copernicus zouden overnemen. Daarom had de theorie van Copernicus aanvankelijk meer conceptuele problemen, dan Ptolemeus en raakte die niet erg in zwang. Het was uiteindelijk Galilei die door een alternatief natuurkundig systeem te ontwikkelen de balans meer in de richting van de theorie van Copernicus deed doorslaan. Nu hadden beide theorieën meerdere conceptuele problemen en waren de theorieën echt aan elkaar gewaagd. Tegen de tijd dat de balans doorsloeg naar Copernicus was deze eigenlijk al weer vervangen door de ideeën van Johannes Kepler.

Een tweede bron van conceptuele problemen kan methodologie zijn. Wetenschappers hebben ideeën over hoe je tot theorieën kan komen en wel welke bewijsvoering acceptabel is voor een theorie. Als een theorie strijdig is met dat soort overtuigingen ontstaan ook conceptuele problemen.

Isaac Newton liep bijvoorbeeld tegen een methodologisch probleem aan met zijn theorie over zwaartekracht. Volgens Newton trekken zware voorwerpen elkaar aan en daarom vallen dingen naar de aarde toe. De vraag is alleen wel hoe dat kan. Tijdgenoten wezen er op dat Newton een geheimzinnige ‘werking op afstand’ nodig had voor zijn theorie. De appel die naar de aarde valt raakt de aarde niet, hoe kan de aarde dan de appel trekken? In die tijd was werking op afstand een methodologische doodzonde. Krachten konden alleen verklaard worden door het botsen van deeltjes. Newton’s theorie schond dat verklaringsmodel.

Bij methodologische conceptuele problemen moet met de aanname van een theorie ook de methodologie aangepast worden. Omdat wetenschappers hun gereedschap belangrijk vinden hebben ze sterke argumenten nodig om die stap te zetten.

Een derde bron van conceptuele problemen is een botsing van een theorie met een wereldbeeld. Elke cultuur heeft ideeën, die niet altijd wetenschappelijk van aard zijn, over hoe de wereld werkt. Een wetenschappelijke theorie die dat soort ideeën tegenspreekt zal het moeilijker hebben dan een theorie die aansluit bij het gangbare wereldbeeld. Strijdigheid met het gangbare wereldbeeld is dus een conceptueel probleem.

In de meest bekende voorbeelden speelt God natuurlijk een rol. De strijd van Galilei met de kerk over de plaats van de zon, de moeilijkheden voor God om in te grijpen in een mechanisch universum zoals de volgelingen van Newton voorstelden, de slechte verenigbaarheid van Darwinisme met het scheppingsverhaal. Maar, niet alle wereldbeelden zijn religieus. Darwinisme en Marxisme stonden ook op gespannen voet met elkaar en Natuurkundigen zijn nog altijd bezig de wereldbeelden achter de Klassieke Mechanica en de Quantummechanica te verenigen. 

Al met al zijn er allerlei vragen die rijzen als je een nieuwe theorie in een web van bestaande ideeën wetenschappelijk, methodologisch of van meer algemene aard probeert in te passen. Dit leidt tot conceptuele problemen die meestal meer gewicht hebben dan empirische problemen. Een theorie heeft volgens Laudan gewoonlijk minder last van een paar anomalieën dan van een flink conceptueel probleem.

De rol van onderzoekstradities.

Tot nu toe hebben we besproken welke verschillende soorten empirische en conceptuele problemen wetenschappers moeten oplossen, maar we hebben nog weinig gezegd over de werking wetenschappelijke vooruitgang. Volgens Laudan hebben we daar nog een derde bouwsteen voor nodig: onderzoekstradities.

Onderzoekstradities omvatten theorieën. Theorieën staan meestal niet op zichzelf, maar komen voor in families die een wereldbeeld, basisaannames en methoden delen. Die families vormen onderzoekstradities. Laudan’s idee van onderzoekstradities  lijkt op het idee van onderzoeksparadigmas van Thomas Kuhn of de onderzoeksprogrammas van Imre Lakatos, maar Laudan denkt dat deze filosofen een aantal historisch onhoudbare beweringen doen. Daarom zijn hun ideeën aan herziening toe. Ik laat de discussie tussen die filosofen even voor wat ie is en richt me alleen op de theorie van Laudan zelf. Volgens Laudan hebben wetenschapstradities drie eigenschappen:

1 Elke onderzoekstraditie bestaat uit een aantal meer specifieke theorieën. De onderzoekstraditie van de Quantummechanica bevat onder ander quantum theorieën voor het atoom, theorieën over quantumzwaartekracht en snaartheorieën. Deze theorieën vormen een illustratie van

– en een fundament onder – de traditie.

2 Elke onderzoekstradtiie is trouw aan een bepaald wereldbeeld en methodologie. Onderzoekstradities onderscheiden zich door hun ideeën over hoe de wereld in elkaar zit en hoe je er kennis van kan nemen.

3 Tradities zijn historische wezens. Ze worden in de loop der tijd op verschillende manieren gedefinieerd, maar hebben een lange levensduur, dit in tegenstelling tot theorieën die meestal maar kort leven.

Onderzoekstradities zijn nuttig. Ze geven wetenschappers het gereedschap om conceptuele en empirische problemen op te lossen.  Ze doen dit vier manieren:

1 Ze bepalen welke problemen interessant zijn en genereren conceptuele problemen. Binnen de familie van theorieën die een onderzoekstraditie omvat ontstaat gemakkelijk ruzie; figuurlijk gesproken. Een nieuwe theorie zal gangbare opvattingen binnen de traditie ter discussie stellen het oplossen van de conceptuele problemen die daardoor ontstaan brengt de traditie als geheel verder.

2 Ze begrenzen disciplines. De breed gedeelde basisideeën binnen tradities vormen een natuurlijke begrenzing voor het type probleem dat opgelost kan worden. Het spreekt niet voor zich dat mechanica, waarin dingen verklaard worden op basis van beweging, krachten en botsingen, iets kan zeggen over de manier waarop mensen met elkaar communiceren. Daarvoor zijn de basisideeën gewoon niet aanwezig.

3 Ze bieden hulp bij het oplossen van problemen. Bij het bedenken van een theorie kunnen onderzoekers gebruik maken van elementen uit andere theorieën in de traditie. Een nieuw soort mechanica kan opnieuw opgebouwd worden met begrippen als kracht en snelheid. Hierdoor kunnen nieuwe theorieën dankbaar gebruik maken van jaren denkwerk.

4 Ze helpen met het rechtvaardigen van theorieën. De andere theorieën uit de familie kunnen immers aangeroepen worden om aannames te onderbouwen.

Een belangrijk aspect aan onderzoekstradities is dat ze zich ontwikkelen. Ze zijn aan verandering onderhevig. De theorieën binnen de familie worden steeds ververst waardoor andere dingen belangrijk gevonden worden. Waar de werking van kracht over afstand voor Newton nog een groot probleem was, ontstonden er later veel Newtoniaanse theorieën waarin ook dit soort werking op afstand was opgenomen. Daardoor werd het minder controversieel om een werking op afstand te veronderstellen. In elke onderzoekstraditie zijn er ideeën die centraler zijn en meer tot de harde kern behoren – en die dus ook lastiger tegen te spreken zijn – maar Laudan stelt dat er door het komen en gaan van specifieke theorieën ook beweging zit in de familie als geheel. Daarin wijkt zijn theorie af van die van andere wetenschapsfilosofen.

Vooruitgang

Dat brengt ons eindelijk bij het idee van wetenschappelijke vooruitgang. Laudan denkt dat die te begrijpen is door de strijd tussen – en ontwikkeling van – verschillende onderzoekstradities. Op zichzelf kun je van een traditie niet zeggen of deze waar of onwaar is, daarvoor zijn de ideeën die de theorieën binnen een traditie delen te abstract,  maar je kan wel vaststellen of er in de traditie problemen opgelost worden; en dit probleemoplossend vermogen kan als kwaliteitsmaat gebruikt worden. In vruchtbare onderzoekstradities kunnen veel problemen opgelost worden.

Een belangrijke toetssteen voor een onderzoekstraditie is of deze adequaat is. Hoe goed kunnen problemen opgelost worden met de theorieën uit de onderzoekstraditie? De klassieke mechanica is voor veel problemen adequaat, waardoor de basisprincipes nog altijd populair zijn. Een andere vraag is of onderzoekstradties vooruit gaan. We kunnen ons afvragen of onderzoekstradities meer problemen oplossen dan vroeger. Dan doet de klassieke mechanica het minder goed: de meeste problemen zijn bekend en opgelost, een reden waarom er op dit moment niet veel wetenschappers zijn die zich zelf nog als een klassiek mechanicus zien.

Er is dus een verschil tussen tradities die wetenschappers  accepteren – voor waar aannemen;  en tradities die ze najagen -waar ze aan willen werken. Wetenschappers zijn gewoon om theorieën te accepteren die adequaat zijn, maar ze zijn wel geneigd theorieën na te jagen die zich snel ontwikkelen.

Dit spanningsveld tussen conservatief gedrag: acceptatie van die theorieën die bewezen zijn en progressief gedrag: najagen van  theorieën die veelbelovend zijn verklaart voor een belangrijk deel wetenschappelijke vooruitgang. Als wetenschappers niet een voorkeur zouden hebben voor theorieën die zich snel ontwikkelen, dan zouden nieuwe theorieën nooit een kans krijgen en als theorieën zich niet bewezen zouden moeten hebben voordat ze geaccepteerd worden zou wetenschappers zich overgeven aan willekeur. Laudan laat zien dat met deze twee principes vooruitgang mogelijk is en dat de beslissingen die wetenschappers nemen rationeel zijn en niet, zoals andere wetenschapsfilosofen wel beweert hebben, alleen maar door sociale processen bepaald worden.

Tot slot

Ik opende dit blogje al door te stellen dat ik Laudan’s theorie elegant vind. Met name het erkennen van het belang van conceptuele problemen en de samenbundeling van theorieën in onderzoekstradities helpen om de wetenschap beter te begrijpen.

Tegelijkertijd is de boekhouding van problemen met verschillend gewicht die Laudan voorstelt behoorlijk complex. Nergens laat hij echt concreet zien dat je door het tellen van problemen inderdaad kan onderbouwen welke keuzes wetenschappers maken in hun werk. Sterker nog, die keuzes blijken van voor verschillende wetenschappers verschillend te zijn. Het gewicht van een probleem is uiteindelijk een persoonlijke keuze.

Daarmee staat Laudan nier enorm sterk als het gaat om het aantonen van de wetenschappelijke vooruitgang. Hij slaagt er goed in om een aantal kwesties die andere wetenschapsfilosofen zoals Thomas Kuhn en Karl Popper hebben laten liggen op te lossen, maar hij geeft uiteindelijk weinig tegengas aan filosofen die de wetenschap als een puur sociaal proces wensen te zien. Laudan toont aan dat wetenschap vooruit kan gaan, niet dat ze daadwerkelijk vooruitgaat.

Meer lezen?

Ik schreef over de ideeën van Karl Popper in Groeit Kennis? Ik schreef over de houdbaarheid van wetenschappelijke theorieën in Stokoude Kennis, Halfwaardetijd en Tijdmeters.

Progress and its problems is een prettig leesbaar boek dat rijk is aan inzichten over de wetenschap en vooral het denken daarover.

Media

Ze krijgen werkelijk overal de schuld van: de media. Dat is niet nieuw hoor. De Grieken dachten dat het schrift het einde van de samenleving zou inluiden; ik hoorde dat televisie door God verboden is; van internet wordt je dom en natuurlijk veroorzaken sociale media en algoritmes  de huidige polarisatie in de samenleving. Goed: achteraf blijkt het altijd wel mee te vallen, maar daar gaat het me vandaag ook niet om. Wat mij bezig houd is de vraag of er in de eerste plaats wel iets over te zeggen is.

Het probleem met de media is dat het woord meervoud is. We hebben het niet over één ding, maar over een heleboel tegelijk. Ze zijn echt overal, de media. We lezen, we kijken tv, we gaan naar theater, we gamen, we appen, we navigeren, we surfen online, we lopen op straat. Zowat iedereen lijkt zich ook me media bezig te houden: nieuwsmedia, entertainment bedrijven, communicatie professionals, platformen, internet cowboys, docenten en kunstenaars.

Dat maakt media alomtegenwoordig. De denkende mens is meteen ook de communicerende mens. Onze breinen ademen communicatie. Geen wonder dat we zoveel technologieën en beroepen ontworpen hebben om dat beter, efficiënter, fijner, sneller of met meer beleving te doen. Die veelheid maakt het ook moeilijk er iets nuttigs over te zeggen. De media de schuld geven van polarisering is als de lucht de schuld geven van de griep. Ergens klopt het wel, maar er wringt ook iets.

Als je iets wil zeggen over het effect van de media op onze cultuur dan zijn er eigenlijk twee strategieën denkbaar. Je kunt (1) alle media over één kam scheren en er iets algemeens over proberen te zeggen of je kunt (2) er een genre uitpakken zoals radio en televisie en proberen te zeggen hoe die specifieke media het spel veranderen.

Media-ecologie

De eerste strategie wordt gebezigd door media ecologen. Een mooi woord is dat:  media ecologie. Net zoals je in de biologie kunt kijken naar de relatie van levende wezens met hun biologische omgeving, kun je als mediawetenschapper zoeken naar de relatie tussen de mens en de rijke omgeving van al die verschillende media. De meeste media-ecologen nemen daarbij als uitgangspunt hoe het gebruik van media het bewustzijn beïnvloedt.

De absolute grondlegger van dit vakgebied was de Canadese wetenschapper Marshall McLuhan. Hij stelde dat de media het best gezien konden worden als een extensie van onze zintuigen. En dat onze cultuur verandert bij de introductie van een nieuw medium, omdat onze media bepaalde zintuigen bevoordelen. Het schrift zou zou een transitie van een orale een naar visuele cultuur teweeg gebracht hebben en daarmee rationaliteit ingebracht hebben. De introductie van radio en televisie zou die weer deels teniet gedaan hebben.

McLuhan vond dat in zijn tijd veel te veel aandacht was voor de boodschappen die via de media verspreid werden. Volgens hem was het niet de inhoud van de boodschappen die onze cultuur beïnvloedde maar de vorm ervan. Vandaar zijn beroemde uitspraak: the medium is the message.

De zintuigentheorie van McLuhan komt wat simplistisch over en ook modernere denkers die ik in deze lijn plaats grijpen naar zo’n eenvoudig verklaringsmechanisme. Thomas de Zengotita, media theoreticus, probeert het effect van media te verklaren vanuit de gedachte dat we overspoeld worden door representaties van de werkelijkheid. Susan Blackmore plaats het idee van imitatie centraal in haar theorie over de relatie tussen het brein en de media.

Helemaal onverwacht is die vereenvoudiging niet. Als je iets wil verklaren dat zo divers, veelomvattend en alomtegenwoordig is als de media dan moet je het wel in iets eenvoudigs proberen te vangen. Het heet niet voor niets verklaren. Het moet te begrijpen zijn. Je hebt een helder uitgangspunt nodig dat je als de kern van je verhaal kan gebruiken.

Maar, daar zit dan ook meteen de angel. Zo’n vereenvoudiging kan nooit recht doen aan de ingewikkelde, meervoudige effecten die de media hebben. Natuurlijk veranderen de media hoe we met elkaar communiceren: daar zijn ze voor gemaakt, maar elk medium doet dat op zijn eigen manier en heeft zijn eigen reikwijdte. Als je die allemaal over één kam scheert doe je weinig recht aan die diversiteit en het subtiele samenspel van verschillende media.

Specifieke mediakritiek

De andere benadering is te kijken naar een specifiek medium en dan te onderzoeken hoe die het grote intermenselijke communicatiespel veranderen. In de afgelopen jaren waren het internet, online gaming en sociale media natuurlijk onderwerp van dit soort analyses. Wat je hier vaak ziet is dat één opvallende ontwikkeling in de cultuur verklaard wordt vanuit een eigenschap van een nieuw en populair medium. En vooral de jongeren, vaak de eersten die nieuwe media gebruiken en nog erg beïnvloedbaar, moeten het daarbij ontgelden.

Het bekendste voorbeeld is misschien wel de ‘filter bubble’, een idee dat zo aantrekkelijk is dat het in ons dagelijkse taalgebruik is doorgedrongen. Bij de filter bubble zijn computer algoritmen de boosdoener. De gedachte is dat we veel te weten komen via Google search en via de tijdlijn van sociale media. Die worden gefilterd om ons met zo relevant mogelijke informatie te voorzien. Wat ik zie bij een Google zoektocht is gebaseerd om mijn persoonlijke zoekhistorie en is dus anders dan wat jij ziet. Wat op mijn tijdlijn van Twitter en Facebook komt is gebaseerd op mijn klikgedrag en dus anders dan wat anderen zouden zien.

Door deze sturing vanuit de media raken we steeds meer in een isolement van ideeën. Als media persoonlijk worden in plaats van collectief komen we niet meer in aanraking met andersdenkenden of met ideeën die ons onwelgevallig zijn. We komen in een zeepbel van gelijkgestemden terecht. En de gedachte is dat als iedereen in zijn eigen ideeënzeepbel leeft, dat de samenleving als geheel dan polariseert.

Zou Eli Pariser, de bedenker van de filter bubble, stil gestaan hebben bij de gedachte dat mensen nog andere bronnen van informatie gebruiken dan Google en Facebook? Dat ze elkaar spreken, naar televisie kijken, naar theater gaan? Media is meervoud, mensen gebruiken meerdere media naast elkaar. Stel je voor dat er op je Facebook tijdlijn alleen maar kattenfilmpjes voorkomen, zit ik dan meteen in een kattenzeepbel?

Voor Nederlanders met een flintertje historisch besef is die filter bubble gedachte ook wat potsierlijk. Waren de media hier niet gekoppeld aan ‘zuilen’? Katholieken woonden in dezelfde steden, gingen naar dezelfde kerken, keken dezelfde TV programma’s, hadden eigen sportverenigingen en blaadjes en stemden dezelfde politieke partijen. Dat was pas een zeepbel! Om in de moderne wereld een zeepbel te veroorzaken die aan een ‘zuil’ kan tippen zou je de vrijheid van media gebruik behoorlijk moeten inperken en algoritmes nog heel veel meer macht moeten geven.

Als je inzoomt op een bepaald medium en vandaar uit iets over media en de samenleving in het algemeen probeert te zeggen heb je snel last van kokervisie. Om helderheid te krijgen over de effecten van een nieuw medium proberen we in kaart te brengen wat we zien gebeuren rondom een bepaald medium. Instagram voedt faalangst; Twitter hyperigheid; Whats App faciliteert rellen. Dat werk. Maar, we kijken dan door een vergrootglas. Het is maar de vraag of wat we daar iets zien er op de schaal van de samenleving er nog toe doet. Als je zoontje een beetje opgefokt raakt van een oorlogspel, is er nog geen agressieve generatie gekweekt. Heel veel foto’s op Instagram zijn te mooi om waar te zijn, maar daarmee is er nog geen collectieve faalangstcultuur ontstaan.

Door onze focus op één medium vergeten we even dat onze kinderen ook blootstaan aan andere invloeden. Dat ze andere media gebruiken, dat ze opgevoed worden, naar school gaan.

Als die effecten al zo groot zijn als dat ze door het vergrootglas lijken, dan nog heeft het opschalen ervan naar maatschappelijke proporties weinig zin. In de zee van invloeden waar we als mens aan bloot staan verdunnen de effecten van één medium razendsnel. Om de vergelijking met ecologie nog maar eens te maken: als er een nieuw plantje in het bos komt krijgen sommige planten minder ruimte en veranderd het ecosysteem, maar de beestjes hebben daar doorgaans weinig last van: voor hen wordt het menu juist gevarieerder.

Focus in; focus uit

De alomtegenwoordigheid en veelvormigheid van de media zorgen dus voor een probleem met focus. Als we ze willen begrijpen door uit te zoomen scheren we ze over één kam – en doen we te weinig recht aan hun diversiteit; Maar teveel inzoomen betekent weer kokervisie – en daarmee doen we ook geen recht aan hun diversIteit. Hoe we de lens ook afstellen, steeds ontglippen ons de meest belangrijke aspecten.

Natuurlijk, de impuls is om te zeggen: je moet die twee ook combineren. De visie op het totale ecosysteem en de aandacht voor specifieke plantjes daarin. Dat doen biologen ook.

Ik zou het daarmee eens zijn als die twee analyses elkaar inderdaad raken. Als een totaaltheorie van de media door een analyse van Twitter aan het wankelen gebracht zou kunnen worden. Of als inzichten over Twitter opgetild konden worden tot een totaalvisie op de media zonder de botte generalisaties zoals ik die net besprak. Maar zo’n dialoog tussen het grote plaatje en gericht onderzoek kom ik eigenlijk niet vaak tegen.

En misschien is er nog iets mis. Namelijk de premisse dat de media – als in de karakteristieken van elke medium – er veel toe doen. Dat we veel in contact staan met verschillende media betekent niet dat het er enorm veel toe doe hoe die media informatie over brengen of welk soort informatie er het makkelijkst door verspreid word. Als onze jeugd veel meer keuzestress ervaart dan vroeger, moeten ons we ons misschien afvragen of we ze zelf niet teveel keuzevrijheid geven in plaats van Facebook de schuld te geven. Als de samenleving polariseert moeten ons misschien afvragen wie verdeel en heers probeert te spelen en hun tactieken en retorieken in kaart proberen te brengen, in plaats van ons blind te staren op de algoritmen van Google.

We maken onze cultuur zelf, of tenminste samen. Misschien moeten we cultuurverandering in de eerste en belangrijkste plaats bij onszelf zoeken. Het zou kunnen dat we Marshal McLuhan’s “The Medium Is the Message” nog altijd veel te serieus nemen. In plaats van ons blind te staren op de verborgen effecten van verschillende soorten media, moeten we onze aandacht misschien richten op wat er in het volle zicht is. Wie het zijn die media gebruiken en welke dingen ze er mee rond roepen. Voor de hoe de Grieken zich organiseerden was de overgang van een orale naar een schriftelijke communicatievorm misschien het meest wezenlijk, maar in deze tijd van mediaovervloed moeten we ons eerder weer op de inhoud richten: “the message is the message”.

Meer lezen?

Ik schreef elders eerder recensies van Marshal McLuhan’s “Understanding Media” en Tomas de Zengotita’s “mediated”. Hier besprak ik  Susan Blackmore’s “The Meme Machine” al eens.

De kenniskritiek in dit blogje kwam ook in Samenloop en Verkoudheid als eens naar voren. Ik schreef ook al eerder over de vermeende invloed van het internet op de jeugd en over de haken en ogen van het gebruik van algoritmen in Glazen Bol en A Priori.