Het onbegrijpelijke brein

The Idea of the Brain van Matthew Cobb geeft lezers een inkijkje in waar de neurowetenschap vandaan komt en waar ze staat. Je leert ervan over hoe het brein werkt en over hoe de wetenschap werkt. Het is die dubbele laag die het zo’n boeiend boek maakt.

Cobb is een nuchtere wetenschapshistoricus. Het zou gemakkelijk genoeg geweest zijn om te laten zien dat ideeën die we nu natuurlijk vinden, zoals specialisatie in het brein, al voorkwamen bij de oude Grieken of Arabieren en dat de voortschrijdende wetenschap steeds meer bewijs gevonden heeft voor die ideeën. Maar Cobb kiest ervoor om steeds te laten zien hoe een idee over het brein ontstond, welke vruchten het afwierp en hoe eigenlijk steeds ook het spoor weer doodliep. Dat doet hij voor ideeën die we nu absurd vinden, zoals dat het brein in het hart zit, maar ook voor ideeën die we nu voor waar aannemen zoals evolutie.

Daarmee laat hij zien dat de wetenschap niet vooruitgaat via een serie briljante ideeën en ontdekkingen, maar dat er evengoed, of zelfs vooral, toevallige ontdekkingen, verwarring en fouten nodig zijn om verder te komen. Cogg beschrijft de ideeën uit het verleden niet als stappen op weg naar ons huidige begrip, maar zoals ze in die tijd gebruikt werden. Min of meer volledige theorieën in al hun complexiteit en met de bijbehorende onduidelijkheden. Dat geeft, mits je als lezer de neiging kan onderdrukken de lijntjes naar de toekomst zelf te leggen een eerlijk beeld van de ontwikkeling van de wetenschap.

Door het boek heen valt steeds op hoe belangrijk technologie is geweest om het brein te begrijpen. Technologie wordt gebruikt om inzichtelijk te maken hoe het brein zou kunnen werken; het meest algemeen in de vorm van ‘het brein als een machine’, maar eigenlijk heeft in de loop der tijd heeft elke opwindende nieuwe technologie die rol vervult. Technologie wordt gebruikt als metafoor voor het brein, maar de omgekeerde richting is ook aanwezig. Het brein werd gezien als een Telegraaf, maar Telegraaf lijnen werden gezien in termen van zenuwactiviteit. Daarmee is het begrip van het brein dus sterk cultureel verankert.

Wat ook opvalt is hoe weerbarstig het brein is als het gaat om het verzamelen van empirisch bewijs over haar werking. Dat gold voor de Aritsotelianen die hun kennis moesten vergaren door breinen van verschillende dieren te verzamelen, het gold voor de wetenschappers die stroomstootjes gingen toedienen aan het brein van zieke patiënten, maar het geld nog steeds voor de hedendaagse neurowetenschappers. Zij komen met hun dure scanners niet verder dan te laten zien welke stukjes, met elk tientallen miljoenen cellen van het brein, een beetje actiever zijn bij het uitvoeren van een bepaalde taak.

Het lukt ook maar niet om het goede niveau van analyse te vinden. Het lijkt er op dat het brein op verschillende niveaus van organisatie op een andere manier begrepen moet worden en dat die niveaus zich niet één op één in elkaar laten vertalen. Enkele cellen werken wezenlijk anders dan groepen cellen. Op sommige niveaus is het brein gespecialiseerd en gelokaliseerd, op andere niveaus is het gedistribueerd.

Een mogelijkheid om het gedrag van groepen cellen te begrijpen is het terug te brengen naar eenvoudigere netwerken en dan op te schalen. Onderzoek aan fruitvliegjes en zebravissen kan ons misschien meer leren over het brein, dan de beste fMRI scanners. Genetische manipulatie kan daarbij mogelijk helpen. Het maakt het mogelijk systematisch te experimenteren met hoe het gedrag van deze beesten beïnvloed wordt door kleine aanpassingen aan het brein.

Maar of we daarmee wél verder komen is nog steeds de vraag. We zullen ook nieuwe ideeën moeten ontwikkelen: nieuwe metaforen en concepten om het brein te begrijpen. Want Cobb laat zien dat de moderne breinwetenschap, met al haar empirisch geweld en technisch vernuft: de wetenschap die valse herinneringen in dieren kan implanteren en mensen in staat kan stellen computers te besturen met hun gedachten, er toch maar beperkt in slaagt voortgang te boeken in het daadwerkelijke begrip van de werking van het brein als geheel.

Deze kwestie wordt ook door breinwetenschappers zelf opgeroepen. Eric Jonas en Konrad Paul Koning deden een poging om de technieken die neurowetenschappers gebruiken op verschillende manieren toe te passen op de MOS 6507 processor. De MOS 6507 is de chip die in de jaren 70 in computers zat en spelletjes als Donkey Kong en Space Invaders mogelijk maakte. Het is een relatief eenvoudig apparaat waarvan de werking volledig bekend is.

Jonas en Koning brachten de structuur in kaart, schakelden sommige delen uit en deden allerlei andere dingen die neurowetenschappers plachten te doen. Ze slaagden er echter niet in te achterhalen hoe informatie in die chip verwerkt werd. Dit mislukte jammerlijk. Ze concludeerden dat de technieken van de neuroscience onvoldoende geschikt waren om het noodzakelijke begrip van dit intelligente apparaat op te bouwen.

Kunnen we, vraagt Cobb, het brein leren begrijpen met de technieken die we nu tot onze beschikking hebben? En hebben we meer techniek of meer eerder verbeelding nodig om dat te doen? Cobb neigt naar het laatste, maar misschien is de vraag die het boek nog het meest oproept wat we eigenlijk bedoelen met het begrijpen van het brein.

Ooit waren we best tevreden met het idee van het brein als een computer, maar nu willen we echt meer. Ooit dachten we dat het brein de complexiteit van een stoommachine zou hebben, nu weten we echt wel beter. Maar als we Cobb’s geschiedenis serieus nemen moeten we ook meenemen dat de invulling van begrijpen mee-veranderd is met de wetenschap. Elk hoofdstuk, elke metafoor, elk kernidee, kwam met begrip maar ook met veranderde en ook met gegroeide behoefte om het brein in detail te begrijpen. Dat zal in de toekomst niet anders zijn. We blijven op reis.

Meer lezen?

Dit is de slotpost van een serie blogjes over breinwetenschap aan de hand van het boek van Matthew Cobb. De serie start met een introductie in het blogje ‘brein quintologie‘, om daarna in op zoek naar het brein in te gaan op de oude breinwetenschappen; in informatieverwerker op de toepassing van het idee van informatie en communicatie op het brein; en in gedachtenmeting op de moderne breinwetenschap.

Ik schreef al eerder over het brein. Bijvoorbeeld in ‘wil‘ waar ik inga op de wetenschappelijke discussie rondom het bewustzijn, en in ‘geheugenmachine‘ waar ik inga op de werking van het geheugen.

Ik schreef ook al eerder over wetenschapsgeschiedenis. Bijvoorbeeld in de wetenschapsgeschiedenis van Rens Bod en over de wisselwerking tussen informatiewetenschappen en technologie en in ‘reading James Gleick’s the information’. Het schrijven van Cobb doet ook sterk denken aan de wetenschapsfilosofie van Larry Laudan.

Deze blogjes zijn natuurlijk vooral bedoeld om jullie lekker te maken om The Idea of the Brain zelf te lezen.

Gedachtenmeting

Technologieontwikkeling heeft ons denken over het brein beïnvloed doordat we het brein proberen te begrijpen vanuit de werking van die machines: zoals het idee van het brein als een telefooncentrale of het brein als een computer.

Maar dankzij de technologie kunnen we ook steeds slimmere metingen aan het brein doen. Toegegeven: ook de leerlingen van Aristoteles deden aan empirische breinwetenschap – door het uiterlijk van het brein van verschillend dieren te vergelijken. Maar de moderne technologie stelt ons in staat om in levende breinen activiteit te meten, om in te grijpen in het denken met elektronica en om precieze het brein na te bootsen in computermodellen. Dat is machtig gereedschap.

Hoe ver brengt al dit technologische geweld ons eigenlijk bij het begrijpen van het brein? De moderne wetenschap is versnippert in allerlei specialismen en dit geld ook voor het onderzoek aan het brein. Laten we er eens een aantal van bekijken.

Geheugen
Ik heb het eerder in deze serie al gehad over de lokalisatie gedachte : dat bepaalde taken op een bepaalde plek in het brein worden uitgevoerd. Maar we kunnen dit idee natuurlijk toepassen op het geheugen. Als ik aan mijn oma denk, heb ik daar dan een specifieke cel of een klein groepje cellen bij nodig?

Het idee van lokalisatie van het geheugen heeft een grote impuls gehad door de experimenten van neurochirurg Wilder Penfield. Hij liet zien dat als het brein op specifieke plekken gestimuleerd wordt mensen zeer specifieke, levendige herinneringen rapporteren – alsof ze het op dat moment meemaakten. De suggestie dat die herinnering op die specifieke plek is opgeslagen is dan ook sterk. Ook de verwerking van zintuiglijke informatie was volgens Penfield gelokaliseerd hetgeen resulteerde in het beroemde homunculus plaatje: waar de hersenen zijn afgebeeld met specifieke delen van het lijf waar ze aan gekoppeld zijn.

Toch wierpen deze bevindingen niet meteen het idee dat herinneringen juist gedistribueerd werden opgeslagen tegen. Een probleem was dat de herinneringen die Penfield kon oproepen heel anders zijn dan normale herinneringen. Ze waren heel levendig en vol detail, terwijl ‘normale’ herinneringen juist vaag zijn en veel met veel raadwerk aan elkaar gehouden worden. Bovendien was zijn stimulatie vrij grofmazig waardoor het nog altijd de vraag is wat hij precies stimuleerde. Een andere vraag was hoe een herinnering precies in een hersencel opgeslagen kan zijn.

Deze laatste vraag werd beantwoord door Donald Hebb. Hij stelde dat het brein leert door het netwerk van neuronen aan te passen. Erik Kandel toonde later aan de hand van zeeslakken aan dat Hebb’s hypothese correct was. Geheugen werkt via het versterken en verzwakken van connecties in het brein. Dit netwerkidee sluit niet uit dat specifieke cellen aan specifieke herinneringen gekoppeld zijn, maar hoe ‘lokaal’ of ‘geïsoleerd’ die netwerken zijn is een open vraag. We weten simpelweg niet hoeveel cellen samen een herinnering vangen, of die dicht bij elkaar zitten – en in hoeveel herinneringen elke cel een rol speelt.

Het vermogen om nieuwe herinneringen op te slaan kan kapot gaan. De patiënt Henry Molaison werd bijvoorbeeld voor epilepsie behandeld met een breinoperatie waarin delen van het brein worden verwijderd (lobotomie) – een behandeling die wel op schizofrene patiënten werd uitgevoerd.

Daarna kom Henry geen nieuwe herinneringen meer opslaan. Oude herinneringen waren nog prima en werkte zoals altijd, maar nieuwe gebeurtenissen sloeg hij gewoon niet op. Henry is uitgebreid onderzocht en daardoor hebben we veel geleerd over het brein, maar een van de meest duidelijke dingen is dat er een specifiek hersengebied is: de hypocampus, waar de opslag van herinneringen geregeld word.

Inmiddels weten we zoveel van de biochemische kant van leren, dat we valse herinneringen in muizen kunnen inplanten met elektronica. Bepaalde cellen waarvan we weten dat ze betrokken zijn bij het herkennen van een bepaalde geur worden gestimuleerd samen met cellen die met beloning te maken hebben. Vervolgens herkennen muizen die geur, ook al hebben ze hem nooit eerder in het lab geroken.

Het onderzoek van de neurologie van het geheugen is dus wat paradoxaal. We weten erg veel en we begrijpen het brein zelfs zo goed dat we het kunnen controleren, terwijl we tegelijkertijd nog altijd geen antwoorden op basale vragen hebben over hoe herkenningen worden opgeslagen.

Cirquits
Aangezien we weten dat herinneringen in netwerken van cellen worden opgeslagen, is het dan niet mogelijk om het brein te leren kennen door het simpelweg in kaart te brengen? Dat wil zeggen door vast te stellen welke neuronen met welke verbonden zijn?

Wetenschappers hebben dit op verschillende manieren proberen te doen. Één manier is om het gedrag van individuele neuronen bestuderen in het lab en in het brein. Dit onderzoek is begonnen met katten. Onderzoekers verdoofden een kat, maten de activiteit van één van de hersencellen als gevolg van lichtinval in het oog. De cel bleek alleen gevoelig voor een lijn die verticaal bewoog. Andere vormen en bewegingen hadden geen effect. Het idee was geboren dat cellen hoogst gespecialiseerd zijn.

Mensen zijn ook op deze manier onderzocht. Ook daar bleek specialisatie. Er bleken bijvoorbeeld cellen bij proefpersonen die reageerden op afbeeldingen Jennifer Aston en niet op andere gezichten of beelden.

Toch is de conclusie dat er zoiets bestaat als een Jennifer-Aston-cel niet helemaal terecht. De cel is immers verbonden in een netwerk. De ‘code’ voor de actrice kan verdeeld zijn over heel veel cellen waar deze cel toevallig een deel van uitmaakt. En de cel kan bijdragen aan andere codes waar we geen weet van hebben omdat die niet getest zijn.

Door onze focus op die ene cel verliezen we het totaal uit het oog – en daardoor weten we eigenlijk nog steeds vrij weinig. De indruk die wel ontstaat is dat er een hiërarchie bestaat in het brein, waarbij sommige cellen gevoelig zijn voor veel verschillende stimuli en anderen die veel meer gespecialiseerd zijn, waarbij de gespecialiseerde cellen veel bijdragen aan de herkenning van een bepaald concept. Maar wat die ‘topcel’ dan precies codeert is alsnog een grote vraag.

Als je niet teveel wil inzoomen op een enkele cel kan je als wetenschapper ook de bedrading als geheel onderzoeken: welke cellen zijn precies met elkaar verbonden? Dit wordt het connectome genoemd. Dit is alleen voor de meest eenvoudige dieren te doen. Een enkele hersencel kan verbindingen hebben met tientallen andere cellen en dat kan wel 30m bedrading betekenen.

In de jaren tachtig lukte het voor een wormpje: C.elegans. Het wormpje heeft 900 cellen, waaronder 300 neuronen. Seymour Benner kreeg er de Nobelprijs voor. Inmiddels wordt aan een diagram van de fruitvlieg larve gewerkt. Daarmee lijkt iets wat ook maar in de verste verte lijkt op de complexiteit van een zoogdierenbrein nog ver weg.

En dan is de vraag wat die bedrading laat zien. Onderzoek liet zien dat bij verantwoordelijkheden op verschillende manieren in het netwerk terecht kunnen komen. Met andere woorden voor zover we al een eenduidig antwoord uit te halen is over wat de fysieke bedrading is, dan kan hersenactiviteit nog altijd op verschillende manieren door die bedrading ontspinnen. Cellen kunnen verschillende rollen aannemen. Dat roept de vraag op hoe dit breinkaart project ooit inzichten gaat opleveren waar we direct mee doorkijken. Op zijn minst zullen we moeten modelleren wat er op die infrastructuur gebeurd.

Computers
Daar komen computers weer van pas het brein kan softwarematig gesimuleerd worden. Vroege pogingen lijken op wat nu het neurale netwerk genoemd wordt. Er is een input en een output en stukjes software daar tussen in (verborgen lagen) die signalen bewerken en doorgeven aan andere cellen.

In principe is dit een krachtig model van hoe het brein werkt en het heeft ons lerende en patroonherkennede computers gebracht, maar weinig inzicht in hoe het brein werkt. Op zich kan je monitoren hoe de software veranderd op basis van een leertaak, maar dat heeft zo weinig inzicht gebracht dat van AI gezegd wordt dat het een soort alchemie is. Soms werkt het goed, maar soms ook niet en niemand lijkt te kunnen begrijpen waarom dan.

Een indrukwekkende loot aan deze stam zijn brein-computer interfaces. Via een implantaat bouwen wetenschappers een directe link tussen het brein en een computer. Mensen kunnen zo met hun brein een prothese leren besturen en er zijn ook pogingen protheses voor de zintuigen, zoals de ogen, te maken. Het lijkt het ultieme bewijs dat we het brein zo goed begrijpen dat we het onder controle kunnen krijgen, maar feitelijk zien we hoe twee lerende systemen zich op elkaar aan kunnen passen. Het brein leert de input van de prothese verwerken, de prothese leert patronen in de elektriciteit van het brein te herkennen. Die lerende systemen blijken succesvol samen te kunnen werken en, hoe indrukwekkend dat ook is, het leert ons weinig over de precieze werking van het brein.

Chemie
Tot nu toe hebben we vooral de elektrische kant van het brein besproken, maar het brein is ook een chemische fabriek.

De ontdekking van LSD luide een tijdperk in waarin de chemie van het brein volop in de belangstelling kwam te staan. De werking werd toevallig ontdekt door Albert Hofman in 1943 toen hij het stofje, ontwikkeld als middel om beter te kunnen ademen tot zich nam en tijdens een fietstochtje in een hallucinante trip belande.

Er was wel bekend dat er stoffen waren die je stemming konden beïnvloeden, maar zulke sterke en precieze effecten op het brein waren onbekend. Al snel werden ook andere stoffen ontdekt zoals antidepressiva en lithium. De ontdekking van deze stoffen viel ongeveer samen met de vaststelling dat de overdracht van neuroactiviteit chemisch en dus niet elektrisch van aard is. Het had een enorme impact op de psychiatrie (destijds nog in de ban van psychoanalytica), maar na deze vruchtbare beginperiode liep de vondst van psychoactieve stoffen dood.

Er werden honderden chemische stoffen geïdentificeerd die op verschillende tijdschalen een effect op het brein hebben, waardoor er een nieuwe laag van complexiteit aan ons begrip van het brein werd toegevoegd. Alsof een brein dat puur elektrisch werkt al niet ingewikkeld genoeg was. Helaas begrijpen we nog weinig van de precieze rol van al deze stoffen en is het toedienen van psychoactieve stoffen aan het lichaam een vrij grofmazige methode om het brein mee te behandelen. Daarom – en omdat er al jaren geen goede kandidaten zijn – loopt dit onderzoek een beetje dood.

Lokalisatie
Naast lokalisatie van het geheugen is ook lokalisaties van functie nog altijd een onderwerp van onderzoek. Dit onderzoek nam in de tweede helft van de 20e eeuw een grote vlucht door fMRI. fMRI is een indrukwekkende scanningstechniek die vrij precies kan vaststellen waar er bloed door het brein stroomt. Dit wordt op haar beurt als een indicator van activiteit gezien. Vrij precies is overigens nog altijd zeer grofmazig in relatie tot individuele hersensellen: een gebiedjes van één fMRI pixel bevat 5,5 miljoen neuronen.

fMRI is populair omdat op relatief eenvoudige wijze kan worden aangetoond dat bepaalde hersengebieden actief zijn bij bepaalde taken, waarop een hersengebied voor specifieke emoties, bepaalde soorten beelden en andere stimuli geïdentificeeerd kunnen worden. Het idee achter dit programma is dat we die hersengebieden één voor één in kaart kunnen brengen, waarmee we een basis leggen om ook iets te zeggen over de samenwerking van al die gebiedjes. We kunnen de losse radertjes als het ware later weer in elkaar zetten om te laten zien hoe de machinerie van ons denken werkt.

Het probleem is echter er geen bewijs is dat zulke specialisaties bestaan. Immers dat een bepaald gedeelte actiever is tijdens een bepaalde taak zegt niet zoveel over wat het gebied precies doet en in hoeverre het steun ondervind van andere hersenonderdelen, noch hoe het zou reageren op andere stimuli. Het is vrijwel onmogelijk om op basis van al deze losse experimenten ook maar te begrijpen hoe het hersendeel zelf werkt.

En dan is er nog de vraag of die fMRI metingen zelf wel deugen. Omdat er zoveel statistiek nodig is om tot de beelden te komen is er een risico op ‘vals positieven’: experimenten met een uitkomst zonder dat er iets aan de hand was. Dat dit kan optreden is op spectaculaire wijze aangetoond door onderzoekers die een hersengebied vonden voor het herkennen van emoties in een dode zalm. Ze schreven het artikel over de dode zalm vervolgens precies op zoals onderzoekers die fMRI bij levende mensen toepassen doen, waardoor ze extra pijnlijk duidelijk maakten dat deze wetenschap niet zo sterk is als dat de auteurs zelf geloven.

Ook de interpretatie dat fMRI tenminste heeft laten zien dat lokalisatie de regel en niet de uitzondering is in het functioneren van het brein lijkt niet te kloppen. Veel experimenten laten ook zien dat veel taken in het brein gedistribueerd zijn over het hele brein. Zoals de beroemde spiegelneuronen, die eerst verondersteld werden om met weinig op een bepaalde plek te zitten, maar later toch verdeeld bleken over het hele brein. 11% van de neuronen uit de neocortex blijken spiegelneuronen te zijn. Eigenlijk is de uitkomst van al dit onderzoek dat lokalisatie nooit het hele verhaal vertelt en dat we nog altijd weinig weten van hoe het brein haar netwerken organiseert.

Lokalisatie van functies in netwerken van cellen is nog altijd een plausibele hypothese, maar die netwerken zijn zeker niet altijd ook geconcentreerd in de ruimte. De fMRI heeft dezelfde problemen als de Jennifer-Aston-cel experimenten – en die zijn nog lang niet opgelost.

Bewustzijn
Als we toch aan het meten zijn: wat zou het mooi zijn als we op een fMRI plaatje precies konden zien waar het bewustzijn zit zodat we eindelijk kunnen vaststellen dat, en hoe, het bewustzijn een product is van hersenactiviteit.

Experimenteel is dat niet triviaal. Je moet immers onbewuste hersenactiviteit met bewuste hersenactiviteit vergelijken. Maar iemand een cognitieve taak geven, zoals in fMRI gebruikelijk is werkt hier niet voor omdat dit allemaal ‘bewuste’ taken zijn.

Toch is er wel onderzoek uitgevoerd naar de ‘neurologische correlaten van het bewustzijn’. Men is begonnen met het meten van hersenactiviteit bij het ontwaken. Dat ligt voor de hand omdat we bij het slapen niet bewust zijn en bij het wakker worden wel. Dat onderzoek liep echter dood omdat het signaal te vaag was.

Ander onderzoek richtte zich op de rol van hersenhelften. Dit was mogelijk bij dieren en mensen van wie de hersenhelften operatief gescheiden waren. Dit onderzoek gaf in ieder geval sterk bewijs dat het brein een rol speelt in het bewustzijn. Bij mensen met losgesneden hersenhelften kunnen de beide helften apart van elkaar bestudeerd worden, omdat de visuele input verdeeld is. Het rechteroog is gekoppeld aan de linker hersenhelft en andersom.

De experimenten laten zien dat de twee hersenhelften allebei tekenen van bewustzijn tonen, hoewel dit makkelijker te onderzoeken is voor de linker hersenhelft waar onze taalproductie zit. Beide helften lijken zich echter op geen enkele manier van de ander bewust. De suggestie van deze experimenten is dat als je het brein splitst je ook twee verschillende bewustzijnen krijgt. Hetgeen in ieder geval de suggestie werkt dat breinactiviteit en bewustzijn sterk samenhangen.

Nieuw onderzoek richt zich op het stimuleren van bepaalde delen van het brein. Zo zijn er delen van het brein die door gestimuleerd te worden gevoelens van angst oproepen bij de proefpersonen. Of er een deel van de hersenen bestaat dat angstbewustzijn controleerde is maar zeer de vraag. Dezelfde cellen zijn bij andere processen ook betrokken.

Samengevat is er hooguit zwak empirisch bewijs voor de relatie tussen het brein en het bewustzijn. Genoeg om de stelling te ondersteunen dat het bewustzijn veroorzaakt wordt door het brein, maar niet genoeg om licht te werpen op hoe dat dan in zijn werk gaat. Er zijn in de laatste jaren theorieën ontwikkeld over deze relatie, maar overtuigend empirisch bewijs, of zelfs de definitie van hoe dat bewijs er uit moet zien is er gewoon nog niet.

Tot slot
De moderne wetenschap heeft met haar technologisch vernuft, en focus op wat meetbaar is enorm veel kennis opgeleverd over de biologie van het brein. Maar het wel de vraag of we nu ook beter grip hebben op de werking van het brein. We zien het als een orgaan dat informatie opslaat door netwerken van cellen aan te passen. Maar hoe dat in zijn werk gaat; hoe die netwerken zelf georganiseerd zijn; wat de rol is van al die chemische stoffen die bij het proces betrokken zijn en hoe belangrijk lokalisatie is? Eigenlijk weten we daar nog heel weinig van af.

We hebben er duizenden puzzelstukjes bij gekregen, maar niet zoveel nieuwe ideeën over hoe het brein zou kunnen werken waar al die puzzelstukjes in passen. In die zin kun je je afvragen of we zoveel verder zijn dan een halve eeuw geleden. Er is door het empirische geweld en de explosie van onderzoek in de neurologische breinwetenschap veel hard bewijs, maar weinig ideeën over wat we eigenlijk proberen te bewijzen.

Een kernprobleem lijkt te zijn dat het bewijs op macroniveau: “hoe reageert het totale netwerk op een impuls” slecht te koppelen is aan het mesoniveau “welke activiteit zien daarbij we in de hersenen” en het microniveau “hoe reageert één cel. Het is natuurlijk niet uit te sluiten dat die schakels snel zullen gevonden worden, maar de bottleneck lijkt eerder in ons denken over het brein te zitten dan in de metingen waar in de moderne tijd zo de nadruk op is komen te liggen.

Meer lezen?
Dit blogje is in zijn geheel gebaseerd op ‘The Idea of the Brain’ van Matthew Cobb. Het maakt het derde deel uit van een quintologie, die begon met de post ‘brein quintologie’, verder ging met ‘op zoek naar het brein’ en ‘informatieverwerker’ en nog verder gaat met ‘het onbegrijpelijke brein‘.

Ik schreef al eens over de ontwikkeling van ‘little science naar big science‘, iets dat zich spiegelt in de breinwetenschap, besprak het bewustzijn in ‘wil‘ en het geheugen in geheugenmachine.

Deze blogjes zijn natuurlijk nog het meest bedoeld om jullie lekker te maken om ‘The Idea of the Brain‘ zelf te lezen.

Informatieverwerker

Hebben we het brein altijd al gezien als een ‘soort computer’. Niet bepaald.

Waar we in de industriële revolutie het brein vooral probeerden te begrijpen met de begrippen die we ook voor de toenmalige machines inzetten: krachten, elektriciteit, scheiding van functies, werd in het begin van de 20e eeuw ‘informatie’ pas het dominante begrip.

Met de introductie van de meet- en regeltechniek en later ook de computer, was een generatie machines ontstaan die misschien meer geschikt was om als model voor het brein te dienen dan de stoommachine en haar opvolgers. Dit blogje gaat in op de omslag in ons denken over het brein als gevolg van die ontwikkeling.

Inhibitie (19e eeuw)
Misschien was het een wetenschappelijke ontwikkeling die eind negentiende eeuw gedaan werd die ons voor het eerst op het informatiespoor zette: inhibitie. Inhibitie is het effect dat sommige zenuwen lichaamsfuncties remmen in plaats van stimuleren.

In 1845 lieten Ernst en Eduard Weber zien dat elektrische stimulatie van bepaalde zenuwen de hartsnelheid kon verlagen in plaats van verhogen. Natuurlijk, dit idee van het lichaam als regelsysteem paste wel in de mechanische (pneumatische) metaforen die in die tijd voor het zenuwstelsel opgang vonden, maar het was niet makkelijk te onderzoeken en het was onduidelijk hoe het voor het brein werkte.

De vragen die inhibitie opriepen werden nog versterkt door de ideeën van Hermann von Helmholtz die liet zien dat perceptie geen passief proces was. Het oude idee was dat de wereld een indruk op ons brein achterlaat, maar Helmholz had redenen om een actief proces te veronderstellen. Het argument was dat het brein een 3D wereldbeeld construeert uit twee 2D beelden die door beide ogen worden waargenomen. Dit gebeurt onbewust, maar het betekent wel dat de beelden waar we ons bewust van worden gezien moeten worden als een soort conclusie die aan het bewustzijn gevoerd wordt, eerder dan een directe afdruk van de buitenwereld.

Helmholz’ idee werd ondersteund door de filosofie van Emuanuel Kant die stelde dat perceptie ontstaat doordat het brein haar kenvermogen op de werkelijkheid projecteert. Beide ontdekkingen gaven aanleiding om het brein als een proactief orgaan te zien, eerder dan een passieve waarnemer van de werkelijkheid. De vraag bleef alleen: hoe dan?

Neuronen (19e en 20e eeuw)
Vandaag de dag zouden we ongetwijfeld neuronen bij ons antwoord betrekken. Neuronen zijn de cellen waar ons zenuwstelsel uit is opgebouwd, maar het duurde lang voordat zelfs maar kon worden vastgesteld dat het cellen waren.

Neuronen zijn met elkaar verbonden via fijne vertakkingen die moeilijk waarneembaar zijn. Daardoor kon niet worden vastgesteld of het zenuwstelsel uit losse cellen bestond of dat het eerder een weefsel was dat tussen andere cellen lag. Hier kwam verandering toen Camillo Goglin bij toeval een techniek ontdekte die bij het afdrukken de zenuwcellen een andere kleur gaf dan omliggende cellen. Nu konden zenuwcellen zichtbaar gemaakt worden.

De techniek werd verbeterd door een andere wetenschapper: Ramon Cajal. Maar beide wetenschappers verschilden van mening over wat de prints met zenuwcellen eigenlijk lieten zien: een weefsel of losse cellen. Toen Golgi en Cajal samen de Nobelprijs kregen waren ze het nog altijd oneens. Uiteindelijk werd aangetoond dat zenuwcellen inderdaad als cellen gezien moeten worden en niet als een weefsel.

Dit inzicht bracht de wetenschap wel verder. Met een bouwsteen in handen: de cel, het neuron, kon het zenuwstelsel veel beter onderzocht worden. Langzaam werd duidelijk dat zenuwcellen verschillen in vorm, dat er op verschillende locaties cellen met verschillende vormen bestaan – hetgeen op specialisatie duidt- dat de cellen vertakkingen als ingangen hebben (dendrieten) en dat ze uitgangen hebben (axonen). Dat de overgang tussen twee zenuwcellen een belangrijke rol speelt in hun functioneren (de synaps).

Ook werd duidelijk dat stroom maar in één richting door de hersencel kan. En dat de cellen er in slagen spieren te activeren via een chemisch proces bij de overgang tussen twee cellen. Deze laatste bevinding was de uitkomst van een lang wetenschappelijk dispuut waarin voorstanders van een chemische theorie (soups) lijnrecht tegenover die van een elektrische theorie (sparks) stonden.

Hoe meer we wisten van het brein door deze lijn van onderzoek, hoe meer het misschien begon te dagen dat we nog weinig wisten. De telefooncentrale was lang een metafoor geweest om het brein mee te begrijpen, maar het was duidelijk dat als de neuronen al als schakelaars gezien moesten worden, dat ze wezenlijk anders werkten dan de schakelingen in deze centrales.

Machines (20e eeuw)
Het gebruiken van ideeën uit de techniek om het lichaam te begrijpen is vermoedelijk al zo oud als het denken en we zijn het in deze geschiedenis van het denken over het brein al verschillende malen tegengekomen. Maar in de 20e eeuw draaiden onderzoekers de richting om. Ze gingen pogingen doen om het brein in technische zin na te maken, ze ontwikkelden robots.

De meet- en regeltechniek kwam op en machines die bijvoorbeeld een koers vast konden houden werden daardoor mogelijk. Thomas Ross bouwde een robot die via trial en error zijn weg door een doolhof kon vinden en dit daarna kon herhalen; de meest eenvoudige manier om een leerproces weer te geven. Maar in veel opzichten was Ross’ machine niet meer dan een gimmick. Een wijziging in het doolhof maakte al dat de robot zijn weg niet meer kon vinden.

Het onderzoek naar inhibitie had al aangetoond dat neuronen ook deel uit maken van een meet en regelsysteem. We wisten alleen nog niet hoe. Onderzoek naar de elektrische werking van neuronen gaf antwoorden – en nieuwe vragen.

Elektriciteit gaat heel anders door een neuron dan door een metaaldraad en ook veel langzamer. De eerste biochemische modellen werden voorgesteld om dit te kunnen verklaren. Ook werd ontdekt dat zenuwen alles-of-niets gedrag vertonen. Ze zijn in essentie digitaal. Ze kunnen met een hogere frequentie signalen doorgeven, maar het signaal zelf is altijd even sterk.

Met behulp van, in de eerste wereldoorlog ontdekte radioversterkers, lieten Edgar Adrian en Yngve Zotterman zien dat (1) neuronen digitaal van karakter zijn, (2) ze stoppen met vuren als ze teveel gestimuleerd worden en (3) dat de intensiteit uitgedrukt wordt in frequentie en niet in amplitude. Later paste Adrian deze versterkingstechniek ook op het brein als geheel toe en ontdekte dat het brein in rust in een bepaalde frequentie actief is (we noemen dat nu alfagolven).

Deze ontdekkingen lieten misschien eerder de ‘vreemdheid’ van het zenuwstelsel zien dan dat het antwoorden gaf over de werking, maar het introduceerde, samen met de robotexperimenten, begrippen in het denken over het brein die later heel centraal zouden worden: informatie, code en boodschap.

Controle (20e eeuw).
En toen werd de computer uitvonden: eerst op papier door Alan Turing en John von Neuman, in de jaren 40, en later in de jaren 50 werden ze ook gebouwd. Turing bewees dat de ‘Turing machine’, een vrij eenvoudig denkbeeldig apparaat, werkelijk elke berekening kon uitvoeren die denkbaar was. Kon het niet zo zijn dat het brein hetzelfde in elkaar zat?

In de vroege ontwikkeling van de computer was er veel enthousiasme over deze ideeën. Het vakgebied van de cybernetica kwam er uit voort. Hier stond de symbolische verwerking van signalen en communicatie centraal. Maar de droom dat het op korte termijn mogelijk zou zijn een computer te maken die het menselijk brein zou simuleren spatte al snel uiteen.

De eerste intelligente robots waren ook niet erg intelligent, maar wat erger was, de binaire werking van de computer leek niet op de werking van neuronen. Die zijn in principe ook binair, maar ze verwerken signalen op een analoge manier. Signaalsterkte word uitgedrukt in vuurfrequentie. De logische schakelingen in de computer met en-poorten en of-poorten kunnen helemaal niet met een dergelijk signaal omgaan.

Het idee dat het brein een machine is die symbolen verwerkt is blijven hangen, maar er was echt een model nodig van hoe de biologie die verwerking aanpakt voordat deze lijn van denken iets wezenlijks kon opleveren.

Tot slot
Het zenuwstelsel is te zien als een regelsysteem en als een informatieverwerker. In veel opzichten denken we er nog altijd zo over. En toch hebben de meet- en regeltechniek en computerwetenschappen de belofte dat ze ons zouden helpen om het brein te begrijpen maar zeer gedeeltelijk ingelost.

Op sommige niveaus lijkt ons zenuwstelsel op een regelsysteem, maar de soorten signalen die het gebruikt zijn heel anders dan hoe we dit in de techniek hebben opgelost. Steeds moesten we concluderen dat het brein toch echt anders werkt dan de techniek die we als model gebruikten.

En dan is er nog de vraag hoe het allemaal schaalt. Hoe ontstaan uit al deze signaalverwerking ‘intelligentie’ en ‘bewustzijn’? Het is nog altijd een vraagstuk waar we slecht raad mee weten. Daarom zijn we, zoals ik in mijn volgende blogje laat zien, computers maar gaan inzetten om het brein beter door te meten en te modelleren, in plaats van zelf als een model voor het brein te dienen.

Meer lezen?
Dit blogje is in zijn geheel gebaseerd op ‘The Idea of the Brain’ van Matthew Cobb. Het maakt het derde deel uit van een quintologie, die begon met de post ‘brein quintologie’, verder ging met ‘op zoek naar het brein’ en nog verder gaat met ‘gedachtenmeting‘ en ‘het onbegrijpelijke brein‘.

Ik schreef al eerder over de wisselwerking tussen informatiewetenschappen en technologie en in ‘reading James Gleick’s the information’ en over de ideeën van Emanuel Kant in ‘kenvermogen

Deze blogjes zijn natuurlijk vooral bedoeld om jullie lekker te maken om The Idea of the Brain zelf te lezen.

Op zoek naar het brein

Hoe zijn we er achter gekomen dat onze zielenroerselen: ons denken over hele spectrum van de meest alledaagse gedachten tot speculatie over de diepste vragen over onszelf en het bestaan, allemaal voortgebracht worden door een paar kilo weefsel ergens in ons hoofd?

Tot de negentiende eeuw was de vraag waar het denken plaatsvind al even urgent als de vraag hoe het denken werkt. Omdat we nog weinig wisten van de natuurkunde en de biologie, en omdat we geen apparatuur hadden om eens goed te kijken wat er nou gebeurde, laat de breinwetenschap zich tot de negentiende eeuw nog kenmerken door veel gis- en conceptueel denkwerk. Iets waar we in de huidige tijd van (ver) doorgevoerd empirisme misschien juist wat meer behoefte aan hebben.

In ‘The Idea of the Brain’ laat Matthew Cobb zien dat het denken over het brein, altijd sterk is beïnvloed door heersende theorieën buiten de breinwetenschap. Dat dat ideeën heeft opgeleverd waar we nog steeds op bouwen, mag haast niet verbazen.

Hart (tot 17e eeuw)
De eerste vraag die beantwoord moet worden is natuurlijk waar het brein zich bevind, of preciezer: waar komen gedachten en gevoelens eigenlijk vandaan. Lang was het meest gegeven antwoord daarop het hart. Dat is ook niet zo vreemd als je je bedenkt dat je hartslag veranderd als je emotioneel wordt en omdat het een actief orgaan is, net zoals de gedachten actief zijn. Zonder de biologielessen op de lagere school had je er waarschijnlijk net zo over gedacht.

Het is dan ook niet verrassend dat dit idee van het hart als drager van het denken lang dominant is geweest in de wetenschapsgeschiedenis. Overigens niet in de laatste plaats om dat Aristoteles deze visie onderschreef. Zijn gedachtegoed bleef tot in de middeleeuwen dominant in Europa.

Het idee dat het centrum van het denken in ons hoofd zit en ideeën over de functie van de zenuwen ontstonden door experimenten op mensen en dieren. Leerlingen van Aristoteles viel het bijvoorbeeld al op dat mensenhersenen een complexere vorm hadden dan hersenen van dieren, terwijl mensen ook intelligenter leken dan die dieren.

Na de Romeinse tijd lag het centrum van de wetenschap in de Arabische wereld, waar ideeën over het hart en het brein als oorsprong van ons mentale leven gebroederlijk naast elkaar bestonden. Het brein bestond misschien uit kamers met verschillende functies zoals waarnemen en inbeelden, redeneren en onthouden? Al die functies konden een eigen plek hebben in het brein. Misschien werden ze bewoond door geesten, die weer hun oorsprong in het hart hadden. Nog in de Romeinse tijd werd deze kamerhypothese weerlegd door anatomisch onderzoek. Er was in de anatomie van het brein niets te zien wat die functies kon verklaren.

Krachten (17e tot 18e eeuw)
In de wetenschappelijke revolutie mechaniseerde ons wereldbeeld. Wetenschap en techniek gingen hand in hand om oplossingen te vinden waarmee arbeid geautomatiseerd kon worden. Deze mechanische techniek werd vervolgens gebruikt als metafoor om mensen en dieren weer te begrijpen. Beroemd zijn plaatjes uit die tijd waar dieren voor het eerst als robots worden afgebeeld.

Zo verging het ook het brein. René Descartes dacht dat de geest iets fundamenteel anders was dan het lichaam en dat de eerste de laatste wist te besturen via de pijnappelklier. Het kernprobleem was hoe het brein er in kon slagen om invloed uit te oefenen op het lichaam. Dat de zenuwen hier een rol in speelden werd algemeen aangenomen, maar hoe de zenuwen hier een rol in speelde bleef een groot raadsel. Oudere ideeën suggereerden dat die invloed het gevolg was van een bepaalde zenuwlucht (pneuma) of dat het hydraulisch zou moeten gaan, via een vloeistof.

Gelukkig was de microscoop net uitgevonden. Die wees uit dat de zenuwen geen plaats hadden voor vloeistoffen of gassen. De filosoof John Locke stelde daarom voor dat het brein moest bestaan uit ‘denkende materie’. Dit werd als godlasterend gezien omdat het uitsloot dat de ziel onsterfelijk was en omdat het de mogelijkheid inhield dat dieren, maar ook niet levende objecten zouden kunnen denken – een absurde consequentie.

Elektriciteit (18e en 19e eeuw)
De opvolger van het krachtenidee was het idee van elektriciteit dat in de 18e eeuw populair werd. Hoewel dat nu een ‘correct’ idee lijkt, laat de geschiedenis vooral zien hoe weinig vooruitgang ermee geboekt werd.

Dat komt niet in de laatste plaats omdat elektriciteit zelf nog nauwelijks begrepen werd. Eerst was het nog vooral iets van circussen waar elektriciteit als rariteit getoond werd. Later kreeg men iets meer controle met de uitvinding van de condensator er later de batterij. Hoewel er bewijs was dat elektriciteit beweging kon stimuleren: in kikkerbenen en in andere dieren – en dat bepaalde sensaties elektrisch konden worden opgewekt, was geenszins duidelijk hoe dit precies samenhing met de werking van de hersenen of het brein.

Één probleem was dat zenuwsignalen veel langzamer waren dan elektriciteit in geleidende draden. Hermann von Helmholtz toonde aan dat zenuwsignalen ongeveer 30m per seconde gaan. Dat is vrij weinig, en dat roept daarom vragen op over de perceptie (die zou dus altijd achterlopen), maar ook over elektriciteit als oorzaak van het denken (daarvoor lijkt snelheid essentieel). Een ander probleem dat het niet logisch leek verschillende sensaties zoals zicht en gehoor dezelfde oorzaak zouden hebben. Ondanks dit gebrek aan bewijs was het idee van het elektrische brein populair, misschien nog het duidelijkst weergegeven in Mary Shelly’s roman Frankenstein.

Functie (19e eeuw)
In de achttiende en negentiende eeuw komt ook het idee van functie, en functielokalisatie op. Dit past in het idee van het brein als een machine.

Het idee is dat bepaalde delen van het brein verantwoordelijk zijn voor bepaalde functies. De schedelmetrie was op dit idee gebaseerd. Aan de hand van bulten in de schedel zou je iets kunnen vaststellen over iemand karakter. Schedelmetrie was altijd al controversieel en raakte uit de mode door gebrek aan bewijs.

Toch is lokalisatie geen vreemd idee. Er was bewijs doordat mensen met gedeeltelijk hersenletsel ook delen van hun vermogens kwijtraakten. En het kon experimenteel aangetoond worden dat dieren bepaalde dingen niet konden als specifiek letsel werd aangebracht. Of dat het toekennen van elektrische stoom in bepaalde delen van het brein dit effect hadden.

Dergelijke experimenten konden natuurlijk niet bij mensen gedaan worden, hoewel sommige artsen hun kans grepen als ze konden. Berucht is het experiment op Mary Rafferty, door Roberts Bartholow. Mary’s brein lag bloot vanwege een scheur in haar schedel. Bartholow zette deze, naar eigen zeggen met goedkeuring van de patiënt, op verschillende plekken onder stroom hetgeen tot verschillende onwillekeurig reacties van de patiënt leidde.

Het experiment werd met interesse én afschuw bekeken. Het gaf steun aan het idee dat het brein gespecialiseerde gebieden kent, maar het werd ook als hoogst onethisch gezien. Naast ethische vragen was er iets anders waardoor het spoor doodliep. De middelen om experimenten te doen met zwakstroom of om beschadiging toedienen op bepaalde plekken in het brein waren zó grofmazig dat er te weinig echt nieuwe ontdekkingen mee gedaan konden worden.

Evolutie (19e eeuw)
De evolutietheorie wierp een nieuw licht op alle biologie, en dus ook op het brein. Op dit moment is het lastig een theorie te bedenken over het lichaam als het niet te verklaren is hoe een en ander geëvolueerd is, maar in de tijd van Charles Darwin moest de evolutietheorie bewijzen dat het oplossingen bood voor problemen van andere theorieën.

Om eerlijk te zijn lukte dat voor het brein aanvankelijk maar matig. Darwin was heel terughoudend met zijn ideeën over de evolutie van het brein en kwam pas geruime tijd na de ‘Origin of Species’ met het boek ‘The Decent of Man’ waarin hij zijn theorie over de evolutie van intelligentie ontvouwde.

Hierin vinden we een focus op gedrag, hoe insecten sociale vermogens hebben en er gelijkenissen zijn tussen het gedrag van mensen en andere dieren en hoe huisdieren en primaten emoties lijken te hebben. Het past mooi in het gradualistische karakter van Darwins denken: mensen hebben een combinatie van eigenschappen die we overal in de natuur terugvinden en die ontstaan zijn in een lange evolutionaire geschiedenis – bepaalde aspecten van de menselijke intelligentie zijn misschien verder ontwikkelt dan bij andere dieren, maar ze zijn niet essentieel verschillend.

Het was, en het is eerlijk gezegd nog steeds, zó moeilijk voor mensen om hun uitzonderingspositie in de natuur op te geven dat Darwins ideeën tot op de millimeter bevochten werden. Nog altijd heeft een wetenschapper als Frans de Waal moeite om de wetenschappelijke gemeenschap te overtuigen dat dieren empathie kunnen hebben. En het idee dat andere dieren dan mensen bewustzijn kunnen hebben wordt nog altijd bevochten.

Een belangrijk conceptueel probleem voor de evolutietheorie is dat het geen licht werpt op de relatie tussen het brein en ons bewustzijn. Hoe produceert het brein gedachten? De evolutietheorie heeft geen antwoorden. Snel na Darwins dood werd het idee van George Romanes populair dat alle materie bewustzijn heeft. Er zou een alles doordringende telepathische substantie bestaan, die los stond van de materie, maar die er wel mee kon interacteren. In de maalstroom van speculaties over het brein verdween het idee van evolutie naar de achtergrond, omdat het nog onvoldoende overtuigingskracht had.

Tot slot
Veel ingrediënten van het moderne denken over het brein hebben wortels in in de vroege wetenschap: elektriciteit, lokalisatie van functie en evolutie. Maar deze jaren laten ook zien hoe een gebrek aan sterke ideeën over natuurkunde en biologie en -zoals we in de volgende blog zullen zien: informatiekunde – de breinwetenschap bemoeilijkten.

Er was te weinig empirisch bewijs om het denken bij te sturen. Daarom zien we in deze periode veel waardevolle speculatie en nog weinig experimenten die het denken dwingen antwoord te geven op specifieke vragen over het brein -en hoe het ons denken stuurt. Het was wachten op de twintigste eeuw waarin in de vorm van nieuwe technologie, nieuwe modellen voor het begrijpen van het brein ontstonden én waar nieuwe manieren om het gedrag van het brein te leren kennen opgang deden.

Meer lezen?
Dit blogje is in zijn geheel gebaseerd op ‘The Idea of the Brain’ van Matthew Cobb. Het maakt het tweede deel uit van een serie die begin met de post ‘brein quintologie’ en verder gaat met ‘informatiewerker’, ‘gedachtenmeting‘ en ‘het onbegrijpelijke brein‘.

Over de evolutietheorie schreef ik als eens eerder in ‘evolutiesnelheid

Deze blogjes zijn natuurlijk vooral bedoeld om jullie lekker te maken om The Idea of the Brain zelf te lezen.

Brein quintologie

Hoe denken, wij mensen, eigenlijk over onze eigen intelligentie? Matthew Cobb probeert in ‘The Idea of the Brain’ uiteen te zetten hoe het denken over het brein zich door de tijd heen ontwikkeld heeft. Dat is snoepen natuurlijk. Wetenschapsgeschiedenis is altijd al boeiend omdat het ons iets leert over hoe we, met vallen en opstaan, aan kennis komen. Maar als het onderwerp van die geschiedenis dan ook nog het orgaan is waar we die kennis mee opdoen, dan kan een beetje kentheoreticus zijn geluk niet op. Maar Cobb maakt het ons tegelijkertijd helemaal niet makkelijk. 

Cobb laat zeker zien hoeveel we meer te weten gekomen zijn over het brein in de loop van de tijd, maar ook hoeveel vragen nog open liggen – en hoe het maar de vraag is of we met de huidige wetenschappelijke aanpak antwoorden kunnen krijgen op die vragen. ‘The Idea of the Brain’ is het verslag van een onvoltooide reis. Als die reis je interesseert dan moet je het boek zeker bestellen en lezen, maar als je meer geïnteresseerd bent in de bestemming dan is het misschien verstandig om tenminste nog een paar decennia te wachten.

Afijn. Zelf vind ik dat het de reis is die telt en daarom neem ik ook wat meer ruimte dan gebruikelijk om Cobb’s ideeën te bespreken. Ik deel dit blogje op in vijf delen. Na deze overzichtspost ga ik in het tweede blogje in op de oude geschiedenis van het denken over het brein. In de oude geschiedenis moesten we leren dat onze intelligentie geproduceerd wordt door een orgaan, dat het zenuwstelsel en de hersenen dat orgaan vormen en dat het brein helaas niet eenvoudigweg uiteen te rafelen is in radertjes met een specifieke functie die samen onze intelligentie voortbrengen. 

In het derde blogje over dit onderwerp ga ik in op het brein als ‘informatieverwerkende machine’. In de vroege 20e eeuw begonnen we het brein te begrijpen als een orgaan dat signalen verwerkt, en omdat we in dezelfde tijd machines gingen bouwen die dat ook deden, zoals de telegraaf -en later- computers, dachten we dat we een aardig eind waren met het begrijpen ervan. We moesten nog leren dat het brein in een aantal opzichten fundamenteel anders in elkaar zit dan die machines.

In het vierde blogje ga ik in op hoe moderne wetenschappers het brein proberen te begrijpen door detailstudie van de processen die daar plaats vinden. Ze bestuderen hersenactiviteit in zoveel detail als mogelijk, ze proberen het brein te besturen met implantaten en ze proberen hersenprocessen na te bootsen in computers. Al die pogingen zijn op zichzelf erg indrukwekkend, maar Cobb roept wel de vraag op of we met al dat computergestuurd wetenschapsgeweld dichter bij het begrijpen van het brein gekomen zijn.

Tot slot ga ik in het vijfde blogje in op de overkoepelende lessen die we uit het werk van Cobb kunnen trekken: over het brein en over de hersenwetenschap. Over wat we weten en wat we nog mogen ontdekken en over de vraag of al dat gepuzzel wel zin heeft. Tot dan!

Meer lezen?

Dit is het eerste blogje van een serie over ‘The Idea of the Brain’ van Mathew Cobb. In het volgende blogje: op zoek naar het brein ga ik in op de oude breinwetenschappen; in informatieverwerker op de toepassing van het idee van informatie en communicatie op het brein; in gedachtenmeting op de moderne breinwetenschap; en in het ‘onbegrijpelijke brein‘ op de lessen die uit deze wetenschapsgeschiedenis getrokken kunnen worden.

Ik schreef al eens over het bewustzijn in ‘wil‘ en over de werking van het geheugen in ‘geheugenmachine

Ik schreef ook al eerder over wetenschapsgeschiedenis. Bijvoorbeeld in de wetenschapsgeschiedenis van Rens Bod en over de wisselwerking tussen informatiewetenschappen en technologie en in ‘reading James Gleick’s the information’.

Deze blogjes zijn natuurlijk vooral bedoeld om jullie lekker te maken om The Idea of the Brain zelf te lezen.

Wil

Het zou natuurlijk zo kunnen zijn dat ik dit blogje niet schrijf omdat me dat leuk leek en ik ertoe besloten heb, maar dat dat besluit op de een of andere manier voor me genomen is en dat mijn bewustzijn mij om een nog onbekende reden wijsmaakt dat ik dat besluit genomen heb. Of kortweg, dat het idee dat mensen bewuste besluiten nemen een illusie is. 

Dit lijkt een vreselijk omslachtige theorie, maar ze heeft fervente aanhangers, vooral onder neurowetenschappers. Wat bezielt hen toch? Waarom staat het het idee dat we bewuste besluiten kunnen nemen hen zo tegen? 

Het is vast een heel ingewikkelde kwestie, maar twee boosdoeners zijn overduidelijk. De eerste is René Descartes, de Franse filosoof die dacht dat ons denken het bewijs van ons bestaan is. De tweede is  Benjamin Libet die in de jaren 80 een experiment uitvoerde waar we nog steeds van in de war zijn.

Het verhaal van Descartes zal bekend zijn. Hij probeerde aan alles te twijfelen en kwam toen tot de conclusie dat men het lichaam wel, maar de geest niet kan betwijfelen. Dit leidde tot het dualisme. Voor Descartes waren lichaam en geest fundamenteel  verschillende dingen, met een andere substantie. Het lichaam was beperkt, stoffelijk en tijdelijk en de geest was vrij, onstoffelijk een eeuwig. Hoe lichaam en geest elkaar beïnvloedden wist Descartes niet, maar het idee dat de geest voortkomt uit het lichaam ging er bij hem zeker niet in. De geest was leidend, het lichaam hooguit een tijdelijk vehikel. Het dualisme is alweer uit, maar de vraag hoe de subjectieve beleving van het denken, het bewustzijn, samenhangt met de biologische basis ervan, het brein, is nog springlevend. 

In de jaren 80 voerde Benjamin Libet daarom een ingenieus psychologisch experiment uit dat die discussie behoorlijk op scherp zette. Libet vroeg proefpersonen om hun vingers vrijwillig te bewegen en om te rapporteren wanneer ze de aandrang voelden om die beweging uit te voeren, terwijl Libet hun hersenactiviteit mat. Het bleek dat de bijbehorende hersenactiviteit voor die beweging al ruim 200 milliseconde voordat mensen een aandrang voelden om hun vingers te bewegen in de hersenen te zien was. Mensen zetten de beweging al in voordat ze zich er bewust van zijn dat ze dat willen.

Dat is tegenintuïtief. Ons boerenverstand zegt: je moet eerst een besluit nemen voordat je er naar kan handelen. Dus moet je je eerst bewust worden dat je je hand wil bewegen en dan pas de beweging inzetten, niet andersom. Maar die omgekeerde volgorde is wel hetgeen Libet’s data lieten zien.

Zou het zo kunnen zijn dat het bewustzijn niet aan de knoppen van ons handelen zit, maar dat het zo’n beetje met de rest van de hersenen mee hobbelt – en dat het hooguit achteraf gevoel van controle voor ons fabriceert? Het bewustzijn is dan niet een stuur waarmee we richting kunnen geven aan het leven, maar een praatdoos die wat we toch al doen voor ons goedpraat. 

Het is deze naïeve interpretatie van het Libetexperiment die zo populair is onder neurowetenschappers. Dat heeft iets te maken met hun opvattingen over onderzoek. Neurowetenschappers proberen het brein te begrijpen vanuit de harde data die er over verzameld kan worden in EEG’s en fMRI scans. Ze zijn wars van getheoretiseer over het bewustzijn door filosofen, die net als Descartes destijds, met gedachtenexperimenten vast proberen te stellen wat het bewustzijn is. We hoeven allen naar Descartes te kijken om te zien wat voor absurde theorieën daar uit komen.

Daarom kunnen we volgens hen het bewustzijn beter experimenteel bestuderen. Met moderne apparatuur kan je immers de werkelijkheid zelf laten spreken. Voor neurowetenschappers is psychologie is in essentie een natuurwetenschap en ze vinden dat deze ook zo bedreven moeten worden. Dat is zo mooi aan het Libet experiment: het laat met harde data zien dat het bewustzijn niet bestaat.

Het probleem is alleen dat het Libet dat helemaal niet laat zien. Het ironische van de naïeve interpretatie van het Libet-experiment is dat deze in essentie Cartesiaans is. De gedachte is dat er twee verschillende dingen zijn: (1) het bewustzijn en (2) het brein, dat je van elk van die dingen onafhankelijk kan meten wanneer ze actief worden en dat je oorzaak en gevolg kan vastellen door te kijken wie het eerst in beweging komt. Diegene die het laatste komt kan niet de veroorzaker kan zijn van wat de ander doet. 

Dat lijkt een sluitende redenering, maar er deugt iets niet. Want wat hadden we eigenlijk verwacht te zien? Dat mensen zich eerst bewust worden van een besluit en dat er daarna pas hersenactiviteit ontstaat? Waar komt dat bewuste besluit dan vandaan, als het niet uit de hersenen komt? Is het idee echt dat er geen hersenactiviteit nodig is voordat we een besluit nemen en dat ons grijze cellen daarna gaan rennen en vliegen omdat het besluit nu eenmaal moet worden uitgevoerd? 

Het ligt toch veel meer voor de hand dat we in het Libet-experiment verschillende aspecten meten van één proces waarin we een bewust besluit nemen en tot actie over gaan. We kijken niet naar twee dingen maar naar één ding: het nemen van een besluit tot actie. Een bewust besluit gaat natuurlijk gepaard met hersenactiviteit en die heeft tijd nodig om aan te zwellen. Als je dat op verschillende manieren meer is het niet  vreemd dat het ene meetinstrument eerder opmerkt dat er iets gaande is dan het andere instrument. De EEG van Libet was gevoeliger voor de hersenactiviteit die bij het besluit hoorde dan de subjectieve beleving van de proefpersonen en sloeg daarom eerder uit. 

Dat is een weinig opzienbarende uitkomst. Het is niet verbazend dat het nemen van een besluit tijd kost. Het is niet verbazingwekkend dat daar allerlei hersenprocessen bij betrokken zijn. Het is niet verbazingwekkend dat we ons van sommige van die processen bewust zijn en van andere niet. We moeten het brein, het bewustzijn en zeker de vrije wil niet los van elkaar zien.

Het is niet dat het bewustzijn besluiten neemt die het brein vervolgens uitvoert, het brein neemt besluiten en wij zijn ons daarvan bewust. Of misschien nog iets pro-actiever: het bewustzijn neemt deel aan onze besluitvorming. De rol van het bewustzijn is misschien bescheidener dan Descartes voor ogen had en wat we denken te denken heeft misschien minder invloed op ons handelen dan we zouden willen, maar het Libetexperiment laat op geen enkele manier zien dat het bewustzijn een illusie is of dat de vrije wil niet bestaat. 


Wat het experiment wel laat zien is dat je om goede metingen te kunnen doen en die goed te kunnen interpreteren, een goede theorie nodig hebt. Er is te weinig bekend over de werking van het brein om te kunnen weten wat Libet nu precies mat en daardoor kunnen we er ook geen conclusies aan verbinden. Ik heb me er niet genoeg in verdiept, maar dezelfde beperking zou wel eens kunnen gelden voor veel moderner hersenonderzoek waar het idee van het bewustzijn als illusie mee onderbouwt wordt. 

Misschien ergeren de neurowetenschappers zich aan theorieën zoals die van Descartes, maar onderzoekers die de data laten spreken, terwijl ze de theorie verwaarlozen, hebben ons uiteindelijk even weinig te vertellen als filosofen die denken dat twijfel afdoende is om de absolute waarheid te achterhalen. 

Meer lezen?
Ik schreef over het gedachtenexperiment van Descartes in Brein in een vat en over zelfbewustzijn in Poetsvissen, ik schreef ook al eens eerder over Gedachtenexperimenten in het algemeen en over de werking van het brein.

Dit blogje is natuurlijk een heel sterke vereenvoudiging van een complex debat. Een goede beschouwing van het Libet experiment vind je in dit artikel van Jan Verplaetse. Een niet onbelangrijk detail is dat Libet niet hersenactiviteit in het algemeen mat, maar een specifieke hersengolf die het ‘readiness potential’ wordt genoemd. In dit stuk wordt goed uitgelegd wat dat is en wat het naar moderne inzichten wel en niet zou kunnen zeggen over het debat over bewustzijn en vrije wil.

De wetenschapsgeschiedenis van Rens Bod

In zijn boek “Een wereld vol patronen” doet Rens Bod een poging om een totaaloverzicht van de geschiedenis van menselijke kennis te geven. Alle kennis. Niet alleen die sinds de wetenschappelijke revolutie, maar ook van voor de uitvinding van de landbouw. Niet alleen westerse kennis – maar ook die in India, de Arabische wereld en China. Niet alleen de natuur-, maar ook de geesteswetenschappen. Ik weet niet zo snel hoe je een ambitieuzer project kan bedenken.

Ik begon aan “Een wereld vol patronen” omdat ik  de voorganger “De verborgen wetenschappen” prachtig vond. Dat boek verbreedde mijn kennis van de wetenschapsgeschiedenis enorm, omdat ik net zoals de meeste bèta’s vooral geschoold was in de westerse wis- en natuurkunde, sinds de Grieken. Ik had nooit van zoiets als filologie gehoord en het was boeiend om op deze manier ingewijd te worden in de problemen die schriftgeleerden moesten oplossen, de oplossingen die ze vonden en de impact die dat denken vervolgens had op de wetenschappen die ik beter kende.

Ik heb “Een wereld vol patronen” met plezier gelezen, maar het kon me minder bekoren dan “De verborgen wetenschappen”. Dat komt voor een belangrijk deel omdat ik dat boek al gelezen had en de nieuwe verbredingen me minder raakten. Ik zou graag meer weten over hoe kennis in de prehistorie zich ontwikkelde, maar omdat we het met grottekeningen en ingekerfde werktuigen moeten doen valt er per saldo niet zoveel over te zeggen. Het is een groot goed dat Bod de kennis van Arabische, Indiase, Chinese en oude Amerikaanse beschavingen een podium geeft, maar die brede blik zorgt ook dat de afzonderlijke verhalen nog weinig uit de verf komen.

Normatief werkt de brede blik uit het boek prima: dit zijn allemaal dingen die een wetenschapshistoricus in beschouwing zou moeten nemen. Maar de uitwerking al die onderdelen pakt nogal schetsmatig uit, hoe grondig het onderliggende onderzoek ook is. Daar komt nog bij dat Bod, de medische wetenschap uitgezonderd, de engineering disciplines niet meeneemt in zijn overzicht. Dat is een vreemde omissie. Als gebouwen, werktuigen, scheepvaart, aquaducten en stoommachines geen weerslag zijn van systematische kennis, wat dan wel?  Bod slaagt er in de ambitie van een totaalgeschiedenis van menselijke kennis stevig op de kaart te zetten, maar het resultaat  blijft sterk gekleurd door zijn eigen wetenschappelijke achtergrond.

Uiteraard probeert Bod ook duiding te geven aan de ontwikkeling van de menselijke kennis. Om kort te gaan werd de mens zich eerst bewust van patronen: regelmatigheden waarmee losse feiten in verband worden gebracht, zoals de maanstanden, de tonen in gespannen snaren, of de overeenkomsten tussen verschillende bronnen. Later, vanaf de vroege oudheid, zijn mensen daar onderliggende principes bij gaan zoeken: vuistregels, wiskundige begrippen of andersoortige theorieën. De volgende stap was het vinden van herleidingen: regels waarmee principes en patronen met elkaar in verband gebracht kunnen worden, zoals de logica. Daarna werd de focus om het aantal principes terug te brengen en gingen herleidingen een belangrijkere rol spelen. Dit ontaarde in de wetenschappelijke revolutie in de empirische cyclus: in Bod’s visie een  voorbeeld van een patroon in herleidingen.

Om eerlijk te zijn vind ik deze theorie over de ontwikkeling van kennis zonde van het boek. Bod schrijft het volgende over de Indische wetenschapper Panini, die beweerde dat alle taal recursief was:

De Grieken lijken Panini’s werk niet te hebben gekend […] ze zouden Panini zeker hebben gewaardeerd met hun hang naar het ene in het vele. (P98)

Ik vermoed dat de Grieken Bod’s reductie van al het systematische denkwerk uit de gehele mensheid naar een dans van twee soorten begrippen -patronen en principes- om dezelfde reden hadden kunnen waarderen. Hoe krachtig is het als je al die diversiteit, al die denkwijzen, als die subtiele manieren waarop de verschillende wetenschappen elkaar gevoed en beïnvloed hebben terug kan brengen tot een of twee makkelijk te begrijpen begrippen?

Niet zo krachtig als je het mij vraagt. Veel mensen zullen wel het zo zien, maar ik blijk niet erg “Grieks”. Want die twee begrippen zijn maar begrippen. Ik voel met niet verlicht door het idee dat je de grammatica en de afwisseling van dag en nacht allebei als ‘patronen’ kan zien die je vanuit ‘principes’ kan begrijpen. Dat is zó hoog over dat het afleid van die dingen die echt boeien. Het kan toch niet zo zijn dat dit de beste manier is om een zorgvuldige vergelijking  tussen bijvoorbeeld de ontwikkeling van het recht en de ontwikkeling van de natuurwetenschappen in de middeleeuwen te beschrijven? Dat ze zich beiden met principes en patronen bezig hielden is misschien wel waar, maar ook nogal een lege constatering. En dat terwijl Bod juist zo zorgvuldig werk verricht heeft om al die verschillende kennis in kaart te brengen.

De theorie lijkt een poging te zijn om te laten zien dat het menselijke denken een ontwikkeling heeft doorgemaakt en mogelijk dat die is verwetenschappelijkt, en daarmee gaat hij verder dan wetenschapsfilosofen als Popper en Laudan. Die beweren wel dat ze mechanismen voor de groei van kennis kunnen identificeren, maar passen die vervolgens eigenlijk niet toe op de geschiedenis zelf.  Laat staan dat ze er een ontwikkeling in ontwaren. Toch vind ik Bod ook op dit aspect overtuigingskracht missen: er komen veel uitzonderingen voor in het boek en Bod laat het bij beschrijvingen. Een verklaring waarom het denken door de tijd veranderd zou zijn ontbreekt. Interacties tussen de kennis en de context waarin die tot stand komt blijven onderbelicht. Daardoor blijft ook dit ontwikkelingsaspect teveel in het luchtledige hangen.

Kritische noten genoeg dus, maar dit zijn nauwelijks redenen om het boek in de boekhandel te laten liggen. De kracht van het boek zit hem niet in de duiding, het is juist de bloemlezing, de diversiteit die Bod in deze eenvoud probeert te vangen, die het de moeite waard maken. Ik had het liefst gezien dat Bod die diversiteit gewoon lekker vrij had gelaten, maar zo knellend is het patroon-principe-keurslijf nu ook weer niet. Je kunt er gewoon doorheen lezen en genieten van het denken van al die denkers waar je nog nooit van gehoord had die er achter tevoorschijn komt. 

Meer lezen?

Ik schreef over de groei van kennis in Het probleemoplossend vermogen van Larry Laudan, en Groeit kennis? In Anachronismen ging ik in op de moeilijkheid van het achteraf duiden van oude kennisstandaarden. Ik schreef ook al eens over het nut van Geschiedenis in het algemeen.

Er zijn weinig wetenschapshistorici die veel aandacht hebben voor de wisselwerking van de ontwikkeling van kennis en haar toepassing, maar uitzonderingen vormen wel Bruno Latour en ook The Information van James Gleick.

Zowel “De vergeten wetenschappen” en “Een wereld vol patronen” zijn het lezen waard.

Anachronismen

Imre Lakatos, de wetenschapsfilosoof, schijnt gezegd te hebben dat de wetenschapsfilosofie leeg is zonder de wetenschapsgeschiedenis en dat de wetenschapsgeschiedenis blind is zonder de wetenschapsfilosofie

Prachtig. Het zou inderdaad vreemd zijn als filosofen, die theorieën over de wetenschap opstellen, zich niet zouden interesseren voor hoe die wetenschap zich daadwerkelijk voltrokken heeft. Nou ja. Zulke filosofen bestaan wel natuurlijk: Lakatos begon er niet voor niets over. Het is ook lastig om geschiedenis te schrijven als je dat niet vanuit een theoretisch kader doet. Er is veel wetenschapsgeschiedenis. Als je niet specifiek naar iets op zoek bent word het lastig het allemaal te overzien. Hoewel ik me dan weer wel afvraag of de wetenschapshistorici uit de tijd van Lakatos blij waren met de avances van de filosoof. Heel gelukkig is dat huwelijk tussen de filosofie en de geschiedenis toch nooit echt geweest.

Daar zijn goede redenen voor, maar de spelbreker die ik het boeiendst vind is het probleem van de anachronistische kennisstandaarden.

Een anachronisme is iets dat niet in de tijd past. In de middeleeuwen keken mensen niet op hun horloge. In de jaren 90 waren er geen smartphones. In films kan het gebruik van anachronismen heel humoristisch werken. In de films van Monty Python verspreiden historische figuren zoals Koning Arthur en Jezus steeds opvallend moderne denkbeelden. 


Wetenschapsfilosofen die iets willen zeggen over wat kwalitatief hoogstaande kennis is, of die echte van valse wetenschap willen onderscheiden, lopen het risico net zo’n raar figuur te slaan als deze hoofdpersonen. Ze dringen zich niet alleen op aan de historici, maar ook aan de geschiedenis zelf. Er is geen enkel bewijs dat Aristoteles ooit gerandomiseerde dubbelblinde experimenten deed. Maakt dat hem een slechte wetenschapper?


Goed, dat was een flauwe retorische vraag, maar het punt zal duidelijk zijn: in de loop der tijd zijn de standaarden voor wat goede kennis is en voor hoe de wetenschap vooruitgang boekt veranderd. Daarmee is het anachronisme bijna onontkoombaar voor iedereen die iets verstandigs wil zeggen over de wetenschap. Hedendaagse ideeën over wetenschappelijke rationaliteit zeggen weinig over de wetenschap van vroeger en oude ideeën hebben inmiddels hun geldigheid verloren.


Het is ook een waar dilemma, want er zijn niet veel uitwegen te bedenken. Er is de olifant-in-de-porseleinkast benadering van Karl Popper, die beweerde dat de wetenschapsfilosofie normatief is en dat het dus niet gaat over hoe wetenschap is, maar over hoe ze moet zijn. Dat zet de wetenschapsgeschiedenis buitenspel en schoffeert met terugwerkende kracht alle wetenschappers die nog niet van Poppers gouden standaarden op de hoogte waren en zich er niet aan konden houden.


Er is ook de olifant-in-de-porseleinkast benadering van Paul Feierabent, die beweerde dat de wetenschapsgeschiedenis zo grillig is, dat er in het geheel niets te zeggen valt over welke benadering van de wetenschappen werkt en welke niet: anything goes. Daarmee zette hij de wetenschapsfilosofie buitenspel en reduceerde wetenschappers, goed en slecht, tot prutsers die maar wat aanklooien.


De gulden middenweg wordt bewandeld door iemand als Larry Laudan, die beweert dat er algemene principes zijn te geven voor de groei van wetenschap als geheel en tijdspecifieke invullingen van die principes die aan verandering onderhevig zijn. Volgens Laudan hebben wetenschappers altijd gewerkt aan het vergroten van het probleemoplossend vermogen van hun vak, maar verschillende ideeën gehad over hoe dat in te vullen is.


Dat klinkt een stuk eleganter dan de bruuske benadering van Popper en Feierabent, maar je kun je afvragen of het echt een uitweg biedt. Is het echt zoveel vriendelijker om van een tijdspecifieke invullingen van kwaliteit te spreken dan om te zeggen dat alles geoorloofd is? En loopt het algemene principe niet ook het risico anachronistisch te zijn? Probleemoplossend vermogen klinkt alvast heel erg als iets van nu – en niet van alle tijden.

Wat zou het mooi zijn als de filosofen van nu met de wetenschappers van toen in gesprek konden. Ik zou er heel wat voor over hebben om in te kunnen loggen op een Zoom call om een gesprek tussen Laudan en Aristoteles over probleemoplossend vermogen bij te wonen of met Popper over falsificatie. Of nee, als ik dan toch mag dromen: Aristoteles spreekt met Laudan over het probleem van anachronismen in de wetenschapsfilosofie.


Meer lezen?

Ik schreef over de ideeën van Larry Laudan in “Het probleemoplossend vermogen van Larry Laudan” en hij wees me in zijn boekje Progress and its Problems ook opmeet probleem van anachronismen. De ideeën van Karl Popper behandelde ik in “Groeit Kennis?” en “De drie werelden van Popper”.


De andere filosofen die ik hier noem trakteerde ik nog niet op zo’n uitgebreide bespreking. Maar het is interessant om de ideeën van Popper en Laudan eens te vergelijken met de uitkomsten van de empirische studies van de werking van wetenschap zoals ik die in “Lableven”, “De zwarte dozen van Latour” en “Big Science, Little Science” besprak.

Computerbesluit

Is het wel slim om computers overal over mee te laten denken? 

Ik stel de vraag natuurlijk omdat artificiele intelligentie (A.I.) een enorme hype is. Meestal gaan hypes ongemerkt weer voorbij, maar met A.I. zou dat wel eens anders kunnen zijn. We delegeren steeds meer beslissingen aan computers: A.I helpt doctoren met het stellen van diagnoses, rechters met het vaststellen van de strafmaat, banken met het maken van beslissingen over leningen en verzekeringen. Die denkondersteuning dient doelen uit het boekje van bedrijfsconsultants: we gebruiken slimme technologie om een kwaliteitsimpuls te geven en een efficiëntieslag te maken – en meer van dat soort dingen. Ik geloof ook wel dat dat werkt. Vaak zal het lukken om beslissingen met A.I. gemakkelijker te maken.


De vraag is alleen wel hoe het allemaal optelt. In een samenleving zijn beslissingen nogal belangrijke dingen. Ons bestaan hangt van beslissingen aan elkaar. Is het verstandig om die vervolgens één voor één, met de beste intenties, uit te besteden aan een computer? 


We hebben natuurlijk wel eerder technologie ontworpen om ons denken te ondersteunen. Als we even met zevenmijlslaarzen door de porseleinkast van de geschiedenis stampen, dan speelde de vraag of het verstandig was om het denken aan technologie uit te besteden al wel vaker. We vroegen het ons ook al af bij de uitvinding van de getallen, het schrift, de rekenliniaal, telecommunicatie, de rekenmachine, de computer en het internet. Al deze technologieën hebben de samenleving ingrijpend veranderd, maar maar weinig mensen zullen zeggen dat het achteraf gezien onverstandig was om ze in gebruik te nemen. Er is dus op zichzelf niets tegen brein-ondersteunende technologie. Waarom zou het voor A.I. anders zijn?


Één belangrijk verschil zit hem in de manier waarop A.I. beslissingen neemt. Zij doet dat door te leren van menselijke beslissingen. Het Amerikaanse bedrijf Amazon gebruikte A.I om ze te helpen sollicitanten te selecteren. Op basis van gegevens van mensen die eerder bij het bedrijf solliciteerden, berekende een computer hoe kansrijk het was dat een nieuwe sollicitant zou worden aangenomen. Er ontstond een relletje toen dat selectie algoritme een sterke voorkeur bleek te hebben voor mannelijke kandidaten. Het algoritme had allerlei dingen uit het menselijke beslissingsproces overgenomen, inclusief het seksisme dat binnen dit bedrijf gangbaar was.


Het verhaal leert ons dat A.I. conservatieve technologie is. Het is niet toevallig zo dat het Amazon algoritme het seksisme van de medewerkers reproduceerde, het is in de regel zo dat deze technologie de manier waarop beslissingen in het verleden genomen zijn, herhaalt. Dat is het hele idee. A.I. leert van de beslissingen van het verleden om de beslissingen van nu te kunnen ondersteunen. Deze verknoping van de technologie aan het menselijk handelen is wezenlijk anders dan andere technologieën in het rijtje erboven. Rekenmachines zijn als technologie veel neutraler. Waar de rekenmachine denkkracht vrij kan maken om nieuwe ideeën te bedenken, bindt A.I. ons impliciet aan het denken van gisteren. 


Het voorbeeld van Amazon laat ook meteen zien waarom er de laatste tijd zoveel over responsible A.I. (verantwoordelijke A.I.) gesproken wordt. Blijkbaar is een gebrek aan verantwoordelijkheid een probleem bij de inzet van A.I. dat nog opgelost moet worden. Het is ook niet zo vreemd om dit te bedenken. Als mensen besluiten nemen kunnen ze ter verantwoording geroepen worden, maar bij een algoritme kan dat niet. Wie is er verantwoordelijk als een zelfrijdende auto een ongeluk veroorzaakt? De bestuurder deed niets, de fabrikant kon niet weten dat deze situatie zich voor zou doen. Het is een algemeen probleem bij de inzet van A.I. Naarmate beslissingen meer op basis van A.I. genomen worden wordt het moeilijker verantwoording af te leggen over die beslissingen.


Kortom: hoe meer we het beslissen aan technologie overlaten hoe meer we het inruilen voor hoe het nu eenmaal gaat en wat nu eenmaal het beste is. Vaak is dat een goed idee: we winnen er tijd mee die we beter kunnen gebruiken en de kwaliteit van sommige beslissingen die met A.I. genomen zijn, is aantoonbaar hoger dan de menselijke beslissingen die er door vervangen worden. Maar die winst kent ook een prijs die we niet altijd in het oog hebben. 

Eigenlijk kun je zeggen dat het vergemakkelijken van beslissingen het vertrouwen erin ondergraaft. Het automatiseren van besluitvorming holt de verantwoordelijkheid van ons handelen uit. Hoe meer we ons doen en laten verweven in ingewikkelde systemen, hoe lastiger het wordt om de vinger op de zere plek te leggen als het eens mis gaat en hoe moeilijker het wordt om iets te veranderen. Je hoeft alleen maar naar het systeemfalen in de toeslagenaffaire te kijken om te zien hoe desastreus dat kan zijn. 


Dus nee, computers moeten niet overal over meebeslissen. We zullen soms een trager, duurder of slechter besluit moeten accepteren, simpelweg om iemand te hebben om mee na te kunnen gaan hoe het ooit genomen is.


Meer lezen?
Ik schreef al eens kritisch over A.I. in de rechtszaal in A Piori en in de criminaliteitsbestrijding in Glazen Bol. De analyse in dit blogje volgt een logica die gangbaar is in de media-ecologie. Dat dit is niet zonder haken en ogen, beschreef ik uitgebreid in media.

Bubbel

Als je een lijstje zou maken met de meest invloedrijke boektitels van de jaren 10 zou “The Filter Bubble” van Eli Pariser (2011) er vrijwel zeker op staan. Althans… Als je afgaat op hoe vaak het woord “bubbel” gebruikt wordt in het alledaagse taalgebruik. Meestal in een waarschuwende zin en licht bezorgd: “Belanden gebruikers dan niet in een bubbel?”; of: “Bubbels zorgen voor polarisatie in de samenleving“; maar ik heb het ook al in een positieve zin gehoord: “Ik heb een fijne bubbel”. Door Pariser zijn we ons er van bewust geworden dat we dagelijks maar een heel klein stukje van het internet bekijken en dat dat – nou ja – een dingetje is, ofzo.

Laat ik er maar gewoon meteen voor uitkomen. Ik denk dat bubbels meer aandacht krijgen dan ze verdienen en dat we het beter over andere aspecten van de inrichting van onze informatiesamenleving zouden kunnen hebben. Maar, voordat ik die conclusie kan trekken, zal ik toch nog even moeten spitten in de ideeën van Pariser zelf.

Een historisch betoog

“The Filter Bubble” opent met het nieuws van Google, in 2009, dat ze de zoekresultaten gaan personaliseren. Dat betekent dat niet iedereen die dezelfde trefwoorden intoetst op Google dezelfde resultaten krijgt. Jij en ik, individuele gebruikers, worden daarmee beter bediend, althans: we krijgen meer van wat we willen lezen. De samenleving is er minder bij gebaat want als burgers kunnen we beter met elkaar in gesprek als we over dezelfde informatie beschikken.

Het is niet toevallig dat Pariser met een historische gebeurtenis begint, want zijn kritiek is deels historisch van aard. Vroeger – toen internet nog een internetje was – was het een anarchistische vrijplaats van informatie die onze wereld groter maakte. We gingen online en kwamen in contact met andersdenkenden en met een overvloed aan vrij toegankelijke informatie, we voelden ons verrijkt en geïnformeerd. Het internet was een verbindende factor in ons leven.

Maar nu zijn er de grote technologie bedrijven die bakken met geld verdienen door ons informatie toe te spelen die zo goed mogelijk op onze persoonlijke voorkeuren is toegesneden. Daardoor is het web niet meer de wonderbaarlijke gemeenschappelijke informatiewereld die we samen gebouwd hebben, maar een cynische informatiemachine die ons allemaal informatieve snoepjes toewerpt om ons zoet te houden. Op je wenken bediend worden: daar wordt je niet socialer van. Het web dat ons ooit samenbracht, speelt ons nu uit elkaar.

Dat is stevige kritiek, maar het getuigt ook van een nostalgie die je wel meer bij internetcritici ziet. Je kent ze wel: de alles wordt minder types. Erg veel hout snijdt dat vaak niet. Misschien is het internet niet meer wat het geweest is, maar misschien zijn we zelf wel niet meer wie we waren – of kleuren we het verleden mooier in dan het was. Hoe dan ook: we moeten het internet van nu langs de lat van nu leggen. Als het internet voor de jeugd van tegenwoordig ook een vrijplaats is, is er niets aan de hand.

Het probleem dat Pariser aankaart is dat het internet in toenemende mate gepersonaliseerd wordt en daarom ons denken in toenemende mate stuurt en dat het net steeds minder een gedeelde informatieruimte biedt. Laten we die twee argumenten eens bij de hoorns pakken.

Algoritmische hersenspoeling

Is het gebruik van adviesalgoritmen slecht voor ons brein? Uit de psychologie is bekend dat mensen geneigd zijn bevestiging te zoeken voor hun ideeën.  In plaats van alle informatie die er is eerlijk te wegen en een besluit te nemen, besteden we meer aandacht aan informatie die onze ideeën bevestigen en we nemen die bevestigende informatie serieuzer. In andere woorden we houden onszelf graag voor de gek.

Als algoritmen eerst van ons leren wat we willen lezen en ons vervolgens meer van dat soort informatie voorschotelen dan wordt die neiging nog versterkt. We lezen steeds dingen waar we het mee eens zijn, en we gaan denken dat iedereen er zo over denkt, want waarom zouden we anders zoveel artikelen lezen waar onze mening precies in uitgespeld staat? Nou ja. Door de algoritmes dus. Het is dit zelfversterkende effect waar de filterbubbel zijn naam aan ontleent. Je eigen mening wordt opgeblazen en zo bouw je een beschermlaag op tegen andere meningen.

Dit kan een ware hersenspoeling veroorzaken. Want hoe vormen we onze meningen? Door de informatie die we krijgen. Eerst beschermden we onze meningen door alleen dingen te lezen waar we het mee eens waren. Vervolgens gaan de algoritmen ons daar mee helpen door ons meer van wat we al dachten voor te schotelen. Vervolgens denken we dat iedereen er net zo over denkt als wij waardoor we sterker in onze mening gaan staan, minder diverse keuzes maken in ons media dieet en die keuzes worden dan weer versterkt door de algoritmen. We zijn in een echoput beland, een filterbubbel of een fabeltjesfuik en we komen daar nooit meer uit. –snik-

Totdat we de buurvrouw spreken.

Die buurvrouw zit in een andere bubbel, blijkt heel anders over dingen te denken en prikt onze bubbel genadeloos door. En het hoeft niet de buurvrouw te zijn, die bubbel kan ook doorgeprikt worden door informatie die we door andere algoritmen toegespeeld krijgen of door de main-stream-media. Als je maar met grote regelmaat met andere ideeën en informatie geconfronteerd wordt maken bubbels niet zoveel kans. En die ontmoetingen worden ook georganiseerd door dat internet en haar algoritmen.

Het is helemaal geen nieuw fenomeen dat mensen informatie zoeken die hen sterkt in ideeën die ze al hebben. Ze kiezen een bepaalde omroep, gaan naar een bepaalde kerk, steunen een politieke beweging, bezoeken bepaalde voorstellingen. Vroeger werden we geboren in een bubbel, die van het dorp of de politieke voorkeur van je ouders. De bubbels van nu zijn misschien meer gebaseerd op onze interesses en minder op basis van onze woonplaats, maar we blijven allemaal op zoek naar geestverwanten. De vraag is daarom ook niet óf we in bubbels duiken, de vraag is hoe vaak we er weer uitgehaald worden. Hoe vaak komen we andersdenkenden tegen die ons op nieuwe gedachten kunnen brengen.

Er zijn op het internet twee krachten die elkaar in balans houden. Het ontstaan van bubbels door algoritmen en het doorprikken van bubbels doordat we meer in contact komen met andersdenkenden. De vrees van Pariser dat het bubbeleffect het ontmoetingseffect zou gaan overheersen is vooralsnog niet uitgekomen. Uit onderzoek blijkt uit dat mensen diverse bronnen blijven gebruiken, dat mensen die Spotify gebruiken hun muzieksmaak verbreden en dat mensen goed weten hoe er in andere bubbels over dingen gedacht wordt.

Ironisch gezien verklaard dat effect misschien juist de populariteit van het begrip bubbel. Misschien zijn we zoveel beter genetwerkt, dat we veel meer dan vroeger doorhebben dat anderen anders over dingen denken. Dat is misschien niet zo erg.

Een gedeelde informatieruimte

Maar hebben we dan niet een chronisch gebrek aan een gedeelde informatieruimte? Dit is Pariser’s tweede punt. Als samenleving is het belangrijk om een evenwichtig beeld te krijgen ervan wat er speelt, wat de belangrijke gebeurtenissen zijn, hoe er zoal gedacht wordt over allerlei onderwerpen, welke problemen bestaan en welke oplossingen daarvoor worden voorgesteld. Op basis van dit beeld gaan we met elkaar in gesprek.

We hebben de taak om ons daar over te informeren aan een beroepsgroep toevertrouwd: journalisten. Net als veel andere sectoren heeft de journalistiek ongemeen harde klappen gehad met de opkomst van het internet. Enerzijds vrat het internet aan het belangrijkste verdienmodel van de sector: advertenties. Anderzijds zorgde het voor een overvloed aan informatie die concurrerend was voor journalistieke producties.

Het is daarom fair om te zeggen dat onze gedeelde informatieruimte onoverzichtelijker is geworden – en dat ze versnippert is geraakt. Mensen baseren zich op meer verschillende bronnen dan vroeger, het onderscheid tussen opinie en feiten is vervaagt en de kwaliteit van informatie is niet meer vanzelf geborgd.

Is dat ook schadelijk? Mwa. Hoewel het al een stevigere stellingname is kan ik er nog nét in meegaan dat je kan zeggen dat ons publieke debat er onrustiger van geworden is, hitseriger misschien. Maar het gaat nòg verder om te zeggen dat dat onze democratie schaadt en ik zie eigenlijk niet in wat er ondemocratisch zou zijn aan een verhit maatschappelijk debat.

Maar voor dit blogje is nog een andere observatie van belang: geen van deze effecten hebben ook maar iets te maken met personalisatie en algoritmen. De versnippering van het publieke debat hangt samen met het aanbod van informatie. Het komt door de verschraling van professioneel geproduceerde informatie en de opkomst van twijfelachtige informatiebronnen; die soms wel journalistiek lijken, maar het niet zijn. Dat het internet ons in contact brengt met al die bronnen is precies het soort verruiming van onze leefwereld waar het vroege internet voor geprezen werd. Er is misschien veel te veel zooi op het net, maar als we ons daarvan af willen schermen hebben we sterkere filterbubbles nodig, geen zwakkere.

Pariser stelt daar tegenover dat dat de logica achter personalisatie van nieuwsstromen, gericht op het individu de selecterende rol van journalisten uitholt. Omdat we algoritmen gebruiken als gids op het eindeloze internet bepalen die algoritmen ook welke informatie we online bekijken. Maar in tegenstelling tot journalisten zijn die algoritmen er niet op uit om ons een gebalanceerd overzicht te bieden van alles in de wereld. Ze richten zich op wat wij willen lezen, niet op welke informatie belangrijk is voor onze samenleving.  

Ook dit argument klinkt plausibel, maar opnieuw is het de vraag Pariser de algoritmen niet enorm overschat. Hoe berekenen algoritmen wat voor persoonlijk relevant is voor jou? Een belangrijk ingrediënt in de prioritering van tijdlijnen zijn sociale filters. Algoritmen kijken naar het lees en deelgedrag van onze sociale omgeving om te beslissen wat wij belangrijk vinden. In die sociale omgeving gebruiken veel mensen veel verschillende nieuwsmedia. Ze delen wat ze daarin belangrijk vinden en dit bepaalt weer wat anderen zien. Die collectieve selectie van wat belangrijk is geeft daarmee niet een heel ander beeld van wat er speelt dan de selectie die een krant zou maken én deze wordt nog altijd gevoed door de selecties van de media. Journalistische curatie is dus iets meer naar de achtergrond gedrongen, maar ze is niet weg.

De filterbubbel voorbij

Het sterke van Pariser’s betoog is dat hij ons bewust maakt van veranderingen in het krachtenveld dat rondom nieuwsselectie ontstaat en de invloed daarvan op onze democratie. Het zwakke van het betoog is dat “de algoritmen” de zwarte piet krijgen toegespeeld zonder al te veel bewijs dat ze ook de belangrijkste veroorzaker zijn van de problemen of zelfs maar een eenduidige beschrijving van wat de problemen zijn.

Uiteindelijk is de filterbubbel dus zelf een fabeltje. Het is een verhaaltje over wat er zou kunnen gebeuren als het allemaal helemaal misgaat, bedoeld als waarschuwing. In 2011, toen personalisatie op het web nog om de kinderschoenen stond kon Pariser ook nog niet veel anders, maar inmiddels zijn we 10 jaar verder een wordt het tijd die invloed van algoritmen simpelweg eens  door te meten en nuchter vast te stellen wat ze voor en wat ze tegen ons doen. Die cijfers gaan een heel genuanceerd beeld geven.

Goed, het is 2021 en het zijn politiek roerige tijden. Veel mensen zien de bestorming van het Capitool door complotdenkers als het ultieme bewijs dat het internet wel een schadelijke rol zal spelen. Hoe kunnen mensen anders zulke rare dingen geloven?

Maar de werkelijkheid is dat de wereld altijd al vol was met mensen met vreemde ideeën. De Capitool bestorming was niet de eerste staatsgreep en gaat niet de laatste zijn. Het ontstaan van sektes en bizarre theorieën is de regel in de menselijke geschiedenis, niet de uitzondering. Als we iets verder dan 20 jaar terug kijken zien we dat de polarisatie waar we ons nu aan storen van alle tijden is en van elke inrichting van het medialandschap.

Vooruit. Andersdenkenden vinden elkaar tegenwoordig makkelijker. Maar totdat alt-right dat uit ging buiten vonden we dat collectief de grootste zegening van het internet. Het is ook plausibel dat we door het internet en haar algoritmen meer in contact komen met die vreemde ideeën. Ironisch genoeg vinden we dat geweldig als die ideeën passen bij onze eigen interesses en vreselijk als het om verwerpelijke of domme ideeën van anderen gaat. We blijven in onze bevestigingsvalkuil hangen: onze eigen ideeën zijn een gevolg van een goede opleiding, weloverwogen informatie verzameling en puik denkwerk; anderen zitten in een filterbubbel.

Natuurlijk kunnen we ons met Pariser zorgen maken over onze gedeelde werkelijkheid, maar in plaats personalisatie de schuld te geven is het misschien beter om iets te doen aan de bouwstenen van die gedeelde werkelijkheid.  Goede, levensvatbare, Journalistiek – al dan niet gesubsidieerd; inperken van de macht van de meest dominante platformen, vooral waar die een bedreiging vormen voor de verdienmodellen van de poortwachters van onze samenleving; het aanpakken van schimmige verdienmodellen en datahandel; investeren in wetenschap en onafhankelijke onderzoeksinstituten; zorgen voor een betrouwbare en transparante overheid;  het aanpakken en weerspreken van propaganda en stemmingmakerij; en natuurlijk in gesprek gaan met anderen ook als daar je eigen bubbel mee op het spel staat.

Met het fabeltje van de filterbubbel, maken we het publieke discours het probleem van technologiebedrijven en vergeten we te kijken naar wat we zelf kunnen doen om de kwaliteit van ons publieke gesprek te verhogen. Goed,  sinds 2009 is personalisatie een vast onderdeel van onze informatieruimte, maar laten we niet doen alsof we in het lijstje hierboven geen steken hebben laten vallen.

Meer lezen?

In media beweerde ik dat je eigenlijk niets kan zeggen over de invloed van media op de samenleving. In ziekte bespreek ik waarom het ontwijken van andere ideeën een slecht idee is. Ik schreef op een ander blog over hoe platformen anders ingericht kunnen worden om ons publieke debat te versterken.

Het spotify onderzoek waar ik naar verwijs wordt in dit Universiteit van Nederland praatje toegelicht.

Naar aanleiding van deze post wees iemand me op dit artikel van Axel Bruns, waarin het onderzoek naar de Filterbubbel op een rijtje gezet wordt. Ook hij beweert dat het filter bubbel idee een debat over wat er wél mis gaat in ons publieke debat in de weg zit.