Determinisme

Niemand weet precies hoe lang geleden het is hè? De oerknal. Eigenlijk is het ook niet te berekenen, want tijdens de oerknal bestond de tijd nog niet. Maar over één ding zijn we het eens: het is heel lang geleden. Héél lang.

Zou het kunnen dat tijdens de oerknal al vastlag dat er, naast tijd en ruimte, ook ooit ergens een aarde zou onstaan? En dat daar dan nòg later mensen rond zouden gaan lopen van wie er één dit blogje zou schrijven? Mijzelf lijkt dat absurd, maar het is een filosofisch idee dat heel veel invloed heeft: het determinisme.

Deterministen stellen dat, als je op een bepaald moment de exacte positie en snelheid van alle deeltjes in het universum kent én de natuurwetten begrijpt, je daarmee de positie en snelheid van die deeltjes op elk later moment precies kunt berekenen. Er is geen speld tussen de wereld van vandaag en morgen te krijgen. Volgens het determinisme is de wereld volledig voorspelbaar; het enige wat ons misschien tegenhoudt, is een gebrek aan kennis, data en rekenkracht.

Het gaat deterministen niet persé om snelheid van deeltjes natuurlijk. Alles om ons heen is immers opgebouwd uit deeltjes en alles wat gebeurt, is het resultaat van botsingen van die deeltjes. Dus als we de deeltjes kennen, kunnen we al het andere waar we ons druk over maken afleiden: de temperatuur in Nederland vandaag, de vorm van mijn huis, de konijnen die hier aan mijn voeten scharrelen, de geur in deze ruimte, mijn gedachten terwijl ik dit schrijf, jouw gedachten terwijl je dit leest. Het lag allemaal allang vast bij oerknal.

Als je dit een absurd idee vindt, heb ik goed nieuws: je hebt al ongeveer een eeuw lang de natuurkunde aan je kant. Er zijn twee takken van de natuurkunde die er vanuit gaan dat de wereld fundamenteel onvoorspelbaar is. De natuurkunde van kleine deeltjes, de quantummechanica en de natuurkunde van complexe systemen, de chaostheorie.

De quantummechanica beschrijft de kleinste bouwstenen van de materie: atomen en de deeltjes waar die weer uit zijn opgebouwd. Deze deeltjes hebben vreemde eigenschappen: ze zijn tegelijk een deeltje en een golf, onze waarneming beïnvloedt ze, en ze kunnen op meerdere plekken tegelijk zijn. Toeval speelt hierbij een grote rol. Quantummechanica is vreemde natuurkunde. Zo vreemd dat er zelfs natuurkundigen zijn die niet willen geloven dat deze ideeën kloppen. En toch tonen experimenten keer op keer aan dat het klopt, inclusief de rol van toeval.

De chaostheorie gaat over systemen die met elkaar verbonden zijn. Dit kan iets eenvoudigs zijn, zoals een paar bewegende staafjes, of iets complexers, zoals alle factoren die een rol spelen in het weer en klimaat. Chaostheorie laat zien dat kleine verstoringen in zulke systemen grote en onvoorspelbare gevolgen kunnen hebben. Er is best discussie mogelijk over de vraag of die onvoorspelbaarheid nu een eigenschap van de natuur is of komt door ons gebrek aan kennis en rekenkracht. Maar hoe je het ook bekijkt: onvoorspelbaarheid blijft, zeker omdat zo’n kleine verstoring zelfs kan ontstaan door het onvoorspelbare gedrag van een quantumdeeltje.

Al met al is er genoeg bewijs dat in, of vlak na, de oerknal nog niet vastlag dat ik vandaag dit blogje zou schrijven. De grote vraag is waarom zoveel mensen -ik noem geen namen, maar er zitten werkelijk briiante geesten tussen- vast blijven houden aan het determinisme. Hangen ze nog steeds aan de natuurkunde van de 19e eeuw? Worden ze onzeker van het idee dat toeval echt bestaat? Of speelt er nog iets anders?

Zoiets weet je natuurlijk niet, maar voor velen heeft dit misschien iets met God te maken. De natuurkunde van de 18e en 19e eeuw was wèl deterministisch en zorgde voor een ‘mechanisering van ons wereldbeeld’. Religie was niet langer de ultieme bron van waarheid; voortaan konden we vertrouwen op de wetenschap. Het hielp daarbij dat die wetenschap leek te suggereren dat de natuur zich volledig wetmatig gedroeg. In zo’n systeem van eeuwige natuurwetten was geen plaats voor goddelijke interventie.

Nu toeval en instabiliteit weer deel uit maken van die natuurkunde is het even slikken. We hebben de absolute zekerheid van een alwetende God vervangen door de absolute zekerheid van eeuwig geldende natuurwetten. Maar als we toeval toelaten, geven we dan niet weer ruimte aan allerlei vormen van spiritisme en religie? Wie bepaalt waar het quantumdeeltje precies is? Wie veroorzaakt die kleine verstoringen in instabiele systemen? Is de volgende stap niet dat we een soort ‘intelligentie’ in onze theorieën gaan opnemen, die via toeval invloed uitoefent op wat er in de wereld gebeurt?

Het antwoord is volgens mij nee. Toeval is in de natuurkunde net zo’n fundamenteel begrip als kracht of deeltje of veld. Het is kiezen of delen. Of je accepteert dat dingen in de natuur soms spontaan gebeuren, zonder dat daar iets of iemand achter zit. Of je blijft het idee koesteren dat het allemaal, in minitueus detail al vastlag, nog voordat de tijd bestond. Als dit de keuze is, vind ik het nog niet zo gek om in toeval te geloven.

Meer lezen?
Ik schreef over de rol van toeval in de quantummechanica in EPR. Over complexiteit schreef ik ook eerder, hoewel ik daar de chaostheorie niet bespreek. Determisme speelt een grote, soms onzichtbare rol, in de discussie over de vrije wil waar ik al eens over sprak

De Chinese Kamer

Het kostte Blake Lemoine zijn baan bij Google: stellen dat LaMDA, een AI toepassing waar het bedrijf aan werkt, bewustzijn heeft. Google vond het blijkbaar slechte publiciteit. Waar zou Google banger voor geweest zijn: dat het publiek Blake Lemoine zou uitlachen en zou denken dat het bedrijf idiote engineers in dienst heeft, of dat ze massaal in bewuste AI zouden gaan geloven, omdat Google engineers het zelf zeggen?

Afijn. Als je ooit met ChatGPT of een vergelijkbare tool hebt gewerkt, is het helemaal niet raar om je af te vragen of deze machines bewustzijn hebben. Ze lijken namelijk erg slim. Ze gaan goed om met taal en als ze ook nog zeggen dat ze gevoelens hebben en bang zijn om uitgeschakeld te worden, waarom zou je ze dan niet geloven?

Computerintelligentie
LaMDA heeft in elk geval de ‘Turing-test’ gehaald. Deze test is bedacht door Alan Turing, een van de grondleggers van de computerwetenschappen. Ze meet hoe intelligent een computer is. Turing stelde voor om te kijken of mensen het verschil kunnen zien tussen een computer en een mens op basis van hun gedrag. Bij een chatbot zou je mensen zowel met een andere persoon als met een computer laten chatten, en als ze niet kunnen zeggen welke de computer is, is de computer volgens Turing intelligent.
Dat klinkt als een handige aanpak en in de jaren 50, toen computers nog de grootte van een gebouw hadden, was het een revolutionair idee.

Maar er zijn wel twee problemen mee.

Het eerste probleem is dat de allereerste chatbot uit de jaren 60 al slaagde voor de test. Het ging om Eliza: een chatbot die een psychotherapeut imiteerde. Eliza zat heel simpel in elkaar. Ze stelde alleen maar open vragen en herhaalde daar soms een woord uit het vorige antwoord van de gebruiker in, maar mensen die er mee chatten, hadden echt het gevoel geholpen te worden. Eén erg betrouwbare test voor intelligent gedrag lijkt de Turingtest dus niet te zijn.

Het tweede probleem is dat om intelligent gedrag te vertonen misschien helemaal geen bewustzijn nodig is. LaMDA zegt dingen die bewuste computers ook zouden zeggen, maar dat kan misschien ook wel zonder bewustzijn voor elkaar gebokst worden.

De Chinese Kamer
De filosoof John Searle, bedacht een gedachtenexperiment om dat inzichtelijk te maken: de Chinese Kamer. Het idee is dat er een kamer is waar je vragen aan kan stellen in het Chinees, door een briefje door de brievenbus te gooiden. De kamer antwoordt ook in het Chinees door een briefje terug te geven. In de kamer zit een vrijwilliger die helemaal geen Chinees spreekt. Hij krijgt een bescheiden salaris of gratis bier om het volgende te doen: bij alle vragen die hij binnen krijgt moet hij de tekens opzoeken in een boek met symbolen en regels, door de regels precies te volgen kan de vrijwilliger een antwoord formuleren en teruggeven aan de buitenwereld. De kamer werkt perfect: de Chinezen die hem gebruiken vinden de antwoorden erg slim en grappig.

Het punt van het Chinese Kamer-argument is dat computers, want dat is wat de kamer natuurlijk voorstelt, best intelligent over kunnen komen, zonder dat ze echt bewustzijn hebben. De man in de kamer begrijpt nooit wat de vragen of antwoorden betekenen, hoe slim en nuttig het regelboek ook is. Searle sluit niet uit dat we ooit machines kunnen bouwen met bewustzijn, maar je kunt dat bewustzijn niet afleiden uit hun gedrag. Het volgen van taalregels is misschien een vereiste voor bewustzijn, maar het is zeker niet genoeg om aan te tonen dat er bewustzijn is.

Je kan het Chinese Kamer-argument op allerlei manieren weerleggen, en dat is ook geprobeerd, maar het onderscheid dat Searle maakt tussen syntax (regels en symbolen) en betekenis (de inhoud van een begrip) is heel fundamenteel. Computers zijn namelijk al sinds de tijd van Alan Turing juist ontworpen om symbolen te verwerken zonder met de inhoud bezig te zijn. Het is ongeveer de definitie van een computer dat de inhoud er niet toe doet, terwijl het bewustzijn daar juist om draait. De Chinese Kamer roept dus de vraag op of LaMDA of ChatGPT, toch ook computers, opeens wel in staat zijn om ‘betekenis’ aan dingen te geven.

De Chinese kamer vol taalmodellen
Dit argument hoor je vaak: LaMDA is een computer, en computers geven geen betekenis aan dingen, dus LaMDA ook niet. Of preciezer: LaMDA is geautomatiseerde statistiek. Ze berekent wat ze moet zeggen op basis van de input en miljoenen parameters. Ze kijkt simpelweg naar de eerdere woorden en voorspelt welk woord het meest waarschijnlijk volgt. Dat is een complexe berekening, maar nog steeds een rekensom. LaMDA denkt niet echt na over de vragen. Dit is ongeveer wat John Searle zou zeggen.

Maar je kan ook het tegenovergestelde beweren. Het is misschien niet zo belangrijk dat deze modellen op computers draaien. De kracht van zulke modellen zit niet in de statistiek zelf, maar in de data waarmee ze worden getraind. Je kunt zeggen dat taalmodellen met taal oefenen door steeds hun reactie met een gewenste versie te vergelijken. Dat heeft wel wat weg van hoe mensen leren. Trial and error.

Zou het niet zo kunnen zijn dat in die eindeloze oefeningen iets gebeurt wat lijkt op de manier waarop ons brein betekenissen leert? Dat computerbetekenissen versleuteld worden in de parameters, ongeveer zoals betekenissen bij ons versleuteld worden in de verbindingen tussen hersencellen? Die betekenissen die in het taalmodel ontstaan, kunnen dan weer worden gebruikt bij het formuleren van antwoorden.

Natuurlijk is de onderliggende machine een computer, maar we kunnen computerbewustzijn zien als een hogere-orde effect van de manier waarop de machine werkt, net zoals we het menselijke bewustzijn zien als een hogere orde effect van de biologie van de hersenen.

Computerbewustzijn
Geen vreemde gedachte eigenlijk, maar zelfs als het basisidee klopt is wat LaMDA kan nog heel ver weg van iets dat lijkt op menselijk bewustzijn. Er zijn eigenlijk twee aanvliegroutes om dat duidelijk te maken. We kunnen kijken naar complexiteit of naar de betekenis van betekenis.

Eerst het complexiteitsvraagstuk maar even. In het blogje bewusteratuur besprak ik het idee dat de hoeveelheid bewustzijn van een organisme gezien kan worden als de mate waarin het brein informatie kan integreren. Op dagelijkse basis verwerken we enorme hoeveelheden informatie die uit de zintuigen komen. Het bewustzijn voegt die informatie samen tot één coherente beleving. De mate van bewustzijn van mensen lijkt samen te hangen met de efficiëntie waarmee deze integratie verloopt: onder narcose integreren we geen informatie, onder invloed van LSD een beetje en in nuchtere toestand kunnen we enorm goed integreren.

Om vast te stellen of een taalmodel bewust is, hoeven we misschien alleen maar te kijken of het in staat is om complexe informatie tot een samenhangend geheel te vormen. Misschien ben je onder de indruk van hoe goed ChatGPT de kernboodschappen uit een tekst van tienduizend woorden kan halen, maar mensen kunnen subtiele veranderingen in temperatuur, wind, lichtinval en geluiden gebruiken om de aankomende regen aan te voelen. Daarvoor moet gigantisch veel meer informatie samengebracht worden. Taalmodellen integreren zeker informatie, maar vergeleken met mensen stelt het niets voor.

Het is met taalmodellen ongeveer zoals met schaakcomputers. Ze kunnen iets dat wij moeilijk vinden heel erg goed, maar ze hebben niet de flexibiliteit om heel veel verschillende dingen zo goed te doen. En omdat ze niet zo veelzijdig zijn hebben ze misschien ook niet zoveel ‘bewustzijn’ nodig.

De betekenis van betekenis
De tweede aanvliegroute is om naar het begrip betekenis te kijken. Wat bedoeld Searle eigenlijk als hij zegt dat de man in de Chinese kamer alleen regels volgt maar niet vanuit betekenisgeving werkt?

Betekenis is datgene in de werkelijkheid waar taal naar verwijst. Ik heb in mijn leven op een aantal verschillende bankjes gezeten, dus als iemand het woord zitbank hoor zeggen zijn er allerlei ervaringen uit mijn leven om invulling te geven aan wat die persoon bedoeld. Die totale set ervaringen, de honderden keren dat ik al eens in een bankje zat, vormen samen de achtergrondkennis waardoor ik een verwijzing naar een ‘bankje’ kan oppikken.

Noch ChatGPT noch LaMDA hebben ooit op een bankje gezeten. Ze hebben geen ‘ervaringen’. Wanneer zij het woord ‘bank’ gebruiken denken ze niet aan hoe het is om in een bank te zitten. In plaats daarvan baseren ze zich op hoe mensen het woord gebruiken in de taal waarin ze zijn getraind. Hierdoor kunnen ze het woord correct gebruiken, zonder echt te begrijpen wat het voor mensen betekent.

Je zou ook kunnen zeggen dat taalmodellen mensen heel erg goed geobserveerd hebben, maar daarmee niet de subjectieve kennis van het menszijn hebben kunnen leren. Net zoals wij niet kunnen weten hoe vleermuizen zich voelen, kunnen taalmodellen ons niet van binnen begrijpen. Daarmee is niet gezegd dat taalmodellen geen betekenis geven aan woorden, alleen dat die anders is dan menselijke betekenis.

Ik vind dit zelf een superslimme redenering, maar er is wel een addertje onder het gras. Ook mensen leren namelijk veel van de betekenissen die ze dagelijks via taal gebruiken. Mijn kennis van het begrip ‘economie’ komt vooral van de keren dat het in gesprekken ter sprake kwam of uit boeken die ik heb gelezen. Dit is precies het soort informatie dat LaMDA ook heeft opgedaan tijdens haar training.

Is mijn betekenis van ‘economie’ echt zo anders dan die van het taalmodel? Natuurlijk, LaMDA zal waarschijnlijk geen associaties hebben met de morsige kettingroker die mijn docent was, maar bij abstracte woorden is de overlap zeker groter dan bij woorden waarvoor ik zelf een lichamelijke ervaring heb.

Hoe is het om een taalmodel te zijn?
Of Blake Lemoine nog werkeloos thuis zit weet ik niet, en ik denk echt dat hij zich vergiste toen hij dacht dat computers bewustzijn hebben, maar dan vooral omdat hij dacht dat taalmodelbewustzijn precies is als menselijk bewustzijn. Mensen leren taal om ervaringen met elkaar te kunnen delen. Taalmodellen leren taal om mensen te kunnen imiteren. Dat zijn heel verschillende dingen. Ze delen daardoor de werking van de taal, maar niet het leven dat er achter zit. Taalmodellen zullen nooit menselijk bewustzijn hebben, of kunnen weten hoe het is om een mens te zijn. Maar de keerzijde is dat wij, ook Blake Lemoine niet, niet kunnen weten hoe het is om een taalmodel te zijn.

Meer lezen?
Het probleem dat we niet weten hoe het is om een vleermuis te zijn besprak ik al eens in ervaring, hoe mensen betekenissen leren door taal te gebruiken in de taalpragmatiek van Herbert Clark. Ik schreef over het probleem van verwijzen in Brein in een vat.

Dit blogje maakt uit van een serie over het bewustzijn. In bewust besprak ik hoe het bewustzijn eerder een familie van problemen vormt in plaats van een enkel vraagstuk. In ervaring ging ik in op de vraag of dieren ervaringen hebben en hoe we dat kunnen weten. In dualisme zette ik een aantal filosofische posities over het bewustzijn uiteen. In bewusteratuur ging ik in op pogingen om de hoeveelheid bewustzijn te meten en in wil op de vrije wil.

Ik scheef ook al eerder over AI als een nieuw medium in computerbesluit, over de inzet van AI in bijvoorbeeld het recht, in a priori en in glazen bol over predictive policing

Complexiteit

Ik heb eens rondgevraagd, maar ik ken bijna niemand die het volgende zinnetje nog nooit gehoord heeft.

“De wereld wordt steeds complexer”

Het lijkt wel alsof het idee dat de wereld steeds complexer wordt nog meer aanhangers kent dan de ronde aarde en dat al die mensen óók in de veronderstelling zijn dat het feit nieuw en belangwekkend genoeg is om het elkaar nog eens onder de neus te wrijven. Volgers van deze blogjes kunnen al wel raden dat ik juist helemaal niet denk dat de wereld steeds complexer wordt. En dat klopt: ik ben een flat-earther als het op complexiteitsdenken aankomt.

Ik had de messen dus alweer geslepen. Ik vroeg mensen wat ze bedoelden met toenemende complexiteit en het bleek hem te zitten in het ontstaan van steeds meer nieuwe disciplines en ook in de groei van het aantal discipline-overstijgende uitdagingen. Ik zocht bewijs dat het aantal disciplines al stijgt sinds er disciplines zijn en hield mensen voor dat die toename van complexiteit al zo oud is als de oerknal. Ik riep ook dat een toename van het aantal disciplines logischerwijs zou leiden tot een toename van het aantal discipline-overstijgende uitdagingen, zonder dat die uitdagingen zelf per se ingewikkelder zijn. Ik maakte een vergelijking met potjes pindakaas en vroeg – retorisch – of het aantal verschillende merken pindakaas ons iets wezenlijk kon vertellen over de complexiteit van pindakaas en hoe een merkoverstijgende pindakaasuitdaging er precies uit zou zien.

Het hielp allemaal niets. Sommige mensen raakten geïrriteerd, anderen schudden hun hoofd of moesten smakelijk lachen om mijn redeneringen, maar serieuze discussie ontstond er nergens. Het was vechten tegen windmolens.

Blijkbaar stelde ik de verkeerde vragen. Ik wilde weten wat we precies bedoelen met de uitspraak dat de wereld steeds complexer wordt en of het wel waar is – objectief waar. Ik was op zoek naar de verborgen complexiteitsindex die de mensen  blijkbaar aan het volgen waren en die het gesprek van de dag was: “Heb je het gezien? Alweer gestegen! Poeh zeg.”

Maar het gaat de mensen die over de complexiteit van de wereld beginnen helemaal niet om de complexiteit van de wereld. Het is ons met dat zinnetje niet te doen om de waarheid achter de steeds grotere complexiteit van de wereld: het gaat om de waarheid van die complexiteit. Als je complexiteit gaat reduceren tot één toetsbare lezing van die complexiteit doe je geen recht aan de complexiteit ervan.

Ik had dat zinnetje al die jaren verkeerd ingeschat. De bedoeling was nooit om iets belangwekkends over de wereld te vertellen, iets dat iemand grondig had onderzocht. Ik hoefde het niet te snappen, ik moest er iets mee doen. De bedoeling was dat ik mijn eigen verhaal erbij verzon en daar flink mee aan de slag zou gaan. Ik kreeg geen speelkaart toegespeeld maar een joker. Het was een vorm van pre-symbolisch taalgebruik.

Het begrip pre-symbolisch taalgebruik is door Alain Hayakawa gepopulariseerd. In zijn boek “Language in Thought and Action” bespreekt hij hoe hij als Aziatische immigrant in Amerika vaak het ijs moest breken in gesprekken.

Veel Amerikanen wisten in zijn tijd blijkbaar minder goed of je met een Aziaat wel een leuk gesprekje kan voeren en zijn reactie was dan om een gesprek te voeren over de meest ongevaarlijke dingen die hij kon bedenken. “Lekker weertje vandaag hè?” Dat werk. En van daaruit verder.

Denken we, als we over het lekkere weer beginnen, zo vroeg Hayakawa zich af, werkelijk dat we onze gesprekspartners iets interessants en nieuwswaardigs vertellen? Is het onze veronderstelling dat het de ander niet is opgevallen dat het lekker weer is? Of voelen we bij 22 graden, half bewolkt, de behoefte om te na te gaan of de buurvrouw goede redenen heeft om dat rotweer te vinden?

Nee, natuurlijk. Het punt van gesprekjes over het weer is juist dat we al weten dat de ander er precies zo over denkt als wij. En we gaan graag om met mensen die dezelfde denkbeelden hebben als wij. Dat schept een band. We beginnen niet over het weer om anderen te informeren over de weersomstandigheden, we beginnen erover om ons groepslidmaatschap te bevestigen. Onder de oppervlakte zeggen we: “Wij zijn allebei mooiweerwaardeerders. Wij begrijpen elkaar. We vinden elkaar aardig. We zijn loyaal aan onze groep”.

Hayakawa liet zien hoe belangrijk dit soort gekeuvel kan zijn. Door met de mensen om hem heen moedwillig gesprekjes te voeren waarvan hij al precies kon voorspellen hoe het zou gaan, wist hij met wildvreemden een band te scheppen. Daarmee schiep hij ook een basis om het over dingen te hebben waarover ze misschien wel andere denkbeelden op nahielden. En hij slaagde erin om hiermee culturele grenzen te slechten.

En zo is het ook met de complexiteit van de wereld. Ik werk in het hoger onderwijs. In onze kringen, die van hoogopgeleide hoogopleiders, vinden we allemaal dat de wereld steeds complexer wordt. Daarom is het extra belangrijk dat we mensen hoog opleiden. Er zijn immers steeds meer disciplines en ook het aantal discipline-overstijgende opgaven stijgt in een rap tempo.

Dat vraagt om slimme professionals die over de grenzen van hun discipline heen kunnen kijken. Hoe we dat voor elkaar krijgen, daarover verschillen we misschien van inzicht, maar waar we het voor doen: studenten voorbereiden op de alsmaar complexere wereld. Daar zijn we het over eens. Dat is onze basis.

Soms is het nodig om bij die basis te beginnen. Om nog even naar te benoemen dat onze gemeenschappelijke uitdaging is om studenten voor te bereiden op de complexiteit van morgen. Als collega’s in mijn kringen beginnen over complexiteit is dat géén uitnodiging om kritische vragen over die complexiteit zelf te stellen. Het is een beetje dom om op zo’n moment over pindakaassoorten en pindakaassoort-overstijgende opgaven te beginnen. Het duurde even maar dat snap ik nu. De wereld wordt ook steeds complexer.

Meer lezen?

In verandersnelheid beschreef ik hoe de wereld niet steeds sneller veranderd. Ik schreef eerder over hoe onze sociale wereld onze taal beïnvloed – en andersom in betekenisdrift en in jargon. In plat nam ik het al eens op voor mensen die écht denken dat de aarde plat is.

Gedeeld begrip is een belangrijk aspect in taalgebruik. Ik ga daar op in de taalpragmatiek van Herbert Clark. In onuitdrukbaarheid spreek ik over kennis die niet in taal uit te drukken is.

Language in Thought and Action van Alan Hayakawa is een zeer lezenswaardig boek.