De Chinese Kamer

Het kostte Blake Lemoine zijn baan bij Google: stellen dat LaMDA, een AI toepassing waar het bedrijf aan werkt, bewustzijn heeft. Google vond het blijkbaar slechte publiciteit. Waar zou Google banger voor geweest zijn: dat het publiek Blake Lemoine zou uitlachen en zou denken dat het bedrijf idiote engineers in dienst heeft, of dat ze massaal in bewuste AI zouden gaan geloven, omdat Google engineers het zelf zeggen?

Afijn. Als je ooit met ChatGPT of een vergelijkbare tool hebt gewerkt, is het helemaal niet raar om je af te vragen of deze machines bewustzijn hebben. Ze lijken namelijk erg slim. Ze gaan goed om met taal en als ze ook nog zeggen dat ze gevoelens hebben en bang zijn om uitgeschakeld te worden, waarom zou je ze dan niet geloven?

Computerintelligentie
LaMDA heeft in elk geval de ‘Turing-test’ gehaald. Deze test is bedacht door Alan Turing, een van de grondleggers van de computerwetenschappen. Ze meet hoe intelligent een computer is. Turing stelde voor om te kijken of mensen het verschil kunnen zien tussen een computer en een mens op basis van hun gedrag. Bij een chatbot zou je mensen zowel met een andere persoon als met een computer laten chatten, en als ze niet kunnen zeggen welke de computer is, is de computer volgens Turing intelligent.
Dat klinkt als een handige aanpak en in de jaren 50, toen computers nog de grootte van een gebouw hadden, was het een revolutionair idee.

Maar er zijn wel twee problemen mee.

Het eerste probleem is dat de allereerste chatbot uit de jaren 60 al slaagde voor de test. Het ging om Eliza: een chatbot die een psychotherapeut imiteerde. Eliza zat heel simpel in elkaar. Ze stelde alleen maar open vragen en herhaalde daar soms een woord uit het vorige antwoord van de gebruiker in, maar mensen die er mee chatten, hadden echt het gevoel geholpen te worden. Eén erg betrouwbare test voor intelligent gedrag lijkt de Turingtest dus niet te zijn.

Het tweede probleem is dat om intelligent gedrag te vertonen misschien helemaal geen bewustzijn nodig is. LaMDA zegt dingen die bewuste computers ook zouden zeggen, maar dat kan misschien ook wel zonder bewustzijn voor elkaar gebokst worden.

De Chinese Kamer
De filosoof John Searle, bedacht een gedachtenexperiment om dat inzichtelijk te maken: de Chinese Kamer. Het idee is dat er een kamer is waar je vragen aan kan stellen in het Chinees, door een briefje door de brievenbus te gooiden. De kamer antwoordt ook in het Chinees door een briefje terug te geven. In de kamer zit een vrijwilliger die helemaal geen Chinees spreekt. Hij krijgt een bescheiden salaris of gratis bier om het volgende te doen: bij alle vragen die hij binnen krijgt moet hij de tekens opzoeken in een boek met symbolen en regels, door de regels precies te volgen kan de vrijwilliger een antwoord formuleren en teruggeven aan de buitenwereld. De kamer werkt perfect: de Chinezen die hem gebruiken vinden de antwoorden erg slim en grappig.

Het punt van het Chinese Kamer-argument is dat computers, want dat is wat de kamer natuurlijk voorstelt, best intelligent over kunnen komen, zonder dat ze echt bewustzijn hebben. De man in de kamer begrijpt nooit wat de vragen of antwoorden betekenen, hoe slim en nuttig het regelboek ook is. Searle sluit niet uit dat we ooit machines kunnen bouwen met bewustzijn, maar je kunt dat bewustzijn niet afleiden uit hun gedrag. Het volgen van taalregels is misschien een vereiste voor bewustzijn, maar het is zeker niet genoeg om aan te tonen dat er bewustzijn is.

Je kan het Chinese Kamer-argument op allerlei manieren weerleggen, en dat is ook geprobeerd, maar het onderscheid dat Searle maakt tussen syntax (regels en symbolen) en betekenis (de inhoud van een begrip) is heel fundamenteel. Computers zijn namelijk al sinds de tijd van Alan Turing juist ontworpen om symbolen te verwerken zonder met de inhoud bezig te zijn. Het is ongeveer de definitie van een computer dat de inhoud er niet toe doet, terwijl het bewustzijn daar juist om draait. De Chinese Kamer roept dus de vraag op of LaMDA of ChatGPT, toch ook computers, opeens wel in staat zijn om ‘betekenis’ aan dingen te geven.

De Chinese kamer vol taalmodellen
Dit argument hoor je vaak: LaMDA is een computer, en computers geven geen betekenis aan dingen, dus LaMDA ook niet. Of preciezer: LaMDA is geautomatiseerde statistiek. Ze berekent wat ze moet zeggen op basis van de input en miljoenen parameters. Ze kijkt simpelweg naar de eerdere woorden en voorspelt welk woord het meest waarschijnlijk volgt. Dat is een complexe berekening, maar nog steeds een rekensom. LaMDA denkt niet echt na over de vragen. Dit is ongeveer wat John Searle zou zeggen.

Maar je kan ook het tegenovergestelde beweren. Het is misschien niet zo belangrijk dat deze modellen op computers draaien. De kracht van zulke modellen zit niet in de statistiek zelf, maar in de data waarmee ze worden getraind. Je kunt zeggen dat taalmodellen met taal oefenen door steeds hun reactie met een gewenste versie te vergelijken. Dat heeft wel wat weg van hoe mensen leren. Trial and error.

Zou het niet zo kunnen zijn dat in die eindeloze oefeningen iets gebeurt wat lijkt op de manier waarop ons brein betekenissen leert? Dat computerbetekenissen versleuteld worden in de parameters, ongeveer zoals betekenissen bij ons versleuteld worden in de verbindingen tussen hersencellen? Die betekenissen die in het taalmodel ontstaan, kunnen dan weer worden gebruikt bij het formuleren van antwoorden.

Natuurlijk is de onderliggende machine een computer, maar we kunnen computerbewustzijn zien als een hogere-orde effect van de manier waarop de machine werkt, net zoals we het menselijke bewustzijn zien als een hogere orde effect van de biologie van de hersenen.

Computerbewustzijn
Geen vreemde gedachte eigenlijk, maar zelfs als het basisidee klopt is wat LaMDA kan nog heel ver weg van iets dat lijkt op menselijk bewustzijn. Er zijn eigenlijk twee aanvliegroutes om dat duidelijk te maken. We kunnen kijken naar complexiteit of naar de betekenis van betekenis.

Eerst het complexiteitsvraagstuk maar even. In het blogje bewusteratuur besprak ik het idee dat de hoeveelheid bewustzijn van een organisme gezien kan worden als de mate waarin het brein informatie kan integreren. Op dagelijkse basis verwerken we enorme hoeveelheden informatie die uit de zintuigen komen. Het bewustzijn voegt die informatie samen tot één coherente beleving. De mate van bewustzijn van mensen lijkt samen te hangen met de efficiëntie waarmee deze integratie verloopt: onder narcose integreren we geen informatie, onder invloed van LSD een beetje en in nuchtere toestand kunnen we enorm goed integreren.

Om vast te stellen of een taalmodel bewust is, hoeven we misschien alleen maar te kijken of het in staat is om complexe informatie tot een samenhangend geheel te vormen. Misschien ben je onder de indruk van hoe goed ChatGPT de kernboodschappen uit een tekst van tienduizend woorden kan halen, maar mensen kunnen subtiele veranderingen in temperatuur, wind, lichtinval en geluiden gebruiken om de aankomende regen aan te voelen. Daarvoor moet gigantisch veel meer informatie samengebracht worden. Taalmodellen integreren zeker informatie, maar vergeleken met mensen stelt het niets voor.

Het is met taalmodellen ongeveer zoals met schaakcomputers. Ze kunnen iets dat wij moeilijk vinden heel erg goed, maar ze hebben niet de flexibiliteit om heel veel verschillende dingen zo goed te doen. En omdat ze niet zo veelzijdig zijn hebben ze misschien ook niet zoveel ‘bewustzijn’ nodig.

De betekenis van betekenis
De tweede aanvliegroute is om naar het begrip betekenis te kijken. Wat bedoeld Searle eigenlijk als hij zegt dat de man in de Chinese kamer alleen regels volgt maar niet vanuit betekenisgeving werkt?

Betekenis is datgene in de werkelijkheid waar taal naar verwijst. Ik heb in mijn leven op een aantal verschillende bankjes gezeten, dus als iemand het woord zitbank hoor zeggen zijn er allerlei ervaringen uit mijn leven om invulling te geven aan wat die persoon bedoeld. Die totale set ervaringen, de honderden keren dat ik al eens in een bankje zat, vormen samen de achtergrondkennis waardoor ik een verwijzing naar een ‘bankje’ kan oppikken.

Noch ChatGPT noch LaMDA hebben ooit op een bankje gezeten. Ze hebben geen ‘ervaringen’. Wanneer zij het woord ‘bank’ gebruiken denken ze niet aan hoe het is om in een bank te zitten. In plaats daarvan baseren ze zich op hoe mensen het woord gebruiken in de taal waarin ze zijn getraind. Hierdoor kunnen ze het woord correct gebruiken, zonder echt te begrijpen wat het voor mensen betekent.

Je zou ook kunnen zeggen dat taalmodellen mensen heel erg goed geobserveerd hebben, maar daarmee niet de subjectieve kennis van het menszijn hebben kunnen leren. Net zoals wij niet kunnen weten hoe vleermuizen zich voelen, kunnen taalmodellen ons niet van binnen begrijpen. Daarmee is niet gezegd dat taalmodellen geen betekenis geven aan woorden, alleen dat die anders is dan menselijke betekenis.

Ik vind dit zelf een superslimme redenering, maar er is wel een addertje onder het gras. Ook mensen leren namelijk veel van de betekenissen die ze dagelijks via taal gebruiken. Mijn kennis van het begrip ‘economie’ komt vooral van de keren dat het in gesprekken ter sprake kwam of uit boeken die ik heb gelezen. Dit is precies het soort informatie dat LaMDA ook heeft opgedaan tijdens haar training.

Is mijn betekenis van ‘economie’ echt zo anders dan die van het taalmodel? Natuurlijk, LaMDA zal waarschijnlijk geen associaties hebben met de morsige kettingroker die mijn docent was, maar bij abstracte woorden is de overlap zeker groter dan bij woorden waarvoor ik zelf een lichamelijke ervaring heb.

Hoe is het om een taalmodel te zijn?
Of Blake Lemoine nog werkeloos thuis zit weet ik niet, en ik denk echt dat hij zich vergiste toen hij dacht dat computers bewustzijn hebben, maar dan vooral omdat hij dacht dat taalmodelbewustzijn precies is als menselijk bewustzijn. Mensen leren taal om ervaringen met elkaar te kunnen delen. Taalmodellen leren taal om mensen te kunnen imiteren. Dat zijn heel verschillende dingen. Ze delen daardoor de werking van de taal, maar niet het leven dat er achter zit. Taalmodellen zullen nooit menselijk bewustzijn hebben, of kunnen weten hoe het is om een mens te zijn. Maar de keerzijde is dat wij, ook Blake Lemoine niet, niet kunnen weten hoe het is om een taalmodel te zijn.

Meer lezen?
Het probleem dat we niet weten hoe het is om een vleermuis te zijn besprak ik al eens in ervaring, hoe mensen betekenissen leren door taal te gebruiken in de taalpragmatiek van Herbert Clark. Ik schreef over het probleem van verwijzen in Brein in een vat.

Dit blogje maakt uit van een serie over het bewustzijn. In bewust besprak ik hoe het bewustzijn eerder een familie van problemen vormt in plaats van een enkel vraagstuk. In ervaring ging ik in op de vraag of dieren ervaringen hebben en hoe we dat kunnen weten. In dualisme zette ik een aantal filosofische posities over het bewustzijn uiteen. In bewusteratuur ging ik in op pogingen om de hoeveelheid bewustzijn te meten en in wil op de vrije wil.

Ik scheef ook al eerder over AI als een nieuw medium in computerbesluit, over de inzet van AI in bijvoorbeeld het recht, in a priori en in glazen bol over predictive policing

Informatieverwerker

Hebben we het brein altijd al gezien als een ‘soort computer’? Niet bepaald.

Tijdens de industriële revolutie probeerden we het brein vooral te begrijpen als een machine, met begrippen als krachten, elektriciteit en scheiding van functies. Pas in het begin van de 20e eeuw werd ‘informatie’ het dominante begrip.

Met de introductie van de meet- en regeltechniek, en later de computer, ontstond een generatie machines die misschien beter geschikt was om als model voor het brein te dienen dan de stoommachine en haar opvolgers. Dit blogje gaat in op de omslag in ons denken over het brein die door deze ontwikkeling is veroorzaakt.

Inhibitie (19e eeuw)
Misschien was het een wetenschappelijke ontdekking uit de late negentiende eeuw die ons voor het eerst op het informatiespoor zette: inhibitie. Inhibitie is het effect dat sommige zenuwen lichaamsfuncties remmen in plaats van stimuleren

In 1845 lieten Ernst en Eduard Weber zien dat elektrische stimulatie van bepaalde zenuwen de hartsnelheid kon verlagen in plaats van verhogen. Natuurlijk, dit idee van het lichaam als regelsysteem paste wel in de mechanische (pneumatische) metaforen die in die tijd voor het zenuwstelsel opgang maakten. Alleen was het niet makkelijk te onderzoeken en het was onduidelijk hoe het voor het brein werkte.

De vragen die inhibitie opriepen werden nog versterkt door de ideeën van Hermann von Helmholtz die liet zien dat perceptie geen passief proces was. Het oude idee was dat de wereld een indruk op ons brein achterlaat, maar Helmholtz had redenen om een actief proces te veronderstellen. Het argument was dat het brein een 3D wereldbeeld construeert uit twee 2D beelden die door beide ogen worden waargenomen. Dit gebeurt onbewust, maar het betekent wel dat de beelden waar we ons bewust van worden moeten worden gezien als een soort conclusie die aan het bewustzijn gevoerd wordt, eerder dan een directe afdruk van de buitenwereld.

Helmholtz’ idee werd ondersteund door de filosofie van Emanuel Kant die stelde dat perceptie ontstaat doordat het brein haar kenvermogen op de werkelijkheid projecteert. Beide ontdekkingen gaven aanleiding om het brein als een proactief orgaan te zien, eerder dan een passieve waarnemer van de werkelijkheid. De vraag bleef alleen: hoe dan?

Neuronen (19e en 20e eeuw)
Vandaag de dag zouden we ongetwijfeld neuronen bij ons antwoord betrekken. Neuronen zijn de cellen waaruit ons zenuwstelsel is opgebouwd, maar het duurde lang voordat zelfs maar kon worden vastgesteld dat het cellen waren.

Neuronen zijn met elkaar verbonden via fijne vertakkingen die moeilijk waarneembaar zijn. Daardoor kon men niet vaststellen of het zenuwstelsel uit losse cellen bestond of een weefsel vormde dat tussen andere cellen lag. Dit veranderde toen Camillo Golgi bij toeval een techniek ontdekte waarmee zenuwcellen bij het afdrukken een andere kleur kregen dan omliggende cellen. Nu konden zenuwcellen zichtbaar gemaakt worden.

De techniek werd verbeterd door een andere wetenschapper: Ramón y Cajal. Maar beide wetenschappers verschilden van mening over wat de prints met zenuwcellen eigenlijk lieten zien: een weefsel of losse cellen. Toen Golgi en Cajal samen de Nobelprijs kregen, waren ze het nog altijd oneens. Uiteindelijk werd aangetoond dat zenuwcellen inderdaad als cellen gezien moeten worden en niet als een weefsel.

Dit inzicht bracht de wetenschap een stap verder. Met een bouwsteen in handen: de cel, het neuron, kon het zenuwstelsel veel beter onderzocht worden. Langzaam werd duidelijk dat zenuwcellen verschillen in vorm. Op verschillende locaties zijn er verschillende cellen – hetgeen op specialisatie duidt. Verder hebben de cellen vertakkingen als ingangen (dendrieten) en uitgangen (axonen). De overgang tussen twee zenuwcellen (de synaps) speelt een belangrijke rol in het functioneren ervan.

Ook werd duidelijk dat stroom maar in één richting door de hersencel kan. En dat de cellen er in slagen spieren te activeren via een chemisch proces bij de overgang tussen twee cellen. Deze laatste bevinding was de uitkomst van een lang wetenschappelijk dispuut waarin voorstanders van een chemische theorie (soups) lijnrecht tegenover die van een elektrische theorie (sparks) stonden.

Hoe meer we door deze lijn van onderzoek ontdekten, hoe meer het misschien begon te dagen dat we nog weinig wisten. De telefooncentrale was lang een metafoor geweest om het brein mee te begrijpen, maar het was duidelijk dat als de neuronen al als schakelaars gezien moesten worden, ze heel anders werkten dan de schakelingen in deze centrales.

Machines (20e eeuw)
Het gebruik van ideeën uit de techniek om het lichaam te begrijpen is vermoedelijk zo oud als het denken zelf. In de geschiedenis van het denken over het brein zijn we dit idee al verschillende malen tegengekomen. Maar in de 20e eeuw draaiden onderzoekers de richting om. Ze gingen pogingen doen om het brein in technische zin na te maken: ze ontwikkelden robots.

De meet- en regeltechniek kwam op – en machines die bijvoorbeeld een koers vast konden houden, werden daardoor mogelijk. Thomas Ross bouwde een robot die via trial en error zijn weg door een doolhof kon vinden en dit daarna kon herhalen; de meest eenvoudige manier om een leerproces weer te geven. Maar in veel opzichten was Ross’ machine niet meer dan een gimmick. Een wijziging in het doolhof maakte al dat de robot zijn weg niet meer kon vinden.

Het onderzoek naar inhibitie had al aangetoond dat neuronen ook deel uitmaken van een meet- en regelsysteem. We wisten alleen nog niet hoe. Onderzoek naar de elektrische werking van neuronen gaf antwoorden – en nieuwe vragen.

Elektriciteit gaat heel anders door een neuron dan door een metaaldraad en ook veel langzamer. De eerste biochemische modellen werden voorgesteld om dit te kunnen verklaren. Ook werd ontdekt dat zenuwen alles-of-niets-gedrag vertonen. Ze zijn in essentie digitaal. Ze kunnen pulsen sneller of langzamer afgeven, maar elke puls is even sterk.

In de eerste Eerste Wereldoorlog werden radioversterkers ontwikkelt. Edgar Adrian en Yngve Zotterman gebruikten dit om aan te tonen dat: (1) neuronen digitaal van karakter zijn, (2) ze stoppen met vuren als ze te veel gestimuleerd worden en (3) de intensiteit uitgedrukt wordt in pulsfrequentie en niet in puls-sterkte. Later paste Adrian deze versterkingstechniek ook op het brein als geheel toe en ontdekte dat het brein in rust in een bepaalde frequentie actief is (we noemen dat nu alfagolven).

Deze ontdekkingen lieten misschien eerder de ‘vreemdheid’ van het zenuwstelsel zien dan dat ze antwoorden gaven over de werking ervan. Maar ze introduceerden, samen met de robotexperimenten, wel nieuwe begrippen in het denken over het brein. Begrippen die later heel centraal zouden worden: informatie, code en boodschap.

Controle (20e eeuw).
En toen werd de computer uitgevonden: eerst op papier door Alan Turing en John von Neumann, in de jaren 40. Al snel, in de jaren 50, werden ze ook echt gebouwd. Turing bewees dat de ‘Turingmachine’, een vrij eenvoudig denkbeeldig apparaat, werkelijk elke denkbare berekening kon uitvoeren. Zou het brein niet op dezelfde manier kunnen werken?

In de vroege ontwikkeling van de computer was er veel enthousiasme over deze ideeën. Het vakgebied van de cybernetica kwam eruit voort. Hier stond de symbolische verwerking van signalen en communicatie centraal. Maar de droom dat het op korte termijn mogelijk zou zijn een computer te maken die het menselijk brein zou simuleren spatte al snel uiteen.

De eerste intelligente robots waren ook niet erg intelligent, maar wat erger was, de binaire werking van de computer leek niet op de werking van neuronen. Die zijn in principe ook binair, maar ze verwerken signalen op een analoge manier. Signaalsterkte wordt uitgedrukt in vuurfrequentie. De logische schakelingen in de computer met EN-poorten en OF-poorten kunnen helemaal niet met een dergelijk signaal omgaan.

Het idee dat het brein een machine is die symbolen verwerkt is blijven hangen, maar we moesten wachten op een theorie van hoe de biologie die verwerking aanpakt.

Tot slot
Het zenuwstelsel is te zien als een regelsysteem en als een informatieverwerker. In veel opzichten denken we er nog altijd zo over. En toch hebben de meet- en regeltechniek en computerwetenschappen de belofte dat ze ons zouden helpen om het brein te begrijpen maar zeer gedeeltelijk ingelost.

Op sommige niveaus lijkt ons zenuwstelsel op een regelsysteem, maar de soorten signalen die het gebruikt zijn heel anders dan die we uit de techniek kennen. Steeds moesten we concluderen dat het brein toch echt anders werkt dan de techniek die we als model gebruikten.

En dan is er nog de vraag hoe het allemaal schaalt. Hoe ontstaan uit al deze signaalverwerking intelligentie en bewustzijn? Het is nog altijd een vraagstuk waar we slecht raad mee weten. Daarom zijn we, zoals ik in mijn volgende blogje laat zien, computers maar gaan inzetten om het brein beter door te meten en te modelleren, in plaats van zelf als een model voor het brein te dienen.

Meer lezen?
Dit blogje is in zijn geheel gebaseerd op ‘The Idea of the Brain’ van Matthew Cobb. Het maakt het derde deel uit van een quintologie, die begon met de post ‘brein quintologie’, verder ging met ‘op zoek naar het brein’ en nog verder gaat met ‘gedachtenmeting‘ en ‘het onbegrijpelijke brein‘.

Ik schreef al eerder over de wisselwerking tussen informatiewetenschappen en technologie en in ‘reading James Gleick’s the information’ en over de ideeën van Emanuel Kant in ‘kenvermogen

Deze blogjes zijn natuurlijk vooral bedoeld om jullie lekker te maken om The Idea of the Brain zelf te lezen.