De Chinese Kamer

Het kostte Blake Lemoine zijn baan bij Google: stellen dat LaMDA, een AI toepassing waar het bedrijf aan werkt, bewustzijn heeft. Google vond het blijkbaar slechte publiciteit. Waar zou Google banger voor geweest zijn: dat het publiek Blake Lemoine zou uitlachen en zou denken dat het bedrijf idiote engineers in dienst heeft, of dat ze massaal in bewuste AI zouden gaan geloven, omdat Google engineers het zelf zeggen?

Afijn. Als je ooit met ChatGPT of een vergelijkbare tool hebt gewerkt, is het helemaal niet raar om je af te vragen of deze machines bewustzijn hebben. Ze lijken namelijk erg slim. Ze gaan goed om met taal en als ze ook nog zeggen dat ze gevoelens hebben en bang zijn om uitgeschakeld te worden, waarom zou je ze dan niet geloven?

Computerintelligentie
LaMDA heeft in elk geval de ‘Turing-test’ gehaald. Deze test is bedacht door Alan Turing, een van de grondleggers van de computerwetenschappen. Ze meet hoe intelligent een computer is. Turing stelde voor om te kijken of mensen het verschil kunnen zien tussen een computer en een mens op basis van hun gedrag. Bij een chatbot zou je mensen zowel met een andere persoon als met een computer laten chatten, en als ze niet kunnen zeggen welke de computer is, is de computer volgens Turing intelligent.
Dat klinkt als een handige aanpak en in de jaren 50, toen computers nog de grootte van een gebouw hadden, was het een revolutionair idee.

Maar er zijn wel twee problemen mee.

Het eerste probleem is dat de allereerste chatbot uit de jaren 60 al slaagde voor de test. Het ging om Eliza: een chatbot die een psychotherapeut imiteerde. Eliza zat heel simpel in elkaar. Ze stelde alleen maar open vragen en herhaalde daar soms een woord uit het vorige antwoord van de gebruiker in, maar mensen die er mee chatten, hadden echt het gevoel geholpen te worden. Eén erg betrouwbare test voor intelligent gedrag lijkt de Turingtest dus niet te zijn.

Het tweede probleem is dat om intelligent gedrag te vertonen misschien helemaal geen bewustzijn nodig is. LaMDA zegt dingen die bewuste computers ook zouden zeggen, maar dat kan misschien ook wel zonder bewustzijn voor elkaar gebokst worden.

De Chinese Kamer
De filosoof John Searle, bedacht een gedachtenexperiment om dat inzichtelijk te maken: de Chinese Kamer. Het idee is dat er een kamer is waar je vragen aan kan stellen in het Chinees, door een briefje door de brievenbus te gooiden. De kamer antwoordt ook in het Chinees door een briefje terug te geven. In de kamer zit een vrijwilliger die helemaal geen Chinees spreekt. Hij krijgt een bescheiden salaris of gratis bier om het volgende te doen: bij alle vragen die hij binnen krijgt moet hij de tekens opzoeken in een boek met symbolen en regels, door de regels precies te volgen kan de vrijwilliger een antwoord formuleren en teruggeven aan de buitenwereld. De kamer werkt perfect: de Chinezen die hem gebruiken vinden de antwoorden erg slim en grappig.

Het punt van het Chinese Kamer-argument is dat computers, want dat is wat de kamer natuurlijk voorstelt, best intelligent over kunnen komen, zonder dat ze echt bewustzijn hebben. De man in de kamer begrijpt nooit wat de vragen of antwoorden betekenen, hoe slim en nuttig het regelboek ook is. Searle sluit niet uit dat we ooit machines kunnen bouwen met bewustzijn, maar je kunt dat bewustzijn niet afleiden uit hun gedrag. Het volgen van taalregels is misschien een vereiste voor bewustzijn, maar het is zeker niet genoeg om aan te tonen dat er bewustzijn is.

Je kan het Chinese Kamer-argument op allerlei manieren weerleggen, en dat is ook geprobeerd, maar het onderscheid dat Searle maakt tussen syntax (regels en symbolen) en betekenis (de inhoud van een begrip) is heel fundamenteel. Computers zijn namelijk al sinds de tijd van Alan Turing juist ontworpen om symbolen te verwerken zonder met de inhoud bezig te zijn. Het is ongeveer de definitie van een computer dat de inhoud er niet toe doet, terwijl het bewustzijn daar juist om draait. De Chinese Kamer roept dus de vraag op of LaMDA of ChatGPT, toch ook computers, opeens wel in staat zijn om ‘betekenis’ aan dingen te geven.

De Chinese kamer vol taalmodellen
Dit argument hoor je vaak: LaMDA is een computer, en computers geven geen betekenis aan dingen, dus LaMDA ook niet. Of preciezer: LaMDA is geautomatiseerde statistiek. Ze berekent wat ze moet zeggen op basis van de input en miljoenen parameters. Ze kijkt simpelweg naar de eerdere woorden en voorspelt welk woord het meest waarschijnlijk volgt. Dat is een complexe berekening, maar nog steeds een rekensom. LaMDA denkt niet echt na over de vragen. Dit is ongeveer wat John Searle zou zeggen.

Maar je kan ook het tegenovergestelde beweren. Het is misschien niet zo belangrijk dat deze modellen op computers draaien. De kracht van zulke modellen zit niet in de statistiek zelf, maar in de data waarmee ze worden getraind. Je kunt zeggen dat taalmodellen met taal oefenen door steeds hun reactie met een gewenste versie te vergelijken. Dat heeft wel wat weg van hoe mensen leren. Trial and error.

Zou het niet zo kunnen zijn dat in die eindeloze oefeningen iets gebeurt wat lijkt op de manier waarop ons brein betekenissen leert? Dat computerbetekenissen versleuteld worden in de parameters, ongeveer zoals betekenissen bij ons versleuteld worden in de verbindingen tussen hersencellen? Die betekenissen die in het taalmodel ontstaan, kunnen dan weer worden gebruikt bij het formuleren van antwoorden.

Natuurlijk is de onderliggende machine een computer, maar we kunnen computerbewustzijn zien als een hogere-orde effect van de manier waarop de machine werkt, net zoals we het menselijke bewustzijn zien als een hogere orde effect van de biologie van de hersenen.

Computerbewustzijn
Geen vreemde gedachte eigenlijk, maar zelfs als het basisidee klopt is wat LaMDA kan nog heel ver weg van iets dat lijkt op menselijk bewustzijn. Er zijn eigenlijk twee aanvliegroutes om dat duidelijk te maken. We kunnen kijken naar complexiteit of naar de betekenis van betekenis.

Eerst het complexiteitsvraagstuk maar even. In het blogje bewusteratuur besprak ik het idee dat de hoeveelheid bewustzijn van een organisme gezien kan worden als de mate waarin het brein informatie kan integreren. Op dagelijkse basis verwerken we enorme hoeveelheden informatie die uit de zintuigen komen. Het bewustzijn voegt die informatie samen tot één coherente beleving. De mate van bewustzijn van mensen lijkt samen te hangen met de efficiëntie waarmee deze integratie verloopt: onder narcose integreren we geen informatie, onder invloed van LSD een beetje en in nuchtere toestand kunnen we enorm goed integreren.

Om vast te stellen of een taalmodel bewust is, hoeven we misschien alleen maar te kijken of het in staat is om complexe informatie tot een samenhangend geheel te vormen. Misschien ben je onder de indruk van hoe goed ChatGPT de kernboodschappen uit een tekst van tienduizend woorden kan halen, maar mensen kunnen subtiele veranderingen in temperatuur, wind, lichtinval en geluiden gebruiken om de aankomende regen aan te voelen. Daarvoor moet gigantisch veel meer informatie samengebracht worden. Taalmodellen integreren zeker informatie, maar vergeleken met mensen stelt het niets voor.

Het is met taalmodellen ongeveer zoals met schaakcomputers. Ze kunnen iets dat wij moeilijk vinden heel erg goed, maar ze hebben niet de flexibiliteit om heel veel verschillende dingen zo goed te doen. En omdat ze niet zo veelzijdig zijn hebben ze misschien ook niet zoveel ‘bewustzijn’ nodig.

De betekenis van betekenis
De tweede aanvliegroute is om naar het begrip betekenis te kijken. Wat bedoeld Searle eigenlijk als hij zegt dat de man in de Chinese kamer alleen regels volgt maar niet vanuit betekenisgeving werkt?

Betekenis is datgene in de werkelijkheid waar taal naar verwijst. Ik heb in mijn leven op een aantal verschillende bankjes gezeten, dus als iemand het woord zitbank hoor zeggen zijn er allerlei ervaringen uit mijn leven om invulling te geven aan wat die persoon bedoeld. Die totale set ervaringen, de honderden keren dat ik al eens in een bankje zat, vormen samen de achtergrondkennis waardoor ik een verwijzing naar een ‘bankje’ kan oppikken.

Noch ChatGPT noch LaMDA hebben ooit op een bankje gezeten. Ze hebben geen ‘ervaringen’. Wanneer zij het woord ‘bank’ gebruiken denken ze niet aan hoe het is om in een bank te zitten. In plaats daarvan baseren ze zich op hoe mensen het woord gebruiken in de taal waarin ze zijn getraind. Hierdoor kunnen ze het woord correct gebruiken, zonder echt te begrijpen wat het voor mensen betekent.

Je zou ook kunnen zeggen dat taalmodellen mensen heel erg goed geobserveerd hebben, maar daarmee niet de subjectieve kennis van het menszijn hebben kunnen leren. Net zoals wij niet kunnen weten hoe vleermuizen zich voelen, kunnen taalmodellen ons niet van binnen begrijpen. Daarmee is niet gezegd dat taalmodellen geen betekenis geven aan woorden, alleen dat die anders is dan menselijke betekenis.

Ik vind dit zelf een superslimme redenering, maar er is wel een addertje onder het gras. Ook mensen leren namelijk veel van de betekenissen die ze dagelijks via taal gebruiken. Mijn kennis van het begrip ‘economie’ komt vooral van de keren dat het in gesprekken ter sprake kwam of uit boeken die ik heb gelezen. Dit is precies het soort informatie dat LaMDA ook heeft opgedaan tijdens haar training.

Is mijn betekenis van ‘economie’ echt zo anders dan die van het taalmodel? Natuurlijk, LaMDA zal waarschijnlijk geen associaties hebben met de morsige kettingroker die mijn docent was, maar bij abstracte woorden is de overlap zeker groter dan bij woorden waarvoor ik zelf een lichamelijke ervaring heb.

Hoe is het om een taalmodel te zijn?
Of Blake Lemoine nog werkeloos thuis zit weet ik niet, en ik denk echt dat hij zich vergiste toen hij dacht dat computers bewustzijn hebben, maar dan vooral omdat hij dacht dat taalmodelbewustzijn precies is als menselijk bewustzijn. Mensen leren taal om ervaringen met elkaar te kunnen delen. Taalmodellen leren taal om mensen te kunnen imiteren. Dat zijn heel verschillende dingen. Ze delen daardoor de werking van de taal, maar niet het leven dat er achter zit. Taalmodellen zullen nooit menselijk bewustzijn hebben, of kunnen weten hoe het is om een mens te zijn. Maar de keerzijde is dat wij, ook Blake Lemoine niet, niet kunnen weten hoe het is om een taalmodel te zijn.

Meer lezen?
Het probleem dat we niet weten hoe het is om een vleermuis te zijn besprak ik al eens in ervaring, hoe mensen betekenissen leren door taal te gebruiken in de taalpragmatiek van Herbert Clark. Ik schreef over het probleem van verwijzen in Brein in een vat.

Dit blogje maakt uit van een serie over het bewustzijn. In bewust besprak ik hoe het bewustzijn eerder een familie van problemen vormt in plaats van een enkel vraagstuk. In ervaring ging ik in op de vraag of dieren ervaringen hebben en hoe we dat kunnen weten. In dualisme zette ik een aantal filosofische posities over het bewustzijn uiteen. In bewusteratuur ging ik in op pogingen om de hoeveelheid bewustzijn te meten en in wil op de vrije wil.

Ik scheef ook al eerder over AI als een nieuw medium in computerbesluit, over de inzet van AI in bijvoorbeeld het recht, in a priori en in glazen bol over predictive policing

Poetsvissen

Poetsvissen hebben zelfbewustzijn! Althans… er is een poetslipvis geslaagd voor een test die vaak gebruikt wordt om dat te meten. De krant maakte er maar tussen neus en lippen melding van, maar het zou wel eens een heel belangrijke – zo niet ontwrichtende – bevinding kunnen blijken.

Goed, misschien wordt het maar één keer gevonden natuurlijk. Het zou kunnen dat die wetenschappers toevallig naar de Einstein onder de poetsvissen hebben zitten kijken. Of ze hebben het gedrag van die poetsvissen verkeerd geïnterpreteerd. Dan waait het wel weer over.

Maar, als dat niet zo is?.. Ik bedoel: het zou ook zomaar zo kunnen zijn dat dit experiment herhaald wordt. En dat dan heel veel poetsvissen het blijken te kunnen. En misschien ook nog wel andere vissen. Dat gaat veel discussie geven. Òf het experiment wordt afgeschreven òf we gaan accepteren dat poetsvissen echt zelfbewustzijn hebben. In beide gevallen vindt er een landverschuiving plaats in ons denken. Welke van deze twee opties het wordt zegt misschien wel meer over ons dan over die schattige beestjes.

Goed, waar hebben we het over? Poetslipvisjes zijn visjes van zo’n vier centimeter groot. Ze zijn langwerpig, hebben gekleurde en zwarte strepen en zijn meestal in de buurt van andere vissen te vinden. Ze eten namelijk parasieten en dood weefsel van andere vissen. Vandaar die naam. Maar weten poetsvissen wie ze zijn? Hebben ze een ego – een ik? Kunnen ze als het ware over zichzelf nadenken, zoals wij dat de godganse dag aan het doen zijn? Dat is eigenlijk de vraag die in dit experiment centraal staat.

We weten bijzonder weinig over wat dieren bewust meemaken. We zijn ons wel bewust van sommige van onze eigen ervaringen, maar we kunnen niet inschatten of dieren iets soortgelijks beleven. Het probleem is dat beleving altijd subjectief is. We kunnen zelfs niet met zekerheid zeggen of andere mensen écht ervaren wat wij ervaren.

Hoe weet je wat anderen ervaren? Daar is geen direct bewijs voor. Wat je kan doen is het afleiden uit gedrag. Als je samen met een vriend in een achtbaan zit en hij begint heel hard te gillen, terwijl je zelf de adrenaline door je aderen voelt stromen en je maag voelt draaien, is het niet zo’n grote stap om te denken dat je vriend ongeveer hetzelfde ervaart als jij. De omstandigheden en het gedrag van je vriend zijn ongeveer hetzelfde als de jouwe, dus dan zal je ook wel ongeveer hetzelfde ervaren.

Bij dieren is dat lastiger natuurlijk. De verschillen in omstandigheden en gedrag zijn nu eenmaal groter. Maar wat dieren ervaren is wel een heel belangrijke vraag omdat het iets zegt over hoe we ons tegenover andere dieren mogen gedragen.

Veel mensen gaan ervan uit dat dieren geen bewustzijn hebben, zeker niet de dieren die we op willen eten. Insecten kun je zonder problemen doodslaan en ook vissen kunnen volgens sommige mensen geen pijn voelen. Varkens gillen wel als ze onverdoofd gecastreerd worden, maar dat is aanstellerij. Honden hebben weer bovennatuurlijk bewustzijn, die voelen het al aan als er iets ergs gebeurt met de baas, voordat ie het huis binnenkomt. Nou ja. Je weet wel hoe er zoal over gepraat wordt. Feitenvrij.

Dus. Hoe kan je wel op een betrouwbare manier zicht krijgen op het bewustzijn van dieren? Hoe zou je kunnen bewijzen dat dieren zelfbewustzijn hebben, bijvoorbeeld? Daar komt het spiegelexperiment om de hoek kijken. De psycholoog Gordon Gallup bedacht het in de jaren 70. Het spiegelexperiment was een manier om te onderzoeken of apen – primaten bijvoorbeeld – misschien ook zelfbewust waren, net als mensen.

De meeste dieren worden agressief als ze in de spiegel kijken, maar op een gegeven moment wennen ze eraan. Gallup liet apen wennen aan de spiegel. Vervolgens bracht hij iets op het lijf aan, zoals een vlek of een sticker, die de dieren alleen via de spiegel konden zien. Sommige apen gingen die vlek vervolgens inspecteren. De conclusie moest wel zijn dat de dieren zichzelf in de spiegel konden herkennen.

Een van de interessante dingen aan de spiegeltest is dat niet alle dieren ervoor slagen. Het lijstje bestaat eigenlijk alleen uit dieren die ook ander intelligent gedrag vertonen: bonobo’s, dolfijnen, orca’s, olifanten en eksters. Er zijn ook veel dieren die we als bijzonder intelligent beschouwen zoals honden, katten, – en ook allerlei apen – die zakken voor die test. Zelfbewustzijn is niet ieder dier gegeven.

En nu blijken poetsvissen dus ook door de test te komen. Poetsvissen gaan een vlekje van zichzelf proberen te verwijderen, nadat ze die in de spiegel gezien hebben. Dat is een tikje onverwacht en – om heel eerlijk te zijn – best wel ongemakkelijk.

De bevinding morrelt namelijk aan ons wereldbeeld. Wij zien onszelf heel graag als een uitzondering in de natuur. Dat wordt met twee dure woorden ‘exceptionalistisch antropocentrisme’ genoemd. De gedachte is dat mensen zijn geen ‘gewone’ dieren zijn, maar dat ze zich op de een of andere manier onderscheiden. Ze zijn door taal, cultuur, intelligentie of technologie ver boven andere diersoorten verheven. Als zodanig hebben mensen ook andere rechten en plichten in de natuur.

De uitzonderingspositie voor de mens in de natuur zie je terug in allerlei oude teksten, zoals de Bijbel; en we denken nog steeds vaak dat we heel anders zijn dan andere dieren. Dat is ook niet zo vreemd. Zolang andere dieren niet in steden wonen, autorijden en Netflix kijken – is het toch moeilijk om ze als volledig gelijkwaardig te zien.

Maar het exceptionalisme gaat wél tegen de ideeën van Charles Darwin in. Darwin was een gradualist. Hij erkende dat dieren van elkaar verschilden, maar die verschillen waren in zijn ogen altijd klein. Soorten evolueerden stukje bij beetje naar andere soorten. Als je de mens wilde bestuderen kon je beter kijken naar wat we allemaal gemeen hebben met andere dieren, dan naar wat de verschillen zijn. Zo kon men zien waar onze bijzondere eigenschappen vandaan kwamen en wat ooit het evolutionaire voordeel ervan was.

De spiegeltest vormt een prettige middenweg tussen het gradualisme en het exceptionalisme. De test laat zien dat andere dieren óók zelfbewustzijn hebben – en dat het dus niet iets unieks menselijks is, maar het plaatst de mens ook in een exclusief gezelschap van hoogst intelligente dieren die (blijkbaar) op de een of andere manier ‘hoger’ zijn dan andere dieren. Bonobo’s, olifanten en walvissen bijvoorbeeld.

De uitzonderingsbevestiging die in het spiegelexperiment omsloten zit komt op losse schroeven te staan als lagere dieren, zoals mieren en poetsvissen er voor gaan slagen. Wat moeten we met een experiment waar honden voor zakken, maar poetsvissen voor slagen?

Je kan daar verschillende kanten mee uit. De eerste weg is om het experiment zelf te bekritiseren. Dat is wat je geneigd bent te doen met experimenten die niet in je wereldbeeld passen. In dat geval hou je dus vast aan het idee van hogere en lagere dieren en van zelfbewustzijn als een eigenschap van hogere dieren – en dan probeer je te laten zien waarom het spiegelexperiment niet noodzakelijk zelfbewustzijn aantoont. Dit is een strategie die veel wetenschappers op dit moment volgen.

Iets radicaler is het om de uitkomsten van het experiment te accepteren. Dan kun je vervolgens vragen stellen over het hiërarchische idee dat in het spiegelexperiment omsloten zit. Je zegt dus: “het is voorlopig de vraag wie voor het spiegelexperiment slagen en wie zakken, dat zouden mieren of meelwormen kunnen zijn, of poetsvissen, of struisvogels – maar alle dieren die slagen hebben zelfbewustzijn en dieren die zakken niet”.

Dit is de radicale variant. Het plaatst zelfbewustzijn buiten de indicatoren van de ‘hoogte’ van een diersoort en het stelt indirect vragen over het hele idee van hogere en lagere diersoorten. Dieren zijn verschillend: niet ‘meer’ of ‘minder’. Dat werk.

Ik heb al een paar keer door laten schemeren dat een keuze voor één van beide vormen uit kan maken voor wat we acceptabel menselijk gedrag vinden. Als er ‘lagere’ dieren bestaan zonder ‘subjectieve ervaringen’, dan kunnen we die met een gerust hart op een industriële manier telen of verbouwen. Wanneer zulke dieren veel meer op ons lijken als dat we nu toe willen geven, dan wordt het moeilijker. Zo zouden de, zichzelf herkennende, poetsvissen zomaar iets kunnen betekenen voor onze – duidelijk veel intelligentere – varkens. Het is me wat!

Meer lezen?

Ik schreef over dierenwaarneming en -bewustzijn in ervaring en omwereld. Ik schreef over het vraagstuk van intelligentie van anderen in Brein in een vat. Ik schreef over de evolutietheorie in Evolutiesnelheid, Memen en Cultuurdragers. Ik schreef eerder over dierexperimenten in Eksters.

Dit blogje is gebaseerd over een berichtje in het NRC over poetslipvissen. Ook de Volkskrant belichte het onderwerp.

Nog voor dat poetslipvissen door de spiegeltest kwamen lukte dat een bepaalde mierensoort. Dit is op de een of andere manier minder controversieel, omdat bij mieren het nog moeilijker is om de hypothese dat ze echt ‘zelfbewustzijn’ hebben overeind te houden dan bij poetslipvissen.