Onze waarnemingservaring als model
In een vorige blog stelde ik dat ons bewustzijn niet veel anders is dan onze waarnemingservaring. In dit blog wil verder schrijven over hoe die waarnemingservaring tot stand komt. Want dat gaat niet rechttoe rechtaan, denk ik.
Neem bijvoorbeeld ons gezichtsvermogen. Met onze twee ogen zien wij de wereld om ons heen en reageren op veranderingen die om actie vragen. Je kunt denken dat er een directe afbeelding in onze hersenen gevormd wordt, maar dat is onjuist! In ieder van onze ogen zit een blinde vlek middenin onze lichtreceptoren, op de plaats waar de oogzenuw doorheen loopt. Maar we zien die blinde vlek niet, dus het beeld in ons brein wordt kunstmatig aangevuld. Maw, er wordt dus een nieuw beeldmodel gemaakt.
Verder zien we een driedimensionaal beeld waarin ons brein allerlei dingen kan doen, afstand schatten, dingen anticiperen en ga zo maar door. En dat niet alleen, als we lopen, zien we een heel goed gestabiliseerd beeld – gelukkig maar want anders zouden we snel gek worden van de schokkerige beelden en ons niet meer bewegen. (Deze bewerkingen worden nu in veel camera’s door een processor of lensverdraaiing gedaan.)
Daarnaast dragen al onze vijf zintuigen hun steentje bij aan het beeldmodel. Onze oren horen een auto aankomen die nog niet zichtbaar is. Onze neus ruikt een onzichtbare brand. En onze huid voelt een storm aankomen of de ondraaglijke hitte. Met onze mond proeven we de smaak van voedsel, bijvoorbeeld chocolade. Dat gecombineerd is onze waarnemingservaring, een model daarvan dat in onze hersenen gevormd en steeds bijgehouden wordt. Geheel automatisch en zonder dat we er ook maar iets voor hoeven te doen.
Dit aangevulde model is een afspiegeling van wat we ervaren. Het model waarop we vervolgens reageren wordt tenminste gekleurd door onze verwachtingen en onze stemming. We zien vaak iets niet omdat we het niet verwachten of omdat onze aandacht op iets anders gericht is. Mooie voorbeelden daarvan zijn eerder gegeven. Als we in een goede stemming zijn, gedragen we ons aardiger dan wanneer we een rotbui hebben.
Tel daarbij op dat we allemaal onze biasses (voor- en nakeuren) hebben, en nog veel meer andere ervaringen ons gedrag beïnvloeden, dan beginnen we te zien hoe gecompliceerd een mens in elkaar zit – vergeleken met de veel simpeler AI-modellen die vandaag de dag al bovenmenselijke prestaties leveren. Maar ja, die hebben dan ook geen echte zintuigen en zijn niet afhankelijk van stemmingen en eerdere ervaringen…
Tot slot is het al helemaal onduidelijk hoe we abstracte ideeën en gevoelens ervaren of modelleren, en er ook mee kunnen omgaan. Ook daarvan maken we ongetwijfeld een voorstellingsmodel van in ons brein, maar hoe dat kan is volslagen onduidelijk. Onbewust voegen we daar waarschijnlijk nog ander zaken aan toe.
Bijvoorbeeld het feit dat we met onze waarnemerservaring vrijwel direct aanvoelen of we met een mens of een robot te maken hebben. Robots werken toch automatischer dan mensen. De enige uitzondering die ik ken, zijn robots zoals ELIZA, die hun reacties door spiegelen afleiden van onze antwoorden. Daar tuint vrijwel iedereen in. Blijkbaar zijn we dit soort empathie en interesse niet gewend van mensen, en zouden we die toch wel graag willen krijgen!
Die constatering zou een goede aanleiding kunnen zijn om ons als mens te verbeteren. Minder zelfgericht te zijn en meer aandacht en empathie voor onze medemensen. Anders doen robots zoals ELIZA dat straks wel…
Hein van Steenis (24 oktober 2017) Zie verder op mijn blog www.vsteenis.nl