AI = Augmented Intelligence?
Na de vele successen met deep learning, worden de beperkingen van deze AI-ontwerpbenadering duidelijk. Vandaar dat nu alternatieven daarvoor worden aangedragen die deze beperkingen zouden moeten overwinnen. Bijvoorbeeld in Ontwerpen voor Augmented Intelligence, zoals beschreven in Medium Daily Digest van 25 oktober 2017. Kunnen we data een ziel geven? Dat zal wel moeten!
Moeten, want AI zal alleen door mensen geaccepteerd worden als het niet kil, maar warmbloedig en meelevend aanvoelt – zich net zo voorspelbaar onvoorspelbaar voordoet als wij zelf zijn. Als de intelligentie kunstmatig aanvoelt, zal dat geen blijvertje zijn, zeggen Tim Brown en twee andere auteurs. Daar kun je overigens wel vraagtekens bij zetten.
In het verhaal staat helaas niet hoe je data een ziel kunt geven, dat lijkt me ook niet mogelijk. Het enige dat je wel kunt doen, is mensen laten geloven dat AI een ziel heeft. Maar dat heeft niets met AI te maken, maar alles met het bewerken van de menselijke psyché. Vroeger geloofde iedereen dat de aarde plat is en het in sprookjes geloven is van alle tijden. Mensen zijn flexibel, zulks in tegenstelling tot data.
In Op weg naar een nieuw tijdperk van machine intelligence staat een verhaal over het geheim van strong AI, overigens een benaming die al 40 jaar geleden opdook om de beperkingen van de toenmalige AI te relativeren. Jeff Hawkins stelt in Daily Mediun van 14 november 2017 dat deep learning-oplossingen weliswaar gemiddeld zeer accuraat zijn, maar toch spectaculair de mist in kunnen gaan. Als voorbeeld noemt hij een AI-systeem dat een tandenborstel als een baseball bat herkent. Dat is naar mijn smaak onvermijdelijk als je veel voorbeelden gebruikt van wat iets is, maar geen voorbeelden van wat iets niet is. Het is echter ondoenlijk om voldoende negatieve voorbeelden te verzamelen, want dan kun je wel aan de gang blijven! Mensen hebben dat door schade en schande geheel automatisch geleerd, maar dat heeft wel de nodige jaren gevraagd.
Hawkins pleit ervoor om meer onderzoek te doen naar hoe ons brein functioneert, want die laat zien dat dit soort algemene intelligentie wel mogelijk is. Hij bespreekt als voorbeeld een getekende 2D theekop, die wij onmiddellijk herkennen als een theekop en begrijpen waarvoor die gebruikt kan worden. AI zal die 2D-tekening waarschijnlijk herkennen als theekop, maar hoe zou AI leren wat je daarmee kunt doen. Dat vergt wederom onze menselijke ervaring of intelligentie, opgedaan in vele jaren.
In de Volkskrant van 20 november 2017, tenslotte, een artikel van Johannes Fahrenfort over ons grootste gevaar: een robot die ons beter begrijpt dan wij hem. “Hoe beter AI wordt, hoe moeilijker het wordt om te voorspellen wat zij doet of wat haar motieven zijn.” We zouden ons voordeel moeten doen met de nieuwe AI-techniek door die het vermogen te geven ons beter te begrijpen en zo ons beter van dienst te zijn. Maar dat lukt nog niet erg, maar we moeten het gevaar dat zij ons beter begrijpen dan wij hem, zeker niet bagatelliseren – schrijft Fahrenfort, cognitief neurowetenschapper aan twee Amsterdamse universiteiten.
Volgens mij kunnen AI-systemen echter niet begrijpen, ze doen alleen wat ze geleerd is. Wetenschappers kunnen blijkbaar geloven dat robots kunnen begrijpen, maar begrijpen houdt in het hebben van ervaring. Zonder dat je iets eerder ervaren hebt, kun je dat nauwelijks begrijpen. En om iets kunnen ervaren, moet je een lichaam hebben. Je kunt wel in een boek iets lezen wat je begrijpt, maar dat alleen als je eerder een soortgelijke fysieke ervaring hebt gehad – dan wordt het een virtuele ervaring die niet van een echte te onderscheiden is.
Neurowetenschappers willen dat maar niet begrijpen. Zij geloven dat wij ons brein zijn, Swaab voorop. Maar ons lichaam en de ervaring die dat eerder heeft opgedaan, zijn een voorwaarde voor menselijke intelligentie. In een eerder blog prefereerde Douglas Hofstadter het woord ’ziel’ (zonder religieuze bijsmaak) in plaats van ‘bewustzijn’. Die ziel die volgens hem verpakt zit in ons zenuwstelsel: de gemiddeld duizend synapsen per zenuwcel, waarvan we er zo’n 100 miljard hebben.
Hoe dat allemaal (meestal) zo goed samenwerkt, begrijpen we niet. Volgens mij werkt ‘begrijpen’ vooral onbewust, en zullen we zijn werking waarschijnlijk nooit te weten komen. Bovendien werkt begrijpen individueel – en is het dus moeilijk in een model te vangen. Mensen kunnen van alles geloven, zelfs dat wij ons brein zijn. Rigide data en flexibel individueel geloof hebben echter weinig met elkaar te maken. Nog een reden waarom de huidige AI-systemen zeker niet kunnen begrijpen.
Hein van Steenis (23 november 2017) Zie verder mijn blog op www.vsteenis.nl