De nieuwe GPT-3 robot

OpenAI heeft zijn nieuwste robot GPT-3 beschikbaar gesteld aan een aantal wetenschappers, zie bijvoorbeeld de column “Een Turingtest voor Trump” van Marc Hijink in de NRC van 20 oktober 2020. Verbluffende resultaten: geef de robot één zin en hij verzint er een heel verhaal bij, getraind  op 570 gigabyte aan teksten. Het was te verwachten, als je maar voldoende voorbeelden die je kunt coderen en voldoende computerkracht tot je beschikking hebt, dan kun je die in principe ook gebruiken voor verbluffende resultaten. En niet alleen voor het schrijven van verhalen…

Voor mij weinig nieuws onder de zon. Ik schreef al eerder over Shokspeare, een programma uit de jaren 60 voor grote computers, dat vellen vol Shakesperiaanse teksten genereerde met het juiste metrum, met volslagen onzinteksten. Iemand had de moeite genomen om een model van de zinnen te maken en een database van woorden die daarin gebruikt kunnen worden. Het programma drukte zoveel zinnen af als je maar wilde. Hoe bedrieglijk echt de zinnen ook klonken, er stond uiteraard complete onzin in.

Het knappe van GPT-3 is dat hij nu is getraind om meer geloofwaardige zinnen te produceren met een gewenste schrijfstijl, getuige van computerteksten die door mensen als ‘door mensen geschreven’ werden geaccepteerd. Met andere woorden teksten die een Turingtest meestal konden doorstaan. Dat is echt heel knap, bereikt door een zeer grote databases en krachtige computers – een sterk staaltje van wat menselijk vernuft kan bedenken en realiseren met voldoende hulpmiddelen.

Voor de beperkte beschikbaarheid van GPT-3 (derde generatie van Generative Pre-trained Transformer) is gekozen om misbruik te voorkomen. Nu al hebben bedrijven als Google (10.000 mensen) , Facebook (15.000 mensen) en Twitter hun handen vol om door mensen gegenereerde onzin bijvoorbeeld over corona en de Amerikaanse verkiezingen te filteren, en dat zou een nog groter probleem worden met GPT-3. Het is natuurlijk het grote gevaar, dat we geschreven teksten niet meer kunnen vertrouwen, niet meer toedichten aan een mens. Moeiteloos genereert GPT-3 de meest walgelijke teksten – dat betekent dat je geschreven tekst niet meer kunt vertrouwen als zijnde iemands mening of toezegging.

Dat heeft uiteraard grote consequenties voor al onze dagelijkse omgang waarbij tekst een rol speelt. We kunnen nu al brieven en e-mail nauwelijks vertrouwen vanwege phishing en dergelijke. Met GPT-3 in het spel kun je een vreemde alleen nog maar vertrouwen op zijn blauwe ogen in een face-to-face situatie.

En het ergste is dat GPT-3 niet alleen voor geschreven tekst te gebruiken zal zijn, maar ook voor spraak, want het omzetten van tekst naar spraak is al een fluitje van een cent. Als je iemands tongval ook kan parametriseren (in codes kunt omzetten) kun je ook iemands spraak imiteren, bijvoorbeeld over de telefoon. Dat betekent dat we nog meer op ons hoede moeten zijn voor bedrog. De vertrouwenscrisis vanwege internet en andere elektronische communicatie zal zich veel verder uitbreiden.

Wat is een maatschappij waarin je, behalve face-to-face, straks niets en niemand meer kan vertrouwen? Dat was de situatie voordat de industrialisering het opstellen van contracten nodig maakte! Toen gold dat afspraken face-to-face werden gemaakt en bezegeld met een handdruk: een man een man, een woord een woord. Maar daar kunnen we niet meer naar terug met onze vergevorderde maatschappelijke complexiteit. Gezocht zal moeten worden naar een elektronische zegelring die eenduidig iemands identiteit vastlegt. Dat zal niet eenvoudig zijn…

Hein van Steenis (22 oktober 2020)  



Reacties zijn gesloten.