Het menselijk brein is nog altijd een zwarte doos

De Facebooks en Googles steken veel geld in 'deep learning': computers leren te denken als mensen. Door ze te trainen als een hond. Echt.

'Braaf, computer' Beeld Jaap Scheeren
'Braaf, computer'Beeld Jaap Scheeren

Pok. Ping. Pok. Ping ping. Pok. Het simpelste en mogelijk verslavendste computerspelletje ter wereld heet Breakout. Het is bedacht in de jaren zeventig en het is de bedoeling dat de speler met een bewegend blokje en een puk een muur afbreekt. Veertig jaar na dato heeft de computer het eenvoudige spelletje ook onder de knie, en dat veroorzaakte zoveel opwinding dat het deftige Nature er vorige maand een publicatie aan wijdde.

Waarom? Dat een computer een simpele game kan spelen, lijkt nauwelijks het vermelden waard. Elke computer kan dat. Maar deze, Deep Q Network genaamd, was nooit verteld hoe het spelletje ging. Deep Q had het zichzelf geleerd.

En Deep Q blijkt goed in Breakout, heel goed zelfs. Zijn makers zagen na verloop van tijd tot hun verbazing hoe de computer met behulp van de puk tunnels begon te graven in de virtuele muur. Hij had geleerd dat door de puk door de tunnel te schieten, deze aan de achterzijde gaat stuiteren, waardoor de muur sneller afgebroken wordt en er meer punten worden gehaald.

Deep learning

Deep Q is ontwikkeld door DeepMind, een bedrijf van Google dat tot doel heeft computers te bouwen waarvan de mentale capaciteiten vergelijkbaar zijn met die van een peuter. De technologie erachter wordt deep learning genoemd. Deep learning poogt computers te laten denken als het menselijk brein. Door hen te leren associaties te maken, zouden computers een vorm van intelligentie kunnen bereiken die vergelijkbaar is met die van levende organismen.

Deep learning is hot. Grote computerconcerns als Facebook, Microsoft en Google steken miljarden in bedrijven die deze technologieën kunnen toepassen. Google betaalde begin vorig jaar 400 miljoen dollar voor DeepMind, een Brits bedrijfje dat is gespecialiseerd in deeplearningtoepassingen. Google nam ook Geoffrey Hinton in dienst, die geldt als de grondlegger van neurale netwerken. Facebook stelde de New Yorkse onderzoeker Yann LeCun aan als hoofd van zijn kunstmatige-intelligentielab. De Nederlandse Organisatie voor Wetenschappelijk Onderzoek maakte vorig jaar anderhalf miljoen euro vrij voor projecten die kennis over natuurlijke en kunstmatige intelligentie moeten vergroten.

Europees brein

Het Human Brain Project is een Europees project dat nastreeft het menselijk brein na te bouwen in een supercomputer. Honderd Europese onderzoeksinstituten werken eraan. Er is een miljard euro vrijgemaakt om over tien jaar een werkend model te hebben. Het project is omstreden en sinds de start is er strijd over de richting die gekozen moet worden, wat afgelopen week cumuleerde in een verregaand voorstel tot hervorming van het project en zijn leiding door een onafhankelijk comité.

Lees de long read van journalist Ronald Veldhuizen over het Human Brain Project op volkskrant.nl/brein

Neuraal netwerk

De benadering is compleet anders dan bij gewone computers, die lange sets van instructies afwerken. Rijtjes stampen, optellen en aftrekken - dat kunnen computers als de beste. Veel meer moeite hebben ze bijvoorbeeld met het verwerken van visuele informatie. Vraag een computer een hond van een aap te onderscheiden, en hij zal weinig klaar maken. Daarom wordt al heel lang - al sinds de jaren veertig - gewerkt aan neurale netwerken.

Een neuraal netwerk in een computer heeft net als ons brein neuronen. En net als in ons brein kunnen ze 'vuren', op basis van bepaalde invoer geven ze een pulsje door. Dit gebeurt niet altijd, de invoer moet een bepaalde waarde hebben bereikt. Bij 0,4 gebeurt er niks, bij 0,5 vuurt het neuron. De nieuwe puls gaat naar een volgende neuron, die hem ook weer kan doorschieten, steeds verder. Of niet, omdat het pulsje ergens blijft hangen omdat de waarde te laag wordt geacht door een van de neuronen.

Computerneuron

'Het model van zo'n computerneuron is al in 1943 bedacht. Het is alleen niet erg goed', zegt computerwetenschapper en wiskundige Mannes Poel aan de Universiteit Twente. 'De kracht van dit model zit hem in het aan elkaar knopen van zo veel mogelijk neuronen.'

Dan krijg je iets wat lijkt op hoe onze hersens werken, zegt Poel. En met veel, bedoelt hij heel veel: ons brein telt ongeveer tien tot de elfde neuronen. Een 1 met elf nullen. Zo'n aantal is in een chip nog wel na te bouwen. 'De complexiteit zit hem vooral in het aantal onderlinge verbindingen in ons brein', zegt Poel. 'Dat zijn er tien tot de twintigste, een 1 met twintig nullen - een krankzinnig aantal.'

Lange tijd was een van de grote vragen in de kunstmatige intelligentie: hoe laten we de computer leren? 'Een kind leer je wat een paard is door hem er een aan te wijzen', zegt Poel. 'Paard. Paard. Paard. Dan weet-ie na drie keer een paard van een koe te onderscheiden.' Iets wat voor kleuters simpel is, bleek voor de computer een onneembare hobbel. Na aanvankelijk succes stortte het onderzoek naar kunstmatige intelligentie daarom in de jaren zeventig in.

Tweede renaissance

Enkele onderzoekers, onder wie de Britse computerwetenschapper Geoffrey Hinton, hielden vol en ontwikkelden eind jaren zeventig de eerste algoritmen die konden leren. Dat luidde een opleving van het vakgebied in. Door de computer te voeden met handschriften, kon hij sinds de jaren negentig bijvoorbeeld geschreven postcodes leren herkennen.

Dat was mooi, maar toen stuitten we op een volgend probleem, zegt Poel. Mensen zijn heel goed om van concepten naar een hogere beschrijving te gaan. 'Je ziet: honden, gras, bomen en wij weten dan: twee spelende honden in een park.' De afzonderlijke elementen kunnen goed worden onderscheiden, maar de volgende stap, naar begrip, is heel lastig te maken.

Opnieuw raakte het onderzoek in het slop, maar sinds 2008 is sprake van een tweede renaissance, zegt Sander Bohté van de Life Sciences Group van het Amsterdamse Centrum voor Wiskunde en Informatica. De reden: er is ongelooflijk veel data beschikbaar gekomen dankzij internet en computers zijn krachtig genoeg om al die data te verstouwen. Gebleven zijn grotendeels de methodes. 'Deze combinatie blijkt heel krachtig', zegt Bohté. 'Je kunt nu een heel groot neuraal netwerk trainen met enorme hoeveelheden data die van internet geplukt worden.'

Een van de grote doorbraken waaraan gewerkt wordt, is om neurale netwerken energie-efficiënter te maken. Het menselijk brein gebruikt ongeveer 25 watt. De snelste supercomputer heeft ongeveer dezelfde rekenkracht, maar verbruikt 25 megawatt, er is een kleine energiecentrale nodig om hem aan de praat te houden. Daarom wordt gewerkt aan een nieuwe technologie, die spiking neuronen wordt genoemd, die meer werken zoals het brein. Onder meer IBM heeft een chip ontwikkeld - TrueNorth - die werkt met deze spiking neuronen. Deze processor verbruikt een tienduizendste van het vermogen van gewone chips.

Breakout

Diepe neurale netwerken gebruiken data zoals die er is. 'Bijvoorbeeld eindeloos veel plaatjes die je van internet plukt. Je hoeft niet eens te weten wat het is', zegt Bohté. Gelabelde data, plaatjes met tekst waarin staat wat we zien, zou makkelijker zijn, maar daarvan is er niet zoveel. Terwijl het internet vol staat met ongelabelde beelden. 'Dus daar train je eerst mee. Daarna gebruik je gelabelde data om de beelden te herkennen.'

Met alleen een plaatje herkennen kun je nog geen Breakout spelen: de computer moet ook leren wanneer welke knop in te drukken om de puk terug te kaatsen. Dat laatste gebeurt door reinforcement learning: je vertelt niet wat er moet gebeuren, maar geeft alleen aan of het resultaat goed is of slecht. 'Zoals je een hond traint, of een aap.' Bij die Atarispelletjes zegt je dus steeds: dit resultaat is goed en dat niet. Het programma past daar zijn gedrag op aan en wordt beter.

Videogames

Naast beeldherkenning - en sinds kort videogames - zijn de laatste jaren vorderingen geboekt op het gebied van spraakherkenning. Lange tijd zat de herkenning van gedicteerde tekst rond de 90 procent. Dat lijkt heel aardig, zegt Bohté. 'Maar het betekent dat je in elke zin wel een fout hebt.' Dankzij een neuraal netwerk dat is ontwikkeld aan de universiteit van Toronto wordt nu meer dan 97 procent goed herkend. 'Dat betekent nog maar een fout per paragraaf, een spectaculaire sprong.'

Hoe goed spraakherkenningsystemen zijn geworden, is te zien op YouTube, waar een video staat waarop Rick Rashid, het hoofd van de onderzoeksafdeling van Microsoft die ook meewerkte aan de doorbraak, een toespraak houdt voor een zaal. Boven het podium hangt een scherm, waarop rechtstreeks ondertitelingen verschijnen van wat Rashid op dat moment zegt.

Netwerkmodel

De zaal applaudisseerde toen na elke zin rechtstreeks de vertaling van zijn gesproken tekst verscheen in het Mandarijn. Er brak tumult uit toen de geschreven tekst vervolgens werd uitgesproken in het Mandarijn, een taal die de onderzoeker niet machtig is, met Rachids stem en intonatie. Amerikaanse gebruikers van Microsofts Skype kunnen al Engels spreken met iemand aan de andere kant van de lijn die alleen de Spaanse taal machtig is, en andersom.

Bohtés vakgroep heeft onlangs een diep neuraal netwerkmodel van de hersenen ontwikkeld dat kan leren relevante gebeurtenissen uit het verleden te onthouden om in een later stadium toe te passen. De studie, die deze maand verscheen in PLoS Computational Biology, moet meer inzicht verschaffen in de wijze waarop het werkgeheugen van organismen werkt.

Zwarte doos

Wordt met recente ontwikkelingen in neurale netwerken de stap gezet naar 'menselijk' denken? Een filosofische vraag, zegt Poel van de Universiteit Twente. 'Ik weet niet of dit stappen zijn op weg naar. Wat nu gebeurt, is vooral het simuleren van voorbeelden, optimaal gedrag creëren. Maar we weten dat menselijk gedrag niet optimaal is. Ik heb mijn twijfels of je hiermee tot menselijke intelligentie komt.'

Het menselijk brein is nog altijd een zwarte doos. We hebben geen idee, zegt Poel. 'Hoe kan het bijvoorbeeld dat een filmpje dat we in ons hoofd afspelen, in de goede volgorde wordt afgedraaid? Terwijl je zou verwachten dat de informatie die er als laatste in is gekomen, als eerste wordt opgehaald. Hoe wordt die informatie uit ons brein gehaald? We weten het niet. En naar mijn gevoel zijn we daar nog heel ver vanaf.'

We hadden toch Deep Blue al?

Hoe bijzonder is het nu dat een computer een blokje tegen een muur kan slaan? We hadden toch al Deep Blue, de supercomputer van IBM die in 1997 wereldkwampioen schaken Kasparov versloeg? En er is toch al Watson, die tijdens een spelquiz zijn menselijke tegenstanders versloeg?

Klopt. Maar Watson en Deep Blue waren vooraf volgestouwd met alle mogelijke schaakzetten en kennis. Deze computers waren heel goed om uit een enorme berg data de juiste gegevens te vissen. Deep Q heeft zelf de kennis opgedaan om goed te worden in de game, en is daarmee een stuk intelligenter dan zijn voorgangers.

Transistor

Bohté is het met Poel eens. 'Snappen hoe een transistor werkt, betekent nog niet dat we begrijpen hoe een grafische kaart werkt. Er wordt vooruitgang geboekt, maar hoe het langetermijngeheugen werkt, of het bewustzijn, blijft vooralsnog een raadsel.'

Dat laat ook Deep Q zien. Die kan naast Breakout (in de jaren zeventig trouwens medegeprogrammeerd door Steve Jobs) ook Space Invaderen als de beste. Maar in Pac Man is hij waardeloos. Dat komt doordat dit spel planning en inzicht vereist, en dat kunnen de algoritmen van Deep Q nog niet. Het uiteindelijke doel is van DQN een systeem te maken met de mentale capaciteiten van een 3-jarige, zegt Demis Hassabis van Googles kunstmatige intelligentietak DeepMind in The Daily Telegraph. 'En we zijn nog lang niet in de buurt van iets wat daar op lijkt.'

Volgende station: kunstmatige hyperintelligentie

Waar leiden de huidige ontwikkelingen toe? Sommige wetenschappers denken dat kunstmatige hyperintelligentie in het verschiet ligt. Daarbij gaat het niet om denksnelheid, maar om denkkwaliteit. Een aap kun je het concept mens leren, en ook het concept wolkenkrabber. Maar al zou je zijn brein duizend keer sneller maken, dan nog zal hij nooit kunnen bevatten dat het mensen zijn die wolkenkrabbers hebben gebouwd, schrijft Tim Urban in een interessant artikel over dit onderwerp. Als we machines kunnen ontwikkelen met een klein beetje hogere denkkwaliteit dan die van onszelf, zouden deze machines dankzij hun enorme rekenkracht ook hun denkkwaliteit razendsnel kunnen verbeteren. Dat zou leiden tot een slimheidsexplosie: kunstmatige hyperintelligentie. Wat er dan gebeurt - als het ooit gebeurt - weet niemand, want dat kunnen wij mensen niet begrijpen.

undefined

Meer over