Techkunstmatige intelligentie

Zo heeft deepfake wel nut: om AI te leren gezichten te herkennen

Gezichtsherkenningssoftware wordt getraind met enorm veel foto’s van mensen die daar nooit toestemming voor hebben gegeven. Maar misschien kan het ook met deepfake-portretten.

De Schotse kunstenaar Connie Stewart (25) gebruikte voor deze foto’s een kunstmatige intelligentie om realistische nepbeelden van mensen te maken.  Beeld Connie Stewart
De Schotse kunstenaar Connie Stewart (25) gebruikte voor deze foto’s een kunstmatige intelligentie om realistische nepbeelden van mensen te maken.Beeld Connie Stewart

Een walhalla was het voor academici die zich bezighielden met kunstmatige intelligentie (AI) en gezichtsherkenning: de vercommercialisering van het internet. Ineens waren er, zo’n tien, vijftien jaar terug, allerlei fotodiensten zoals Flickr waar iedereen zijn foto’s kon publiceren. Leuk voor fotografen, maar minstens zo fijn voor die onderzoekers. In één klap hadden die de beschikking over een onvoorstelbare hoeveelheid foto’s waarmee ze hun gezichtsherkenningssystemen konden trainen.

Die aanwezigheid van data is met de toegenomen rekenkracht de basisvoorwaarde geweest van de vlucht die AI heeft genomen. We vinden het al normaal dat een bewakingscamera of een zelfrijdende auto een persoon van een vuilniszak kan onderscheiden, maar voordat die systemen op dat punt zijn gekomen zijn ze gevoed met gigantische hoeveelheden plaatjes met labels: dit is een persoon, dit is een vuilnisbak, dit is een verkeersbord.

Onderzoekers maakten rond de eeuwwisseling nog een vreugdedansje als een netwerk uit een verzameling van honderd plaatjes één goede eruit pikte. En ook tien jaar later verkeerden onderzoekers nog ‘in Teletubbieland’, zegt Cees Snoek, hoogleraar intelligente sensorische informatiesystemen aan de Universiteit van Amsterdam. Het is sindsdien hard gegaan, met dank aan lawines aan trainingsbeelden. Zo was Googles FaceNet een paar jaar geleden in staat uit een verzameling van vijfduizend afbeeldingen met beroemdheden in 99,6 procent van de gevallen de juiste naam aan te wijzen. Dat was zelfs beter dan menselijke specialisten.

Fotodatabase

Maar er is een probleem met al die fijne databases met afbeeldingen die de laatste jaren zijn aangelegd door zowel universiteiten als het bedrijfsleven. Niet zozeer met de plaatjes van voorwerpen, maar wel bij afbeeldingen waar mensen op staan. Want niemand heeft ooit expliciete toestemming gegeven om in een fotodatabase voor het trainen van gezichtsherkenningssystemen terecht te komen.

De bekendste dataset ter wereld met plaatjes voor het trainen van AI-systemen, ImageNet, heeft onlangs maatregelen genomen om te voldoen aan alle privacyregels. ImageNet is primair bedoeld als verzamelplaats van afbeeldingen van voorwerpen, maar als bijvangst zitten er ook portretten van mensen in. Deze zijn nu geblurd om ze onherkenbaar te maken.

Het ImageNet-team belooft in een recente publicatie dat het vervagen van gezichten over de gehele linie slechts een ‘marginaal verlies in accuratesse’ geeft. Het gaat dan bijvoorbeeld om het herkennen van een stoel in een kamer waar zich ook een persoon bevindt. In specifieke gevallen (een masker, een mondharmonica) waarbij het voorwerp zich doorgaans dicht in de buurt van een gezicht bevindt, kunnen de problemen overigens wel wat groter zijn.

Dit werk is een zelfportret van Connie Stewart ‘beïnvloed door de ontwikkelingen in de hedendaagse surveillancemaatschappij’.  Beeld Connie Stewart
Dit werk is een zelfportret van Connie Stewart ‘beïnvloed door de ontwikkelingen in de hedendaagse surveillancemaatschappij’.Beeld Connie Stewart

Niet-bestaande personen

Er zijn meer methoden om tegemoet te komen aan de moderne privacywensen. Blokjes voor een gezicht bijvoorbeeld, of ‘pixelen’. De interessantste uitweg is tegelijk de radicaalste. Namelijk: niet zozeer het onherkenbaar maken van bestaande afbeeldingen, maar het fabriceren van zeer natuurgetrouwe portretten van niet-bestaande mensen. Met zogenoemde GAN’s (generative adversarial network) is dit een fluitje van een cent. Een voor het publiek toegankelijke site als ThisPersonDoesNotExist, die non-stop foto’s van niet-bestaande personen creëert (zogenoemde deepfakes), maakt gebruik van dergelijke netwerken.

Met medewerkers van de Universiteit van Amsterdam, TU Eindhoven en het Eindhovense bedrijf ViNotion (gespecialiseerd in slimme surveillance) onderzocht Snoek al dit soort methoden op hun effectiviteit. De conclusie: gezichtsherkenningssystemen presteren beter in combinatie met de kunstmatige gezichten afkomstig van GAN’s dan met de vervaagde, geblokte of gepixelde gezichten. Snoek toont zich verheugd over de (empirische) resultaten: ‘Je kunt gezichten in de trainingsdata vervangen door kunstmatige gezichten zonder dat dit noemenswaardig effect heeft op de kwaliteit van de herkenning.’

Hij noemt dit ‘goed nieuws’ voor bedrijven die zich bezighouden met gezichtsdetectie en die moeten voldoen aan de Europese privacywetgeving: ‘Met deepfake-technologie kun je dus beelddata opslaan zonder de privacy van mensen te schaden.’

De oplossing van ImageNet (vervagen) werkt volgens Snoek prima bij toepassingen waarbij een systeem een bepaald voorwerp eruit moet vissen: waar is de hamer, waar is het flesje? Maar bij situaties waarbij het echt om gezichten gaat, is dit minder geschikt, vreest hij. Snoek noemt de zelfrijdende auto als voorbeeld, die moet inschatten wanneer hij moet remmen voor voetgangers. ‘In dat geval zijn gezichten relevant. In de werkelijkheid komen geen mensen met geblurde gezichten voor.’ Met andere woorden: hoe dichter je met je dataset tegen de werkelijkheid aanschuurt, hoe beter het resultaat. De deepfakes mogen dan wel kunstmatig zijn, ze líjken wel als twee druppels water op echte gezichten.

Met het gebruik van deepfakes probeerde Connie Stewart visuele anonimiteit te bereiken. De beelden werden afgedrukt op borduurwerk.  Beeld Connie Stewart
Met het gebruik van deepfakes probeerde Connie Stewart visuele anonimiteit te bereiken. De beelden werden afgedrukt op borduurwerk.Beeld Connie Stewart

Privacyregels

Het is pas een eerste stap: ‘Als je een detector optimaliseert en vertelt dat hij te maken heeft met deepfakes, zou deze nog beter kunnen presteren.’ Snoek ziet veel toepassingen waar dit van pas kan komen: van zelfrijdende auto’s en videosurveillance tot de zorg, waarbij automatische systemen kunnen monitoren of iemand is gevallen en dus hulp nodig heeft.

De noodzakelijke aanpassingen worden nu gedaan vanwege de Europese privacyregels, maar Snoek ziet nog meer voordelen van het gebruik van deepfakes. Een van de grote problemen die de laatste jaren naar voren zijn gekomen is de onevenwichtige samenstelling van de trainingsdata, met een oververtegenwoordiging aan witte mannen. Snoek: ‘Dit effect wordt nog eens versterkt door de algoritmen, die er een schepje bovenop doen.’ Zo kon het gebeuren dat ‘het Systeem’ witte mannen bevoordeelde bij sollicitaties of niet herkende dat er een zwarte man voor een toegangspoortje stond.

Door gebruik te maken van deepfakes kan de kwaliteit van de datasets ook worden verbeterd, hoopt Snoek. De slechte kwaliteit – in dit geval de aanwezigheid van seksistische en racistische labels bij de foto’s – van de database 80 million Tiny Images van het fameuze onderzoeksinstituut MIT leidde er al toe dat deze vorig jaar helemaal offline werd gehaald.

Deepfakes zijn de laatste tijd veelvuldig negatief in het nieuws bij berichten over desinformatie, maar voor Snoek is het duidelijk dat de voordelen ook groot kunnen zijn. Het is maar op welke manier ze worden ingezet.

Meer over