Vijf vragen5 Vragen

Apple gaat apparaten van gebruikers scannen op foto’s van kindermisbruik

Apple gaat de verspreiding van kinderporno aanpakken door afbeeldingen op de apparaten van gebruikers te analyseren. Critici vinden dat Apple hiermee veel te ver gaat en de privacy van zijn gebruikers verkwanselt. ‘De Rubicon is overgestoken’.

Wat is er aan de hand?

Apple brengt later dit jaar software-updates uit (voor iPhones, iPads, horloges en computers) die zijn bedoeld om kinderen beter te beschermen. Zo kunnen – als ouders dat zo hebben ingesteld – kinderen een waarschuwing krijgen als ze via iMessage naaktbeelden krijgen toegestuurd. De software vervaagt die afbeeldingen dan. Een andere ingreep is dat Apple in actie komt op het moment dat gebruikers via Search of spraakassistent Siri zoeken naar materiaal met kindermisbruik. Apple zal ze dan uitleggen dat interesse in dergelijk materiaal schadelijk en problematisch is. De derde maatregel is verreweg het controversieelst. De software gaat namelijk controleren of gebruikers afbeeldingen op hun apparaten hebben van (seksueel) kindermisbruik.

Apple gaat zijn gebruikers waarschuwen als ze zoeken naar illegaal materiaal Beeld Apple
Apple gaat zijn gebruikers waarschuwen als ze zoeken naar illegaal materiaalBeeld Apple

Hoe gaat Apple dat doen?

De fabrikant maakt gebruik van een bestaande database met 200.000 afbeeldingen van seksueel kindermisbruik. Deze is afkomstig van het het National Center for Missing and Exploited Children (NCMEC) in de VS. Al deze afbeeldingen zijn gekoppeld aan een zogenoemde hash. Dit is een unieke code, een soort DNA van een foto. Vervolgens analyseert Apple ook alle afbeeldingen op de apparaten van zijn gebruikers voordat ze worden geüpload naar de online cloudopslag waar Apple-gebruikers de beschikking over hebben, de iCloud.

Zodra dat er een match is tussen de hashes gaan de alarmbellen af. Op dat moment denkt Apple immers op illegaal materiaal te zijn gestuit. De vervolgstap: menselijke medewerkers van Apple nemen een kijkje op het iCloud-account van de verdachte gebruiker. Foto’s en video’s die hierin worden opgeslagen zijn weliswaar versleuteld, maar anders dan bij bijvoorbeeld WhatsApp is dit geen end-to-end encryptie. Dat betekent dat Apple er gewoon bij kan. In dit soort gevallen zegt het bedrijf dat ook te gaan doen. Als de medewerker net als het systeem ziet dat het inderdaad foute boel is, krijgt de NCMEC een melding en wordt het iCloud-account van de Apple-gebruiker onklaar gemaakt. Hij kan wel in beroep tegen deze maatregel.

Maar Apple was toch altijd van de privacy?

Apple profileert zich de afgelopen jaren steeds nadrukkelijker ten opzichte van Facebook en Google als hoeder van de privacy van zijn gebruikers. Met de nieuwe maatregelen tracht de fabrikant behoedzaam te balanceren op het dunne koord tussen de druk van buitenaf om illegaal materiaal aan te pakken en de privacy van zijn gebruikers. Apple benadruk in de uitleg van het nieuwe systemen dan ook de ‘grote privacyvoordelen’ ten opzichte van andere methodes. Zo doet Microsoft al jarenlang iets vergelijkbaars, maar hier vindt de analyse van de foto's direct in de cloud plaats. Bij Apple is er een tussenstap. Toch heeft de aankondiging direct tot scherpe kritiek geleid. ‘Apple doet afstand van privacy en maakt 1984 mogelijk’, zo stelt privacyactivist en beveiligingsonderzoeker Alec Muffett bijvoorbeeld inThe Financial Times.

Ook Jaap-Henk Hoepman, universitair hoofddocent privacy aan de Radboud Universiteit en de Rijksuniversiteit Groningen, is bijzonder kritisch. ‘Dit is een heel grote stap, die ik niet had verwacht. Hiermee gaat Apple de Rubicon over.’ Hoepman ziet verschillende problemen, te beginnen met de definitie van kinderporno, die per land kan verschillen. Maar ook: ‘Wat gebeurt er als iemand jou via WhatsApp, om wat voor reden dan ook, een dubieuze afbeelding stuurt? Als je dat zo hebt ingesteld, worden alle WhatsApp-afbeeldingen automatisch op een toestel opgeslagen. Zonder dat je het doorhebt, kunnen de alarmbellen al afgaan en ben je verdacht.’

Blijft het bij kinderporno?

Nu nog gaat het alleen om afbeeldingen van seksueel kindermisbruik, maar voor Hoepman en andere critici lijdt het geen twijfel dat het systeem geleidelijk steeds breder zal worden ingezet. ‘Het hek is van de dam’, twitterde Matthew Green, hoogleraar security aan de Johns Hopkins University, al. Hij vreest dat regeringen overal ter wereld likkebaardend naar de nieuwe mogelijkheden voor overheidssurveillance zullen kijken. Dat denkt Hoepman ook: ‘Het is een glijdende schaal. Je kunt uittekenen wat er gebeurt. Nu is het kinderporno, straks gaat het ook om afbeeldingen van onthoofdingen. Je kunt niet meer terug.’ Ook verwacht hij dat de druk op andere techbedrijven erg groot wordt om hetzelfde te doen, nu zelfs Apple is gezwicht. ‘Aan alle kanten staat de privacy van gebruikers onder druk’, ziet Hoepman.

Wat betekent dit voor Nederlanders?

Apple benadrukt in zijn uitleg dat zijn nieuwe systeem vooralsnog alleen de apparaten van Amerikaanse gebruikers gaat scannen. Maar ook hier is Hoepman niet gerust op. ‘Dit zegt mij helemaal niets. Het geeft aan dat dit technisch overal gaat kunnen. En wat gebeurt er als ik van een Amerikaanse gebruiker een bericht met een afbeelding krijg dat niet door de beugel kan? Krijg ik dan niet ook een vinkje?’

Meer over