ANALYSE

Na de waarschuwing bij Baudet: hoe sociale media (niet) optreden als scheidsrechter in de verkiezingen

null Beeld Rein Janssen
Beeld Rein Janssen

Daar was, met een waarschuwing bij een tweet van Thierry Baudet (zoals Trump die zo vaak kreeg), dan de eerste ingreep van Twitter bij een Nederlandse politicus. Hoe gaan de sociale media om met desinformatie rond de verkiezingen? Vijf conclusies.

Stemmen per post? Regelrechte fraude, twitterde de toenmalige Amerikaanse president Trump vorig jaar mei. Een boodschap die hij in de maanden daarna nog vele malen zou herhalen. De presidentiële bewering betekent ook een waterscheiding in Silicon Valley. Want voor het eerst laat Twitter Trump niet meer wegkomen met een omstreden bericht.

Bij zijn tweet zet Twitter een opvallende link: lees hier de feiten over stemmen per post. Wie erop klikt, komt op een pagina waarop het platform stelt dat de beweringen van Trump ‘ongefundeerd’ zijn met daarbij de factchecks van diverse media. Niemand bevroedt op dat moment dat dit nog maar het begin is. Trump en Twitter hebben elkaar immers hard nodig. Voor Trump is Twitter een megaroeptoeter en voor Twitter is Trump de grote ster die ervoor zorgt dat het platform relevant blijft.

De ingreep van Twitter wordt dan nog gezien als ‘een tikje van een heel voorzichtige juf’. Die juf verandert de maanden erna in een strenge bovenmeester van de oude stempel. Te streng, volgens sommigen. Twitter hangt de halve timeline van Trump vol met waarschuwingsborden om uiteindelijk in januari over te gaan tot een definitieve schorsing. #TheRealDonald is niet meer. Ook Facebook en Snapchat schorsen hem.

In die maanden is de kritiek op Big Tech niet afgenomen, maar wel van toon veranderd. Jarenlang luidde het: Facebook, Google en al die andere platformen doen te weinig om hun winkel schoon te houden. Dat kwam niet uit de lucht vallen. Hoe vaak benadrukte de baas van Facebook, Mark Zuckerberg, immers niet dat zijn netwerk slechts een spiegel is van de maatschappij? Met andere woorden: het is niet aan Facebook om te bepalen waarover mensen het hebben. Het is dit radicale geloof in vrijheid, en misschien ook wel in de goedheid van mensen, dat de denkbeelden in Silicon Valley domineert. Facebook is er om mensen met elkaar te verbinden en de wereld beter te maken.

Of het nu komt door voortschrijdend inzicht of door de toenemende druk van buitenaf, de netwerken komen al een tijdje niet meer weg met van een afstandje toekijken. De schorsing van Trump is de apotheose van die ontwikkeling. Maar opnieuw is er kritiek. Want techbedrijven bepalen in toenemende mate wie wat wel en niet mag zeggen. Het ongemak over hun macht en gebrek aan transparantie is groot. Niet dat de bedrijven die rol ambiëren, maar de facto zijn ze de scheidsrechter van het internet geworden. Bij gebrek aan alternatieven bepaalt een handvol bedrijven de regels, die ook nog eens onduidelijk zijn en om de haverklap veranderen.

Hoe is dat ondertussen in Nederland? Worden Nederlandse politici net zo op de vingers gekeken als bij Trump cum suis gebeurde? En gelden hier dezelfde spelregels? De Volkskrant ging te rade bij de platformen zelf en bij onafhankelijke experts. We trokken vijf conclusies.

1. Hoofdkantoren missen voelsprieten buiten de VS

Bedrijven als Google en Facebook worden erg topdown geregeerd, weet Mark Deuze, hoogleraar mediastudies aan de Universiteit van Amsterdam: ‘Het hoofdkantoor bepaalt de regels.’ En de hoofdkantoren van Big Tech staan ook nog eens allemaal bij elkaar in Silicon Valley. ‘Het waardenpakket waar ook Nederlanders mee te maken krijgen, wordt voor een groot deel daar bepaald.’ Werknemers van Google, Facebook, Snapchat, Twitter: ze kennen elkaar, drinken koffie met elkaar en jobhoppen tussen de bedrijven.

Er wordt ook wel in andere landen ingegrepen, maar daarbij gaat veel mis, ziet Deuze. ‘De verschillen tussen landen zijn groot en dus worden er fouten gemaakt.’

Een voorbeeld is de ingreep van Facebook die vorig jaar in Nederland veel stof deed opwaaien. Het netwerk verwijderde een korte video waarin een kind Sinterklaas en twee Pieten begroet. De aanwezigheid van Zwarte Piet is in strijd met Facebooks regels over racistische karikaturen. Meer nog dan over de inhoudelijke afweging ging het hierna over het feit dat Silicon Valley bepaalt waar we het over mogen hebben en hoe. Overigens is er een kans dat de beslissing wordt teruggedraaid. Facebook heeft een onafhankelijke raad van toezicht ingesteld die besluiten kan terugdraaien en nu kijkt naar Zwarte Piet.

YouTube pakte de gevoelige Nederlandse kwestie naar eigen zeggen wat eleganter aan. Video’s met Zwarte Piet mochten gewoon blijven staan, maar het bedrijf verkocht er geen advertenties omheen. Cécile Frot-Coutaz, de Europese baas, benadrukt dat YouTube een internationaal bedrijf is dat wereldwijd opereert met voor een groot deel dezelfde regels en systemen. ‘Maar’, zegt ze ook, ‘dat wil niet zeggen dat er geen ruimte is voor regionale accenten. We hebben voor elk land mensen die de taal beheersen, ook het Nederlands.’

Cécile Frot-Coutaz, de baas van YouTube in Europa.  Beeld Google
Cécile Frot-Coutaz, de baas van YouTube in Europa.Beeld Google

2. Nederland stelt op wereldschaal gewoon niet zoveel voor

De Amerikaanse verkiezingen betekenden voor Big Tech een paradigmawisseling. Het is de vraag of de lijn van stevig ingrijpen in andere landen wordt doorgetrokken. Zitten er met het oog op de Nederlandse verkiezingen complete lokale teams klaar om alles in goede banen te leiden?

Dat idee krijgt Alexander Pleijter, factcheckonderzoeker aan de Universiteit van Leiden, vooralsnog niet: ‘De totale omslag van Twitter en Facebook is hier niet terug te zien.’ Nóg niet misschien. Want deze week was het ineens toch raak: Twitter plaatste een waarschuwingsbord met ‘misleidend’ bij een tweet van Forum-partijleider Thierry Baudet over coronavaccins.

De tweet van Baudet met waarschuwing van Twitter Beeld Twitter
De tweet van Baudet met waarschuwing van TwitterBeeld Twitter

Het is een primeur in Nederland. Dezelfde Baudet kon in december nog ongestoord beweren dat er in geheel 2020 geen oversterfte was: ‘Regering en mainstream media zaaien paniek zonder gegronde reden. Ze misleiden het publiek met valse cijfers.’ Het was Baudet zelf die misleidde, onder andere door alleen de cijfers tot en met 6 december mee te rekenen. Uiteindelijk was er wel degelijk forse oversterfte in 2020, die zonder coronamaatregelen ook nog eens groter zou zijn geweest. De tweet van Baudet staat nog steeds online, zonder waarschuwing of factcheck.

Hebben Twitter en consorten het vizier wel een beetje gericht op Nederland? Om met Twitter te beginnen: het lijkt er niet op. Gevraagd naar eventuele extra inspanningen voorafgaand aan de Nederlandse verkiezingen wil de pr-afdeling alleen kwijt dat ‘een gezonde publieke conversatie’ Twitters topprioriteit is. Het platform verwijst daarbij naar de verkiezingsmaatregelen zoals die ook in de VS gelden.

LinkedIn dan? Ook hier hult een woordvoerder zich in algemeenheden: we vinden het belangrijk dat onze gebruikers converseren met mensen en informatie die ze vertrouwen. Ook LinkedIn verwijst naar de inspanningen die wereldwijd worden gedaan, zoals het opsporen van nepprofielen en het tegengaan van hate speech en desinformatie.

Facebook verwijst ook naar de algemene richtlijnen rondom bijvoorbeeld desinformatie, maar het bedrijf is scheutiger met informatie. Anika Geisel, verantwoordelijk voor alle verkiezingen in Europa, het Midden-Oosten en Afrika, zegt dat haar bedrijf er ‘veel beter’ voorstaat dan in 2016. Een hele zwik maatregelen illustreert dat, zoals de strenge regels voor het aanzetten tot geweld, haatzaaien, intimidatie en het ontmoedigen van kiezers om te gaan stemmen. Verder wijst ze op de 35 duizend man die zich bij Facebook bezighouden met moderatie, een verdriedubbeling sinds 2018. Hoeveel van die 35 duizend moderatoren Nederlandstalig zijn, wil Facebook niet zeggen. Het enige wat het bedrijf op dit punt kwijt wil is dat Nederlanders vanuit verschillende plekken over de wereld in de gaten worden gehouden.

Net als Facebook leunt YouTube zwaar op geautomatiseerde systemen die schadelijke beelden of teksten weghalen voordat mensenogen ze zien. Daarnaast heeft Google wereldwijd zo’n 20 duizend man in dienst die in de gaten houden wat wel en niet door de beugel kan op Google en YouTube. Hoeveel hiervan zich specifiek met Nederlandstalige inhoud bezighouden, wil Frot-Coutaz van YouTube niet zeggen. ‘Genoeg.’

Al met al hebben de platformen weinig specifieke aandacht voor de Nederlandse verkiezingen. Volgens Natali Helberger, hoogleraar recht en digitale technologie aan de Universiteit van Amsterdam, speelt er nog wat anders dan alleen het geringe formaat van Nederland. ‘In vergelijking met de VS is de discussie in Nederland veel minder gepolariseerd. Het draait daar om twee partijen met een grote groep zwevende kiezers. Eigenlijk is het verbazingwekkend onspectaculair wat hier gebeurt.’

null Beeld Rein Janssen
Beeld Rein Janssen

3. Factchecken is arbeidsintensief (en gebeurt willekeurig)

Een gespecialiseerde en arbeidsintensieve tak van sport binnen het modereren is het factchecken. Modereren gebeurt voor een groot deel en in toenemende mate geautomatiseerd met behulp van kunstmatige intelligentie. Zo meldt Facebook in zijn laatste Transparency Report dat dit soort slimme software het afgelopen kwartaal 97 procent van de haatzaaiende uitingen ontdekte, nog voordat mensen die zagen. Een jaar eerder lag dit percentage nog op 80 procent.

Het opsporen van expliciet naakt of geweld is een stuk eenvoudiger dan het controleren van berichten op onwaarheden. En los van de complexiteit is dit ook een taak die bedrijven als Facebook liever niet op zich nemen. Facebook als hoeder van de waarheid? Dat is wel het laatste waar Zuckerberg zin in heeft. Omdat niets doen ook niet meer kan, schakelt het platform externe factcheckpartners in. Wereldwijd heeft Facebook via deze constructie enkele honderden factcheckers voor zich werken. Voor Nederland werkt het bedrijf samen met het Duitse persbureau DPA en het Franse persbureau AFP. Bij AFP werkt één Nederlandstalige factchecker in een Europees team van negentien specialisten. Dat resulteert in een paar factchecks per week. Bij DPA zijn dat er iets meer.

Een van de factchecks van AFP voor Facebook. Beeld AFP
Een van de factchecks van AFP voor Facebook.Beeld AFP

Deze factcheckers voegen waarschuwingslabels toe aan berichten of video’s die zij als onjuist hebben beoordeeld. De twee partijen controleren veel berichten die te maken hebben met de coronacrisis, blijkt uit hun overzichten. Misleidende berichten van gebruikers, bijvoorbeeld over schadelijke effecten van mondmaskers en vaccins, over lege ic-afdelingen of over Diederik Gommers die voor Bill Gates zou werken.

Als mensen waarschuwingslabels zien, klikt de meerderheid niet door naar het oorspronkelijke onzinbericht, stelt Facebook. Daarnaast laat Facebook dat soort berichten minder prominent zien in de nieuwsfeed. De interactie met nepnieuws is hierdoor in een paar jaar tijd met meer dan 50 procent teruggebracht, volgens cijfers van Facebook.

Opvallend is het herhaaldelijk uitgedragen standpunt van Facebook dat uitspraken van politici níét worden gefactcheckt. ‘Het is niet aan ons om als scheidsrechter op te treden in het politieke debat, of om ervoor te zorgen dat uitspraken van een politicus hun publiek niet kunnen bereiken’, zegt Facebook hierover. Wel plaatst Facebook berichten of video’s van politici die al eerder (toen andere gebruikers ze plaatsten) als onjuist zijn bestempeld lager in zijn nieuwsfeed.

Onbegrijpelijk, vindt Pleijter. ‘Misschien speelt de angst om beschuldigd te worden van censuur mee, maar dat is het punt niet. Het gaat om het bieden van context bij een bewering. Juist bij politici is die behoefte groot.’

Net als Facebook werkt de van oorsprong Chinese app TikTok voor de Nederlandse verkiezingen nauw samen met een factcheckpartij. Deze gaat in verkiezingstijd ‘in opgeschaalde mate’ naar video’s kijken. Onjuiste of gemanipuleerde video’s zullen volgens TikTok worden verwijderd, net als rond de Amerikaanse verkiezingen gebeurde. In de tweede helft van 2020 werden daar 347.225 video’s verwijderd wegens verkiezingsmisinformatie, desinformatie of gemanipuleerde media. Welke partij dit in Nederland voor TikTok gaat doen en met hoeveel mensen, wil het bedrijf niet zeggen.

Twitter doet niets extra’s met de Nederlandse verkiezingen en werkt niet samen met lokale factcheckpartijen. Wel begon het platform begin dit jaar in de Verenigde Staten het experiment Birdwatch, waarbij Twitter-gebruikers zelf de rol van factchecker kunnen vervullen. Een onverdeeld succes is dit nog niet: uit een eerste analyse van het Poynter Institute for Media Studies blijkt dat slechts 7 procent van dit soort lezersbijdragen nuttig is.

YouTube gaat anders te werk. Volgens Frot-Coutaz maakt haar platform slechts ‘sporadisch’ gebruik van factcheckers en in Nederland helemaal niet. Weghalen gebeurt verreweg het meest automatisch. In het tweede kwartaal van 2020 verwijderde YouTube in Nederland ruim 380 duizend video’s. Wereldwijd valt 28 procent van de verwijderde video’s in de categorie ‘spam of misleidende content’, voor Nederland geeft YouTube geen cijfers.

Hoogleraar Helberger vraagt zich ondertussen af of factchecken, al dan niet met behulp van externe partijen, wel de verantwoordelijkheid van bedrijven als Facebook moet zijn. ‘Het is nogal een taak die we bij ze neerleggen: het censureren van internet. Op die manier maken we ons te afhankelijk van ze.’ Liever ziet de hoogleraar dat het factchecken door de wetenschap of de traditionele journalistiek gebeurt.

4. Het is lastig balanceren tussen laisser-faire en ingrijpen

Nog steeds genieten de Amerikaanse techbedrijven een aantrekkelijke wettelijke uitzonderingspositie in hun thuisland. Die stelt ze in staat om berichten van gebruikers op hun platformen te modereren, zónder er verantwoordelijk voor te zijn. Deze wetgeving heeft zijn langste tijd gehad. Ook Big Tech zelf is de laatste jaren onder druk van de publieke opinie gaan schuiven en ziet zichzelf niet meer als neutraal doorgeefluik. Zo experimenteert Facebook in een paar landen met het minder tonen van politieke getinte berichten.

YouTube is evenmin blind voor de aanzwellende kritiek, zegt Frot-Coutaz. In Nederland bracht het door Arjen Lubach geïntroduceerde woord ‘fabeltjesfuik’ het zelfs bijna tot woord van het jaar. Deze term refereert aan het verschijnsel dat mensen op YouTube binnen een paar klikken een donker konijnenhol van complottheorieën en desinformatie kunnen worden ingetrokken. In de veelbesproken Netflix-documentaire The Social Dilemma noemt voormalig YouTube-werknemer Guillome Chaslot het verontrustend dat de algoritmes waaraan hij werkte tot polarisatie leidden: ‘Polarisatie is een efficiënte manier om mensen online te houden.’ Of neem Tristan Harris (ex-Google) die in dezelfde documentaire het voorbeeld aanhaalt van basketbalspeler Kyrie Irving die dacht dat de aarde plat was en daar YouTube de schuld van gaf.

‘Dit zijn de verhalen die de pers halen’, zegt Frot-Coutaz. ‘En ze zijn ook erg belangrijk.’ Maar, benadrukt ze: slechts een klein gedeelte van alle YouTube-gebruikers heeft hier last van. De consumptie van video’s met dit soort schadelijke desinformatie die door YouTube’s eigen aanbevelingsalgoritmen komt, ligt ‘significant beneden de 1 procent’. Dit wordt gesteund door recent onderzoek van onder andere de universiteiten van Harvard en Cornell. Natuurlijk zijn er op YouTube radicale video’s met complottheorieën te vinden, constateren de onderzoekers, maar die zijn onderdeel van een bredere trend en worden vooral gevonden via links vanaf andere sites.

Google gelooft nog altijd in een vrij en open internet, zegt Frot-Coutaz, maar daaraan kleven ook problemen. Ze wijst op de maatregelen die YouTube de afgelopen jaren al heeft genomen om de fabeltjesfuik aan te pakken. ‘Het aantal views voor problematische video’s is fors afgenomen. Die video’s zijn er nog wel, maar worden nauwelijks meer door ons aangeraden.’

5. We moeten (ook) naar onszelf kijken

Diverse critici van Big Tech roepen het al een tijdje: een gemakkelijke oplossing is er niet voor de macht van de techbedrijven. Ook Natali Helberger vindt dat het probleem in de volle breedte moet worden aangepakt, bijvoorbeeld door alternatieven voor Facebook en YouTube te stimuleren vanuit de overheid.

Mark Deuze gaat nog een stap verder. ‘Als we over vijf jaar terugkijken, zal alles wat er nu gebeurt een storm in een glas water blijken te zijn. Iedereen heeft zorgen over schermverslaving, desinformatie, polarisatie of filterbubbels; maar telkens weer blijkt uit empirisch onderzoek dat de gevolgen op zijn minst niet eenduidig zijn. Het aantal mensen bijvoorbeeld dat radicaliseert door het gebruik van sociale media is beperkt.’ Volgens Deuze beweegt de pendel nu de andere kant op: ‘We gaan van de ene extreme reactie – tech is prima en onschuldig – naar de andere: alles van Big Tech is fout en doodeng.’

Deuze vindt dat er te veel aandacht uitgaat naar regels en procedures die bedrijven als Twitter en Facebook hanteren. ‘Je kunt allemaal prachtige regels hebben, maar het gaat er vooral om hoe de consument zich staande houdt in de constante nieuwsstroom die allerlei emoties opwekt.’

Meer over