Bulletineke Justitia
U bent hier:

Tussen censuur en zorgplicht: de rol van de rechter in online platform moderatie

Tussen censuur en zorgplicht: de rol van de rechter in online platform moderatie

Vandaag de dag zijn sociale media-platforms essentiële onderdelen van het publieke debat. Jongeren zijn vandaag de dag vaak sterk afhankelijk van platforms zoals Instagram en TikTok om op de hoogte te blijven van ontwikkelingen in de wereld. Ook belangrijke maatschappelijke discussies vinden in toenemende mate online plaats. Private social media platforms zoals X en Facebook konden lange tijd ongemoeid invloed uitoefenen op dit publieke debat door bepaalde meningen zichtbaar te maken of juist te verwijderen, moderatie vond namelijk enkel plaats op basis van de gebruikersvoorwaarden van de platforms zelf. Deze zuiver private benadering van moderatie staat echter onder druk, nu overheden in toenemende mate wetgeving doorvoeren om platforms te verplichten tot verwijdering van bepaalde content. Hiermee verschuift deze moderatie van privaat naar publiekrechtelijk van aard. Daarnaast ontstaat de vraag of en in hoeverre de overheid een privaat platform mag dwingen tot verwijdering van bepaalde berichten zonder de vrijheid van meningsuiting te schenden, en wat de rol van de rechter in deze afweging is.

Even over die vrijheid van meningsuiting. Deze is voor ons in Nederland en de rest van de EU-landen in ieder geval beschermd in artikel 10 EVRM en richt zich voornamelijk op de bescherming van burgers tegen inmenging van de overheid. Normaal gesproken zou hier bij moderatie van private platforms dus geen sprake van zijn. Dit verandert echter wanneer deze platforms door wetgeving of onder dreiging van sancties door de overheid verplicht worden tot moderatie, in welk geval er mogelijk sprake is van indirecte staatsinmenging. Het EHRM heeft in eerdere uitspraken erkend dat het opleggen van verantwoordelijkheden aan platforms onder bepaalde omstandigheden verenigbaar kan zijn met artikel 10 EVRM, mits die inmenging proportioneel en voorzienbaar is[1]. De ingreep moet dus in verhouding zijn met de belangen die ermee beschermd worden. In latere uitspraken waarschuwt het Hof echter voor overmatige druk op platforms, ze spreekt hier van overblocking en een mogelijk ‘chilling effect’ op publiek debat[2]. Dit komt neer op een waarschuwing voor situaties waarin inmenging van de overheid zulke verregaande gevolgen heeft voor gebruikers van deze platforms dat de mogelijkheid tot publiek debat op negatieve wijze wordt aangetast.

In een poging om deze do’s en don’t’s van online contentmoderatie te harmoniseren heeft de EU de Digital Service Act ingevoerd. Zo zijn online platforms volgens de DSA verplicht om illegale berichten na ontdekking onverwijld te verwijderen, maar biedt de verordening ook duidelijke procedurele waarborgen. Zo moeten gebruikers geïnformeerd worden van de verwijdering en moeten er klacht- en bezwaarprocedures voor hen openstaan[3]. De DSA neemt echter expliciet afstand van algemene monitoringsverplichtingen en lijkt hiermee niet met preventieve controle als een soort  gevangenisbewaarder de vrijheid van meningsuiting in het nauw te willen brengen[4]. Het doel van de DSA is dus ook om binnen de EU de praktische handhaving van de regels mogelijk te maken zonder grove inbreuken te doen op fundamentele rechten zoals de vrijheid van meningsuiting.

Er zijn mensen die van mening zijn dat gedwongen moderatie, ook met procedurele waarborgen zoals die uit de DSA, niet verenigbaar is met de vrijheid van meningsuiting. Er zijn echter ook diegenen die zeggen dat het veranderende medialandschap en de opkomst van social media het speelveld dusdanig hebben veranderd dat de regels mee moeten veranderen. Zo ook J.M. Balkin, hij betoogt in “Free Speech is a triangle” dat de vrijheid van meningsuiting nu niet langer uitsluitend een verhouding is tussen burger en de staat, maar dat het nu een driehoek is tussen de overheid, platforms en gebruikers[5]. Platforms functioneren in de digitale wereld volgens Balkin als beheerders van de publieke ruimte en nemen beslissingen hierin die traditioneel tot het domein van de staat behoorden. Dit rechtvaardigt constitutionele verantwoordelijkheid volgens Balkin, ook zonder dat deze platforms overheidsorganen zijn. Hij onderstreept daarmee dat rechterlijke toetsing noodzakelijk is om publieke waarden te beschermen wanneer de facto moderatie van de publieke ruimte het resultaat is van een samenspel tussen private en publieke actoren.

In dit spanningsveld tussen private platforms, de burger en de staat komt de rechter een cruciale rol toe. Wanneer platforms berichten verwijderen op basis van wettelijke verplichtingen, is er namelijk niet langer sprake van een feitelijke handeling door een private partij. De rechter moet in dat geval materieel toetsen of sprake is van staatsverantwoordelijkheid en of de inmenging voldoet aan de vereisten van legaliteit, noodzakelijkheid en proportionaliteit. Deze benadering sluit aan bij de Nederlandse rechtspraak, waarin belangenafwegingen tussen vrijheid van meningsuiting en andere rechten centraal staan. Door inhoudelijke toetsing te verrichten voorkomt de rechter dat indirecte censuur via private platforms genormaliseerd raakt.

Al met al is online contentmoderatie dus allang geen zuiver private aangelegenheid meer. Door regelgeving zoals de DSA worden platforms steeds vaker overwegend ingezet als instrumenten van publieke handhaving. Juist daarom is een actieve rol van de rechter essentieel. Niet om het maken van moderatiebeslissingen zelf over te nemen, maar om te waarborgen dat overheidsdruk via private platforms niet leidt tot een uitholling van de vrijheid van meningsuiting. In een digitale publieke ruimte waarin staat en platform steeds nauwer verweven raken, fungeert de rechter als een laatste constitutionele schakel.

[1] EHRM 16 juni 2015, nr. 64569/09 (Delfi AS/Estland), § 131–137

[2] EHRM 2 februari 2016, nr. 22947/13 (Magyar Tartalomszolgáltatók Egyesülete en Index.hu/Hongarije), § 86–91

[3] Verordening (EU) 2022/2065 (Digital Services Act), art. 16–17

[4] Verordening (EU) 2022/2065 (Digital Services Act), art. 8

[5] Jack M. Balkin, Free Speech is a Triangle, Columbia Law Review 118 (7) (2018) 2011–2056