Contentmoderatoren (ofwel moderatoren van online inhoud) kwamen begin augustus 2025 in het nieuws doordat het bedrijf achter de sociale media-app TikTok zijn volledige Berlijnse afdeling wou ontslaan en vervangen door artificiële intelligentie (AI). Lees meer over het voorval op de nieuwswebsite van de VRT: TikTok ontslaat volledige moderatieteam in Berlijn, ook Nederlandstalige moderatoren getroffen.
Het is niet de eerste keer dat dit soort acties worden ondernomen. In 2024 werd ook al een team content moderatoren van hetzelfde TikTok ontslagen in Nederland. Dit gaf aanleiding tot een parlementaire vraag in de Tweede Kamer in Nederland. We grijpen deze nieuwsfeiten graag aan om na te gaan wat de arbeidsomstandigheden zijn van deze moderatoren en met welke welzijnsrisico’s ze te maken hebben.
Contentmoderatoren hebben vaak te maken met trauma’s op de werkplek die vergelijkbaar zijn met die van eerstehulpverleners of brandweer. Ze zijn in wezen de beveiligers van sociale media. Ze krijgen de opdracht van platforms om inhoud te verwijderen die hun richtlijnen niet naleven. De berichten die ze eruit filteren zijn onder andere berichten met haat zaaiende, gewelddadige, grafische en pornografische inhoud (inclusief seksuele uitbuiting van kinderen), inhoud van verboden organisaties zoals terreurgroepen, pesten en intimidatie en zelfmoord en zelfbeschadiging.
Van de inhoud waarmee men geconfronteerd wordt, kan men psychologische problemen krijgen zoals Posttraumatische stressstoornis (PTSS) of compassiemoeheid (‘compassion fatigue’). Daarnaast moeten grote hoeveelheden informatie en beelden verwerkt worden en het behalen van deze quota wordt opgevolgd (stresscomponent).
Geheimhoudingsovereenkomsten (de zogenaamde NDA’s ofwel Non-Disclosure Agreements) zijn gemeengoed geworden, waardoor content moderatoren vaak niet met vertrouwde vrienden of familieleden kunnen praten over hun werkervaring. Dit leidt tot een gebrek aan steun voor moderatoren, onbegrip voor hun precaire omstandigheden en een onmogelijkheid om hun moeilijkheden te uiten.
Naast psychosociale risico’s verwijst men soms ook naar sedentair werk (ergonomische risico’s) en misbruik van alcohol, drugs of medicijnen (om wat men ziet op het internet te verdringen).
Ten gevolge van deze welzijnsrisico’s en de job- en inkomensonzekerheid (ook in functie van het statuut), is het personeelsverloop hoog in de sector.
Daarom formuleerde Uniglobal 8 protocollen voor duurzame inhoudsmoderatie:
- Beperk de blootstelling aan aanstootgevende inhoud.
- Productiviteitsstatistieken herzien met menselijk toezicht.
- Uitgebreide gezondheids- en veiligheidstraining voor moderators en managers.
- Hulpprogramma’s voor werknemers en ondersteuning op lange termijn.
- Garandeer langdurige, stabiele arbeidscontracten en leefbaar loon.
- Democratisch gekozen en opgeleide comités voor gezondheid en veiligheid op het werk.
- Bescherm migrerende werknemers.
- Respecteer het recht om een vakbond en collectieve onderhandelingen te organiseren.
Meer info in het Engels op de website van ‘Global Union’: The People Behind the Screens: Why Tech Companies Need New Protocols for Safe Content Moderation.
Bron: Beswic