Met ontslag Amsterdams moderatieteam wil TikTok meer werken met AI. Hoe modereert het techbedrijf?

TikTok heeft zijn Amsterdamse moderatieteam ontslagen en wil meer automatisch modereren. Het techbedrijf leunt sterk op automatische systemen.

featured-image

Ruim 83 miljoen ingrepen deed TikTok in september op zijn platform. Video’s of reacties die verwijderd werden, accounts die geblokkeerd werden en beelden die een leeftijdsbeperking kregen opgelegd. Het socialemedium heeft sinds vorige maand driehonderd werknemers minder om die monsterklus te klaren: TikTok heeft zijn volledige Amsterdamse moderatieteam op straat gezet , bevestigde het bedrijf maandag aan NRC .

Het sluiten van het Nederlandse kantoor, waar zowel Nederlandstalige video’s als beelden in andere talen werden beoordeeld, is volgens TikTok onderdeel van een „efficiëntieslag”. Afgelopen december had TikTok nog 162 moderatoren in dienst voor Nederlandstalige video’s, zo blijkt uit de laatste cijfers die het bedrijf onder de Europese digitaledienstenwet DSA moest openbaren. Onduidelijk is hoeveel daarvan overblijven als gevolg van het ontslag.



Volgens TikTok worden de Nederlandse video’s voortaan ergens anders beoordeeld. „De capaciteiten gaan er niet op achteruit ten opzichte van wat we al hadden”, laat een woordvoerder weten. „Wij merken dat we door meer AI in te zetten, ons werk beter kunnen doen.

Dit is niet de eerste reorganisatie en we verwachten ook niet dat het de laatste zal zijn.” Hoe goed werkt modereren met behulp van AI eigenlijk? TikTok zegt zelf dat de automatische systemen in Nederland in 98,5 procent van de gevallen een kloppend oordeel vellen – en dus in 1,5 procent een verkeerde beslissing nemen. „Op het moment dat AI beter wordt en we zekerder worden dat de oordelen kloppen, kunnen we met minder moderatoren werken”, zegt de woordvoerder.

Het zijn cijfers die moeilijk op waarde te schatten zijn, zegt Paddy Leerssen, die aan de Universiteit van Amsterdam onderzoek doet naar de regulering van internetplatforms. „Het zijn technologieën die ontransparant zijn. Zij kunnen van alles roepen zonder dat het te controleren valt.

” TikTok geeft zichzelf in ieder geval een betere score dan Meta zich toebedeelt. Dat bedrijf meldt dat 8,4 procent van de automatisch genomen moderatiebeslissingen op Facebook en Instagram ongedaan wordt gemaakt. Voor alle techbedrijven geldt dat ze evenals TikTok sterk op automatische systemen leunen voor het schoonpoetsen van hun platforms.

Ze kunnen ook niet anders: zo wordt er op YouTube elke minuut voor 500 uur aan nieuw videomateriaal geüpload. Die enorme stroom aan ‘content’ maakt het ondoenlijk om alles door mensen te laten controleren. Vergeleken met andere socialemediaplatforms heeft TikTok relatief veel moderatoren in dienst – de Amsterdamse moderatoren maakten deel uit van een leger van 6.

200 Europese moderatoren en 40 duizend wereldwijd. YouTube had in februari 132 Nederlandstalige moderatoren, maar een jaar eerder waren dat er maar 24. Facebook en Instagram delen samen 52 moderatoren die Nederlands spreken, X had er één en inmiddels zelfs helemaal geen meer.

TikTok haalt alle filmpjes door een automatische controle heen, die zaken die overduidelijk tegen de regels van het platform ingaan, gelijk weghaalt – grof geweld, seks en het verkopen van drugs bijvoorbeeld. Bij video’s waarover de software twijfelt, moet een werknemer meekijken. Bijvoorbeeld om te beoordelen of een gebruiker wel oud genoeg is om op TikTok te zitten, en of een mes dat in beeld komt gebruikt wordt als wapen of als keukenattribuut.

Die beoordeling wordt door twee werknemers gedaan, die onafhankelijk van elkaar tot hetzelfde oordeel moeten komen. Die menselijke beoordelingen worden vervolgens ook weer gebruikt om de software slimmer te maken, zodat die meer automatisch kan afhandelen. „TikTok droeg meer dan concurrenten uit dat ze moderatie serieus nemen”, zegt Leerssen.

„Misschien concluderen ze nu dat ze met minder ook weg kunnen komen en gaan ze daarom snijden.” De onderzoeker ziet bovendien een verband met de massaontslagen bij techbedrijven na de coronapandemie. Door stijgende rentekosten en afnemende groeicijfers moeten ook zij gaan snijden in de kosten.

„De businessmodellen komen onder druk te staan, en dan gaan ze als eerste snijden in de veiligheidsteams. Niet in de advertentieverkoop.” De uitgebreidere moderatie op TikTok komt ook voort uit de werking van het platform, waarbij gebruikers vooral naar filmpjes kijken waarvan een algoritme denkt dat het bij hun interesses past.

Daarin verschilt het platform van bijvoorbeeld Instagram, waar gebruikers meer beelden zien van accounts die ze actief zijn gaan volgen. Dat maakt het voor TikTok belangrijk om de stroom aan aanbevolen video’s een beetje ‘schoon’ te houden. Over hun moderatie-ingrepen moeten de grote internetplatforms rapporteren aan de Europese Commissie die de gegevens in een centrale database verzamelt .

Daar valt te zien hoever de bedrijven al zijn met het automatiseren van het moderatieproces. In september werden bij TikTok 82 miljoen aangepakte berichten door een automatisch systeem onderschept. 96 procent daarvan werd volledig geautomatiseerd afgehandeld.

Bij de één miljoen berichten die handmatig gedetecteerd werden, kon maar 8 procent door het systeem afgehandeld worden. 92 procent moest dus door een werknemer beoordeeld worden. Bij YouTube, waar in dezelfde periode maar 11 miljoen ingrepen waren, zijn die cijfers heel anders.

Van de ruim 10 miljoen automatisch gedetecteerde video’s werd 41 procent automatisch verwerkt, terwijl bij 59 procent een mens moest oordelen. De Europese DSA-regels stellen dat platforms transparant moeten zijn over hun moderatieproces, maar schrijven niet hoeveel moderatoren een platform in dienst moet hebben. In die zin is X met zijn nul Nederlandse moderatoren een testcase voor TikTok en andere concurrenten; de Europese Commissie onderzoekt inmiddels of het platform wel voldoende doet aan moderatie.

.