Hoe Facebook worstelt met zijn moderatiebeleid

Facebook ligt al maanden onder vuur vanwege zijn moderatiebeleid, maar het sociale netwerk lijkt voorzichtige stappen te zetten zijn problemen op te lossen. Alleen... Kan dat überhaupt wel? En is Facebooks manier van het modereren van haatberichten en porno wel de juiste?

Al maanden wordt Facebook van alle kanten aangevallen als het gaat om het toestaan of juist verwijderen van berichten. De website lijkt telkens de verkeerde pagina's te verwijderen en ontoelaatbare dingen toch toe te staan. Om de controverse te stoppen heeft Facebook interne richtlijnen opgesteld, die nu door The Guardian naar buiten zijn gebracht. De richtlijnen geven een beeld van een bedrijf dat wanhopig op zoek is naar een oplossing voor een onmogelijk probleem.

Controversiële richtlijnen

In de richtlijnen is te lezen wanneer iets bijvoorbeeld wel tot porno is en wanneer niet, maar de uitgelekte regels zijn controversieel. Zo staat bijvoorbeeld te lezen dat kindermisbruik in sommige gevallen toegestaan is, zolang het maar niet seksueel is of als er 'een sadistische component aan zit'. Hetzelfde geldt voor dierenmisbruik, en livestreams van mensen die aan zelfkastijding doen.

De documenten laten ook een beeld zien van een sociaal netwerk dat overweldigd wordt door content waar het bijna niet tegenop kan vechten. Zo blijkt dat het bedrijf in een maand tijd meer dan 54,000 zaken van 'wraakporno' moest behandelen.

Spagaat in grijs gebied

Belangrijker nog is de spagaat waarin Facebook blijkt te zitten, waarin het bedrijf probeert de scheidslijn te vinden tussen de vrijheid van meningsuiting en het beschermen van zijn gebruikers en het volgen van verzoeken van overheden. Zo laat Facebook bijvoorbeeld voorbeelden van pestgedrag of kindermisbruik toe 'voor educatieve redenen' zodat gebruikers kunnen zien wat kindermisbruik met een kind doet. Zelfmutilatie op livestreams wordt ook niet geblokkeerd, omdat Facebook 'getroubleerde jongeren hun roep om aandacht niet weg wil nemen' - ook al zeggen organisaties dat zulk gedrag zeer schadelijk kan zijn voor jongeren.

Stap in goede richting

De richtlijnen zijn een voorzichtige maar controversiële stap in de goede richting voor het sociale netwerk, dat al jaren wordt geplaagd door controverse rondom zijn moderatiebeleid maar zeker de afgelopen maanden zwaar onder vuur kwam te liggen vanwege wat het wel of juist niet toeliet.

Anonimiteit geen garantie voor netheid

Facebook had lange tijd de filosofie dat het vooral de verantwoordelijkheid van de eindgebruiker was wat er op het sociale netwerk werd gepost. Het leek een goede oplossing voor websites die hun handen vol hadden aan het modereren van comments. Steeds meer websites maakten gebruik van de Facebook Reactions-module, waarbij lezers met hun Facebook-account konden reageren op artikelen. Het idee was dat lezers vanzelf hun toon zouden matigen wanneer hun naam en Facebook-profiel aan de reactie werd gekoppeld; zonder de anonimiteit van het internet zouden lezers zich vanzelf gaan gedragen.

Het reageren met naam en toenaam bleek geen garantie voor weldoordachte en nette commentaren

-

Niets bleek minder waar. De afgelopen jaren bleek wel dat het reageren met naam en toenaam, openbaar voor de rest van de wereld, geen enkel obstakel was voor het uiten van de meest racistische en denigrerende commentaren.

Censuur van Facebook zelf

De grootste censuur op Facebook lijkt dan ook vanuit het sociale netwerk zelf te maken. Regelmatig komt er veel kritiek binnen op de dienst nadat er pagina's verwijderd werden of accounts geblokkeerd bleken van kunst (vanwege 'seksualiteit'), zoals deze:

Andere keren ging het over het pagina's van politici, pagina's van musea, of actiepagina's over Geert Wilders - uiteraard tot grote woede van diens achterban.

Facebook werd er constant om bekritiseerd, maar wist zichzelf jarenlang in een grijs gebied te plaatsen waarbij het zich niet voor of tegen zulke individuele zaken wilde uitspreken.

Rol in publieke debat

Inmiddels begint Facebook echter haar rol in het publieke debat te begrijpen. De website heeft immers grote invloed op wat meer dan een miljard gebruikers te zien krijgen. Die rol wordt alleen maar groter omdat Facebook via algoritmes cureert welke berichten je te zien krijgt, in tegenstelling tot bijvoorbeeld Twitter. Dat betekent dat Facebook gewild en ongewild veel invloed heeft op de denkwijze van zijn gebruikers. In 2014 bleek dat eens te meer, toen duidelijk werd dat Facebook regelmatig onderzoek uitvoert onder zijn gebruikers om te kijken waar goed of slecht op wordt gereageerd.

Verkiezingen beïnvloeden

Een belangrijke onthulling was dat Facebook actief verkiezingen kon beïnvloeden, en sterker nog, dat het dat ook had gedaan. Het ging weliswaar om lokale verkiezingen, maar Facebook kon door simpelweg aan bepaalde demografieën een oproep om te gaan stemmen te tonen al opkomstcijfers manipuleren. Door de oproep in een overwegend rechts georiënteerde omgeving te tonen, kon Facebook ervoor zorgen dat juist die burgers naar de stembus gingen.

Facebook heeft actief Amerikaanse verkiezingen beïnvloed

-

Nepnieuws

Ook in de huidige verkiezingen heeft Facebook een grote rol gehad. 'Nepnieuws' werd een begrip, en niet alleen door de schreeuwerige valse beschuldigingen van Donald Trump aan het adres van traditionele media zoals CNN en de New York Times. Duizenden 'ondernemers' zagen de polarisering van het politieke landschap als goed verdienmodel met het opzetten van websites gevuld met oproerkraaiende nieuwsberichten over dingen die niet gebeurd waren. De belangrijkste verspreidingsmethode bleken de boze burgers op het sociale netwerk te zijn, die berichten veel sneller delen wanneer dat binnen hun denkwijze valt - zonder te controleren of het nieuws wel echt gebeurd was.

Het is te makkelijk te zeggen dat Donald Trump de Amerikaanse presidentsverkiezingen dankzij dit nepnieuws heeft gewonnen, maar sociale media (met Facebook voorop) heeft zonder twijfel een significante rol gespeeld.

Dubieuze livestreams

De verkiezingen zijn niet het enige probleem van Facebook, dat 2 jaar geleden een eigen livestreaming-dienst begon. Facebook Live bleek net zo'n hoofdpijndossier voor Facebook te zijn als nepnieuws. Al snel werd de mogelijkheid misbruikt voor allerhande louche zaken, met als dieptepunt een man die zijn dochter live vermoordde. De klopjacht die volgde eindigde in zelfmoord, en Facebook moest diep door het stof én met oplossingen komen om zulke incidenten te voorkomen.

Wraakporno

Nog een woord dat misschien niet door Facebook in het lexicon kwam maar wel door het sociale netwerk werd grootgemaakt is 'wraakporno', waarbij ex-vriendjes (of vriendinnetjes) foto's en video's van hun voormalige relaties op internet zetten. Ook dat kwam tot een fameuze zaak, waarbij Facebook werd aangeklaagd door een Nederlandse vrouw die in zo'n video op internet verscheen. Het meisje, Chantal, eiste van Facebook dat het de uploader van de video bekend maakte, en na een lange juridische strijd gaf Facebook toch toe.

Europese richtlijnen

Facebook en de slachtoffers van online intimidatie zijn niet de enigen die iets willen doen aan dergelijke wanpraktijken. Ook op Europees niveau wordt er gesproken over regels om internetbedrijven te verplichten haatdragende berichten te verwijderen, en de Europese Commissie stelde vorig jaar al gedragsregels op waar bedrijven zich aan moesten houden. In Duitsland ligt wetgeving klaar waarbij Facebook miljoenenboetes kan krijgen als het niet onmiddellijk bepaalde haatzaaiende berichten offline haalt.

Oplossingen

Facebook beseft inmiddels dat het niet meer weg komt met het negeren van zijn rol in de echte wereld. Het bedrijf moet en wil optreden tegen nepnieuws, maar komt er maar niet achter hoe. Voor Facebook, met bijna 2 miljard gebruikers en vele miljarden gigabytes aan data, is machine learning een logische keus. Slimme algoritmes die automatisch kunnen detecteren wanneer een bericht nep is, of aanstootgevend, of pornografisch. Maar dat is makkelijker gezegd dan gedaan, want die algoritmes maken juist nu de verkeerde keuzes die zo vaak tot irritatie leiden. Zo kan een borst op een standbeeld door al die machine learning automatisch worden verwijderd, maar kan het wel gebeuren dat er porno op het netwerk verschijnt als daar maar geen geslachtsdelen in te zien zijn.

Facebook beseft dat het niet meer wegkomt met het negeren van zijn rol

-

Facebook kiest daarom voor de meer archaïsche manier: het handmatig controleren van berichten. Onder druk van alle commotie maakte het bedrijf vorige maand bekend niet minder dan 3.000 nieuwe werknemers in te zetten die livestreams zouden controleren en uploads moeten modereren.

Duizenden psychologisch beschadigde medewerkers

Ook daar komt echter kritiek op. Facebook wil namelijk niet zeggen wie die 3.000 medewerkers zijn en waar ze gaan werken. De 3.000 medewerkers zijn niet de eerste die door Facebook worden aangenomen, en als het verleden een goede indicatie is hebben die moderators geen droombaan. In 2014 schreef Wired bijvoorbeeld een aangrijpend verhaal over Filippijnse medewerkers die de hele dag tegen minimumloon in een grote hangar alle kinderporno, onthoofdingen en andere gruwelijkheden van de Facebook-servers moeten verwijderen - grotendeels zonder de broodnodige psychologische begeleiding.

Toekomstoplossing?

Het lijkt er niet op dat Facebook voorlopig een goed antwoord heeft op wat het moet doen tegen de gigabytes aan misbruik, mysogonie, racisme en porno die dagelijks door de 1,7 miljard worden geüpload. Gelukkig is het netwerk zich inmiddels bewust van hoe belangrijk moderatie is, en of de richtlijnen die het heeft opgesteld de juiste zijn is minder belangrijk dan het feit dat het eindelijk actie onderneemt. Een goed begin...

Deel dit artikel
Voeg toe aan favorieten