Facebook negeerde eigen waarschuwing voor polariserende algoritmen
Een van de meldingen komt uit 2016, waarin interne onderzoekers ontdekken dat 64 procent van de mensen die zich abonneerden op de pagina van een extremistische groep dat deed doordat ze daar via het aanbevelingsalgoritme van Facebook op gewezen waren, schrijft The Wall Street Journal.
In 2018 krijgt het management het nog eens samengevat: "Onze algoritmen gebruiken de neiging van het menselijk brein zich tot verdeeldheid aangetrokken te voelen", staat er - vrij vertaald - op een van de slides van de presentatie.
Dat Facebook weinig met deze conclusies deed, is voor een belangrijk deel toe te schrijven aan Joel Kaplan - bij Facebook vice president global public policy - oordeelt The Wall Street Journal. Kaplan was ook stafchef van voormalig president George W. Bush en staat bekend om zijn rechtse politieke denkbeelden. Volgens critici heeft Kaplan zich sinds de verkiezingen in 2016 ingespannen om kritiek op Facebook uit conservatieve hoek te sussen en alle beschuldigingen van vooringenomenheid te weerleggen.
Rechtsgeoriënteerde sites onevenredig getroffen
Eerdere besluiten van Facebook om zich niet te bemoeien met politiek getinte reclames die misleidende informatie bevatten, zouden bijvoorbeeld ook voor een belangrijk deel zijn initiatief zijn. Hij zou ook pogingen om de invloed van zogeheten super-sharers - die vaak polariserende boodschappen verspreiden - in te dammen, hebben gesmoord uit vrees dat deze onevenredig veel rechtsgeoriënteerde abonnees zou treffen en daarmee de populariteit van Facebook verminderen.
Volgens een reactie van Facebook aan The Verge is het bedrijf nu niet meer het bedrijf dat het was in 2016. Er is nu een integriteitsteam ingesteld en beleid en acties ontwikkeld om schadelijke content te minimaliseren. In februari werd 2 miljoen dollar vrijgemaakt voor onafhankelijk onderzoek naar polarisatie.
Reacties
Om een reactie achter te laten is een account vereist.
Inloggen Word abonnee