Disrupt the data, want algoritmes hebben niet het beste met ons voor

Wie iets weet van social media-algoritmes, weet dat ‘engagement’ meestal als heilige graal wordt beschouwd. Algoritmes bepalen wat jij ziet op basis van waar je naar gekeken hebt – en waar je actief op hebt gereageerd. Maar is dat wel het juiste criterium om te voorspellen wat jij graag wilt zien? Wat als het anders kan?

Ik las de afgelopen zomer een fantastisch boek over social media: ‘The Hype Machine‘. Ik probeer nu de tijd te vinden om het nog een keer te lezen, want ik heb zelden een boek gelezen dat mijn kennis zo verdiepte en verbreedde. Het is net alsof het alles wat ik weet in een nette puzzel heeft gestopt waarbinnen ik alle stukjes nu kan leggen. De randen zijn nu ingevuld, zeg maar.

Net wat meer handen en voeten

‘The Hype Machine’ staat bomvol met wetenschappelijke inzichten en onderzoeken die een scala aan aspecten van social media beslaan. Van advertenties, netwerktheorie en psychologie tot technische dingen als algoritmes en AI en het design van al die apps. En dat geeft alles toch net wat meer handen en voeten.

Als ik een presentatie geef over social media, begin ik vaak met het uitgangspunt:

  1. Dat iedere social media-app een strijdtoneel is waar aandacht het hoogste goed is;
  2. Dat algoritmes bepalen of jouw bericht die aandacht krijgt; en
  3. Dat algoritmes varen op jouw gedrag in de app – likes, time on page, reacties, shares, op wie je reageert, op wat je reageert enzovoort.

Als je dat begrijpt, begrijp je de basis. En dan kun je na gaan denken over wat je wilt bereiken en hoe je dat gaat doen. Dus dat is top. Maar er is zoveel meer. En het kan zo anders.

Want ik ben dol op social media, maar het vervelende is dat die algoritmes niet het beste met ons voor hebben. Iemand programmeert ze en iemand wil er iets aan verdienen. En die iemanden zijn ons als gebruikers geen verantwoording verschuldigd.

Daarom is het doel van die algoritmes nooit om jou als gebruiker gelukkig te maken of je leven te verbeteren. Al zou het dat wel kunnen zijn.

Ook Facebook geeft het toe

Zo langzamerhand lijkt Facebook dit ook toe te geven, zoals in dit fascinerende artikel op Wired te lezen is. Daarin wordt dit recente blog van Facebook besproken over een onderzoek naar de rol van politieke content in de news feed, door Facebook zelf.

Het is eerlijk gezegd een wonder dat de journalist dat Facebookblog heeft gevonden. Want Facebook heeft weliswaar redelijk transparant de resultaten van dat onderzoek gedeeld, maar dan wel in de vorm van een update van een oud blog uit februari 2021. Het is maar goed dat al die technologiejournalisten zo goed opletten.

Het Facebookblog gaat over een onderzoek waarbij Facebook een kleine groep Facebookgebruikers in een beperkt aantal landen minder ‘politieke content’ ging laten zien om te kijken of dat hen tevredener zou maken over Facebook. Het is tenslotte het grote kritiekpunt dat zowel journalisten als gebruikers op Facebook hebben: de polariserende werking en bovenmatige impact van politieke berichten op Facebook.

Daarnaast wilde Facebook onderzoek doen naar ‘andere signalen’ (dan de gebruikelijke ‘engagement’) om te bepalen of gebruikers politieke berichten wilden zien. Dus niet alleen ging het algoritme voor deze groep gebruikers minder politieke content tonen, het ging ook op zoek naar alternatieve manieren om te bepalen wat mensen wel en niet wilden zien.

Slim van Facebook om nu eens niet alleen op de data te vertrouwen

Het klinkt vaag, maar zoals de journalist van Wired terecht zegt is het redelijk baanbrekend. (Belangrijke notitie: berichten van officiële overheidspagina’s, de WHO en andere officiële gezondheidsorganisaties over covid waren uitgesloten van de test en werden niet ‘onderdrukt’ in het algoritme.)

Gebruikers in de testgroepen zouden bovendien vragenlijsten krijgen over hun nieuwe, minder politieke, news feed. Om te zien of het ze beviel. Slim van Facebook om nu eens niet alleen op de data te vertrouwen.

Veel engagement met politieke content 

Zoals je misschien weet zijn politieke berichten het soort content dat van alle type berichten op Facebook tot de hoogste ‘engagement’ leidt. Mensen voelen zich bij uitstek boos, opgewonden of verdrietig bij berichten over de politiek van hun land. En omdat het algoritme van Facebook ‘engagement’ als belangrijkste factor neemt om te voorspellen of nieuwe berichten getoond moeten worden, zijn dat al jaren de berichten die het grootste bereik krijgen.

De meest polariserende, opruiende politieke content krijgt het meeste bereik

Het is precies waarvoor Facebook onder vuur ligt: de meest polariserende, opruiende politieke content krijgt het meeste bereik.

Als je wilt weten hoe dit komt, moet je echt ‘The Hype Machine’ lezen, want daar staat het precies in uitgelegd. Er is bijvoorbeeld een reden dat nieuws ons meer raakt dan andere content. Er is ook een reden dat ‘fake news’ ons eerder bereikt dan andere berichten. Er zijn gewoon heel veel factoren die er toe leiden dat al dat politieke nieuws onze Facebook tijdlijn overneemt.

Maar de vraag die Facebook wil beantwoorden is: kan het ook anders? Kan Facebook die loop waarbij we steeds meer ‘engagement’ laten zien bij bepaalde nieuwsberichten, we er daardoor steeds meer van te zien krijgen, en daardoor steeds ongelukkiger worden, doorbreken?

Weet Facebook wel wat we echt willen?

Een app kan niet in je hoofd kijken, natuurlijk, of in je hart. Maar Facebook heeft zoveel meer dan onze ‘likes’ en ‘reacties’ om op af te gaan om ons gedrag en onze voorkeuren te analyseren. Ik denk soms dat mensen zich niet realiseren wat Facebook allemaal bijhoudt en weet over ons en hoeveel data dat genereert. Het gaat niet alleen om je profiel, je netwerk en de mensen en pagina’s die je volgt, maar ook de plekken waar je komt, het aantal seconden dat je naar video’s over honden kijkt, en nog veel en veel meer.

Een like is niet alles

Als je dan die artificiële intelligentie loslaat op bakken en bakken met data en gedragsgegevens, zou dat moeten kunnen leiden tot geavanceerde voorspellingen, zou je denken. Vooral als je je gaat realiseren dat een ‘like’ niet alles is.

Zoals de journalist van Wired zegt: als je een bak dorito’s voor mijn neus zet als ik op de bank zit, ga ik hem leegeten. Maar dat wil niet zeggen dat ik niet liever andere keuzes zou hebben gemaakt en andere dingen zou hebben willen eten.

The same goes for Twitter, where I routinely allow myself to be enraged by tweets before recognizing that I’m wasting time doing something that makes me miserable.

Als Facebook uit alle data die wij genereren door ons gebruik van de app ook patronen kan ontdekken – of ‘signalen’ zoals ze zelf zeggen – die correct voorspellen wat we nou wél willen zien, waar we wél blij van worden, welke berichten nou wél bijdragen aan ons leven, zou dat baanbrekend zijn.

Wat dat dan zou zijn, vraag je? Geen idee. Misschien iets van vragen als:

  • Leiden berichten tot contact met je geliefden?
  • Leiden berichten tot positief gedrag … ga je een ander soort berichten delen of liken of doorsturen, berichten waarvan duidelijk is dat die iets bijdragen?
  • Leiden berichten tot reacties waarvan al die slimme AI-systemen vaststellen dat ze positief zijn en bijdragen aan de community?

Het is nogal lastig, he (en het verdient een ander blogartikel en flinke discussie!). Want de vraag is niet alleen wie bepaalt of iets waarde heeft en bijdraagt aan ons leven. De vraag is vooral ook hoe je dat nou kunt zien aan ons gedrag in zo’n app. Wat doe je in die Facebook-app als je happy en gelukkig bent? En wat doe je niet? Op welke signalen moet Facebook dan letten? Het is voer voor psychologen.

Het zoeken is naar de signalen

Terug naar het experiment en Facebooks vage statement dat er misschien toch andere signalen zijn dan de traditionele ‘engagement’ om te bepalen wat mensen willen zien:

We’ve also learned that some engagement signals can better indicate what posts people find more valuable than others. Based on that feedback, we’re gradually expanding some tests to put less emphasis on signals such as how likely someone is to comment on or share political content. At the same time, we’re putting more emphasis on new signals such as how likely people are to provide us with negative feedback on posts about political topics and current events when we rank those types of posts in their News Feed.

Wat interessant is, is dat Facebook aangeeft dat ‘engagement’ niet altijd gelijk staat aan ‘value’. Zie je dat? Je moet er voor tussen de regel lezen, zoals de journalist van Wired opmerkt. Maar baanbrekend is het niettemin.

Even een terzijde voor de mensen onder ons die dagelijks proberen om meer bereik te krijgen op Facebook zonder daar voor te betalen met advertenties: Facebook zegt hier ook heel duidelijk dat ze meer waarde gaan hechten aan ‘negatieve feedback’ op berichten.

Negatieve feedback kan bestaan uit boze gezichtjes in plaats van blije duimpjes. En uit acties als ‘bericht verbergen’ of ‘deze auteur 30 dagen lang snoozen’, knoppen die je nu al kunt gebruiken. Maar misschien zijn er ook andere acties die negatieve gevoelens aangeven (voer voor psychologen, weet je nog?).

Je zou denken dat dit niet nieuw is, negatieve feedback meewegen, maar dat is het wel degelijk.

Dit artikel verscheen eerder op