Het gebruik van sociale media zorgt voor oogkleppen. Door de algoritmes die bepalen welke content we zien zitten we in onze eigen social media bubbels. Hoe prikken we die door?
Echo chambers zorgen voor polarisatie
We worden bijna niet meer geconfronteerd met meningen of ontwikkelingen die niet aansluiten bij onze voorkeuren. Zo wordt de content die we zien een echo van wat we zelf communiceren. En dat is zorgwekkend. Chantal Schepers is op SXSW en schreef dit blog over de analyse van Digital Strategist Claire Woodcock. We leven in een bubbel die hoognodig moet worden doorgeprikt.
Socialemediakanalen als echo chambers zijn gevaarlijk en zorgen voor verdere polarisatie, vindt Woodcock. Het beperkt je beeld van de wereld waarin je leeft, omdat je ook het nieuws maar vanuit een perspectief belicht krijgt. Neem Facebook waar hetgeen je ziet onder andere wordt bepaald door de vrienden die je hebt, groepen waarvan je deel uitmaakt en content die op basis van eerdere likes wordt voorgeschoteld. Een goede discussie voeren is er ook niet meer bij, simpelweg omdat je niet langer wordt geconfronteerd met meningen die afwijken van de jouwe.
Niet alleen voor ons persoonlijk zijn de echo chambers een slechte zaak. Ook Facebook schiet zichzelf door het intensief benutten van algoritmes in de eigen voet. Gelijksoortige content voorgeschoteld krijgen is namelijk uiteindelijk ook gewoon saai. We worden niet meer verrast, raken verveeld en haken af.
Wie bevrijdt ons uit de bubbel?
Maar hoe zorgen we dat we uit de echo chambers breken? Wie is er verantwoordelijk om ons te bevrijden uit de bubbel? Woodcock geeft aan dat dit in ieder geval geen taak is van de overheid. Daar zal ook al snel een politieke agenda worden opgedrongen. De oplossing zal bij de platformen zelf vandaan moeten komen. Zij hebben er immers zelf ook iets bij te winnen.
Hoe Facebook kan leren van Netflix
Bij het zoeken naar oplossingen zet Woodcock een aantal mogelijke oplossingen uit op twee assen. Impact van interactie op de ene as, en diversiteit van opinie op de andere.
De beste oplossing, de Bubble Buster, scoort hoog op beide. Zij stelt dat Facebook daarbij veel kan leren van Netflix. Het kan ‘Netflix Knowledge’ toepassen. Het netwerk kan namelijk een nieuw type bericht tonen in onze feed; ‘recommended content’. Als voorbeeld komt de Brexit aan de orde.
Stel je voor dat je op Facebook lid bent van de pro Brexit-groep en tot dusver alleen pro-Brexit artikelen hebt geliked. Dan zou Facebook je uit de bubbel kunnen halen door content over andere standpunten in je feed terug te laten komen. Belangrijke voorwaarde is dat deze content aantrekkelijk is om te lezen, anders is de kans dat je de content echt consumeert klein. Doel is ook niet om onze mening te veranderen, maar om je uit de bubbel te halen en te laten zien dat er meer is dan alleen jouw mening.
Ethiek
Je zou kunnen zeggen dat er ook ethische richtlijnen moeten komen over het gebruik van algoritmen door (sociale) media. Maar uiteindelijk is het natuurlijk ook onze eigen verantwoordelijkheid door welke bronnen we ons laten voeden en welke content we consumeren. Toch is bewezen dat we met name op zoek zijn naar meningen die de onze onderschrijven en we al snel onze ogen sluiten voor argumenten die dit tegenspreken. Dit heeft overigens ook een belangrijke link met fake news. Daarover meer in een volgend blog.
Plaats als eerste een reactie
Ook een reactie plaatsen? Word lid van Adformatie!