„Besef dat YouTube je naar het extreme kan leiden”
Werkt YouTube rechtse radicalisering in de hand? Leidt de technologie van het videoplatform mensen naar extreme content? Of zijn het vooral de kijkers die zelf niet goed nadenken en alles wat hun eigen mening bevestigt voor zoete koek slikken?
De Holocaust is een verzinsel, het feminisme een ongeneeslijke ziekte en een exclusief witte bevolking het ideaal. Wie wil kan deze extreemrechtse opvattingen met een paar muisklikken vinden. Op YouTube is het rechts-radicale gedachtegoed veel prominenter aanwezig dan filmpjes uit de uiterst linkse hoek, zoals marxisme, anarchisme en antifascisme. Kijkers kunnen makkelijk de tunnel van rechts-radicale opvattingen in worden gezogen, stelden de Volkskrant en De Correspondent onlangs na grootschalig onderzoek. Als je kritisch bent op het Europese migratiebeleid zou je dus zomaar kunnen uitkomen bij de boodschap dat zwarte mensen een laag IQ hebben.
De onderzoeksdata zijn indrukwekkend: zo’n 1500 kanalen, 600.000 video’s, 120 miljoen reacties, 15 miljoen aanbevelingen en 440.000 videotranscripties. De onderzoekers richtten zich op kijkers die veelvuldig reageerden op extreemrechtse filmpjes en volgden het pad dat zij aflegden. Een pad dat hen naar steeds extremere video’s leidde.
Filterbubbel
Grote boosdoener zouden de aanbevelingen van YouTube zijn. Op basis van kijkgedrag –het algoritme– raadt het platform filmpjes aan die gebruiker waarschijnlijk interessant vindt. Een geslaagde methode om kijkers vast te houden, aangezien die 70 procent van de tijd op YouTube naar aanbevolen content kijken. Maar juist die voorgestelde video’s zouden de kijker steeds meer de extreemrechtse kant op duwen. Klopt het dat YouTube haar gebruikers steeds rechtser en radicaler kan maken? En hoe voorkom je als kijker dat je in een tunnelvisie verstrikt raakt?
Mensen laten zich snel verleiden door extreme informatie, stelt Marijn Keijzer. Hij doet een promotiestudie naar de invloed die algoritmes van sociale media hebben op de politieke meningsvorming van hun gebruikers. „Een filmpje met tien redenen om vluchtelingen te weren, doet het veel beter dan een video die een genuanceerde blik op de vluchtelingencrisis geeft.” Keijzer vindt dat het onderzoek naar YouTube weinig rekening houdt met dat psychologische fenomeen. Het is daarom volgens hem niet per se de schuld van YouTube’s algoritme dat mensen bij rechts-radicale boodschappen uitkomen.
Keijzer noemt het onderzoek van de Volkskrant en De Correspondent een „prijzenswaardige poging” om vast te stellen of YouTube radicalisering in de hand werkt. Wel zitten er wat haken en ogen aan de aanpak, meent hij. Want YouTube is uiteindelijk een platform waar gebruikers zelf veel invloed op hebben.
Een algoritme heeft de neiging om een bepaalde groep dieper de tunnel in te trekken, erkent de onderzoeker aan de Rijksuniversiteit Groningen. „Maar het is te kort door de bocht om te stellen dat YouTube een gevaarlijk platform is. Niet iedereen komt automatisch in een filterbubbel terecht. Mensen zijn geen subjecten die slaafs een algoritme volgen. En er is ook een weg uit de tunnel.” De bal ligt dus vooral bij de kijker, betoogt Keijzer. „Omdat we snel klikken op pakkende koppen, vinden we het moeilijker om voor onszelf aan waarheidsvinding te doen. Maar wie zich voedt met een breed scala aan informatie, raakt niet zomaar verstrikt in een tunnelvisie.”
Hoe voorkom je als kijker dat je wordt meegezogen met eenzijdige, onjuiste informatie? „Blijf de baas over je eigen gedachten”, adviseert hij. „Laat je informeren door leuke YouTubefilmpjes en lees gerust interessante artikelen die in je tijdlijn op Facebook langskomen. Maar wees je ervan bewust dat het algoritme je een bepaalde richting op stuurt. Besef dat er meer in de wereld is als je achter je computer luistert naar een extreemrechtse YouTuber.”
Het internet helpt daar ook bij. „Omdat het eindeloos veel informatie beschikbaar maakt voor iedereen. Dat we ons kunnen laten informeren over alle meningen in de wereld, vraagt wel om het besef dat achter YouTube geen redacteur zit die de informatie toetst aan de feiten. En wil je overtuigd worden van je eigen mening, dan moet je ook in staat zijn om te luisteren naar wat een ander te zeggen heeft.”
Kip-eivraag
De scheiding van ideologieën is volgens Keijzer in de loop van de tijd toegenomen op sociale media: links volgt vooral links en rechts vooral rechts. Maar zijn het de onlineplatforms die zorgen voor verharding van het debat, of verhardt het debat in media en samenleving en zijn mensen daarom niet meer geïnteresseerd in andere meningen?” Op die kip-eivraag heeft hij nog geen antwoord.
Onderzoek wijst uit dat het averechts werkt om mensen bewust te confronteren met radicaal tegengestelde meningen. Het is dus geen goed idee als YouTube uitgesproken linkse filmpjes zou aanbevelen aan mensen die graag radicaal-rechtse video’s zien. „Informatie die haaks staat op het eigen wereldbeeld verwerpen zij meteen, omdat ze die als bewijs voor hun eigen gelijk zien. Juist dat kan zorgen voor extremisering. Dus misschien is een bubbel zo gek nog niet, zolang die maar niet te smal is.”