Nepnieuws is een brede term, die je op allerlei manieren kan interpreteren. Is de satire van De Speld nepnieuws, of een bericht van gevestigde media dat later in een factcheckrubriek als NRC Checkt het stempel ‘onwaar’ krijgt?
Over grijze gebieden valt te twisten, maar sinds de verkiezingen zijn verschillende voorbeelden aan het licht gekomen van websites die enkel bestaan om onwaarheiden te verspreiden, en zo geld te verdienen.
Onder meer deWashington Post enNPR interviewden eigenaren van zulke sites. Uit een analyse vanBuzzFeed News bleek dat veel berichten van de nepnieuwssites voor de verkiezingen een groter bereik hadden dan artikelen van gevestigde media.
Luttele uren nadat duidelijk werd dat Trump de volgende Amerikaanse president zou worden, regende het al beschuldigingen: nepnieuws was medeverantwoordelijk voor zijn opkomst en het mediaklimaat waarin hij weg kon komen met verdraaiingen, overdrijvingen en totale onwaarheden. Voor critici was het duidelijk: er moet een muur komen tegen nepnieuws, en Facebook moet hem betalen.
Maar het sociale netwerk ontkent dat nepnieuws een invloed heeft gehad op de verkiezingen. Facebook onderzoekt wel of er bijvoorbeeld een waarschuwingslabel kan komen te staan bij nieuws van bekende nepnieuwssites, maar stelt zich vooral op als neutraal platform.
Filterbubbels
Neutraal is Facebook echter allerminst: de algoritmes van het bedrijf kennen individuele gebruikers als geen ander en passen de volledige nieuwsfeed daarop aan. Dat kan ervoor zorgen dat berichten van bepaalde familieleden prominenter voorkomen, maar ook dat bepaalde nieuwsbronnen veel of juist helemaal niet langskomen.
Het is niet verwonderlijk dat Facebook voor die aanpak kiest. Als commercieel bedrijf wil Facebook zijn gebruikers zo lang mogelijk in zijn app of op zijn site houden, om ook zo veel mogelijk advertenties te presenteren. Mensen die nieuwsartikelen te zien krijgen waar ze het niet mee eens zijn, of artikelen die hun eigen ideeën betwisten, zullen minder liken en minder tijd op Facebook doorbrengen.
Het ontstaan van zo’n ‘filterbubbel’ zorgt voor een klimaat waarin nepnieuws het goed kan doen: berichten die bijvoorbeeld beweerden dat Hillary Clinton verantwoordelijk is voor allerlei moorden, werden alleen gezien door mensen die zoiets wilden geloven.
Over de filterbubbel wordt al lang gewaarschuwd. Toen schrijver en activist Eli Pariser er in 2011 eenboek over uitbracht, kwamen zijn ideeën nog grotendeels over als een dystopisch toekomstbeeld. Nu zit bijna iedereen die het internet gebruikt regelmatig in zijn eigen bubbel.
“Als we zelf de baas zijn over onze eigen nieuwsprogrammering, lopen we het risico dat we onszelf afsluiten van informatie die zeer belangrijk kan zijn voor onze evolutie”, schreef filosoof Alain de Botton in zijnboek Het nieuws: een gebruiksaanwijzing. We blijven hangen in onze eigen politieke kringen, en missen een frisse blik op de wereld. Zo lopen we het risico te worden “veroordeeld tot middelmatigheid”, schrijft De Botton.
Controle
Kort na de verkiezingen namThe Guardian de proef op de som. De Britse krant liet linkse en rechtse Amerikanen een tijdje van Facebook-feed wisselen. Het resultaat was voorspelbaar: verbazing over en afkeer tegen de standpunten van de andere politieke flank. De deelnemers vonden het interessant om een keer aan de andere kant van de schutting te kijken, maar wilden uiteindelijk vooral weer terug naar hun eigen vertrouwde tuintje.
Het is makkelijk om Facebook, Google en andere internetbedrijven de schuld te geven van de filterbubbel. Maar ze geven mensen waar ze zélf om vragen.
In de strijd tegen nepnieuws kunnen technische hulpmiddelen natuurlijk van pas komen – Google wil beruchte sites met nepnieuws bijvoorbeeld minder hoog in de zoekresulaten laten komen, en ook een waarschuwingslabel op Facebook kan behulpzaam zijn.
Maar internetbedrijven vragen om te bepalen wat waar is, kan ook onwenselijk zijn. Als Facebook bepaalt wat wel en niet in de nieuwsfeed verschijnt, krijgt het bedrijf juist nóg meer invloed op ons nieuwsdiëet.
“Het is een schrikbarend kleine stap van het beïnvloeden van de wereld naar het besturen van de wereld”,schrijft technologieanalist Ben Thompson. En vertrouwen we Facebook, het bedrijf dat een beroemde Vietnamfoto aanzag voor kinderporno, als hoofdredacteur van ons leven?
Uiteindelijk zullen gebruikers van sociale media zich vooral bewust moeten zijn van hun bubbel, en zelf op zoek moeten gaan naar verschillende meningen en nieuwsbronnen, denkt Thompson.
Verkennen
Daar kunnen sociale netwerken wel bij helpen. Ryan Holmes, de directeur van socialmediabedrijf Hootsuite, stelt in de New York Observer bijvoorbeeld voor dat Facebook en Twitter hun algoritmes zo aanpassen dat gebruikers af en toe geconfronteerd worden met nieuws van buiten hun bubbel.
Net als Spotify het mogelijk maakt om een onbekend muziekgenre te verkennen door middel van playlists en automatische suggesties, zou het op sociale media mogelijk moeten zijn om door andere meningen te bladeren en zo je gezichtsveld te verbreden, vindt hij.
Van de filterbubbel komen we vermoedelijk niet meer af. Maar we kunnen wel toegang vragen tot de bubbels van anderen.