Du måste aktivera javascript för att sverigesradio.se ska fungera korrekt och för att kunna lyssna på ljud. Har du problem med vår sajt så finns hjälp på http://kundo.se/org/sverigesradio/
SOCIALA MEDIER

Facebooks algoritmer manipulerades inför USA-valet

Uppdaterat torsdag 11 maj kl 10.26
Publicerat fredag 28 april kl 16.31
Mark Malmström är digital utvecklingsredaktör på Ekot, Sveriges Radio
Mark Malmström är digital utvecklingsredaktör på Ekot, Sveriges Radio Foto: Staffan Löwstedt/ SvD

Facebook släppte på torsdagen en rapport där de bland annat skriver att de under presidentvalåret 2016 identifierat flera fall av så kallad "false amplification", där små nyheter fått onaturligt stor spridning för att algoritmerna medvetet manipulerats genom kampanjer.
   Mark Malmström, digital utvecklingsredaktör på Ekot, har läst rapporten och menar att det nu blir ännu viktigare för medier att förstå om deras journalistik sprids genom äkta engagemang – eller kanske är redskap i manipulerings- och desinformationskampanjer.

Uppdaterad: Vi har förtydligat och citerat vad forskarna kom fram till i studien om diskriminerande algoritmer

På Facebook och andra sociala medier finns miljontals filterbubblor. Vissa av dem är större än andra och vissa är man som användare medveten om, andra inte. I stort sett varje klick du gör på en social sajt flyttar dig ännu djupare in i din egen bubbla. Men utöver den tillhör du andra, mycket större, bubblor. Och filterbubblor existerar på långt fler platser än bara sociala medier.

New York Times har uppmärksammat fenomenet i en artikel om hur Googles algoritmer, oavsiktligt får man hoppas, kan diskriminera. Som exempel anger man en studie som visar att Googles platsannonser för högbetalda jobb oftare riktas mot män än mot kvinnor. Forskarna Amit Datta, Michael Carl Tschantz och Anupam Datta sammanfattar sina resultat i studien Automated Experiments on Ad Privacy Settings - A Tale of Opacity, Choice, and Discrimination:

"In particular, we found that males were shown ads encouraging the seeking of coaching services for high paying jobs more than females. /.../

We do not, however, claim that any laws or policies were broken. /.../

Nevertheless, we are comfortable describing the results as 'discrimination'. From a strictly scientific view point, we have shown discrimination in the nonnormative sense of the word."


Ett annat exempel kan du testa själv. Bildgoogla på ordet ”ceo” (vd) och räkna hur många icke-vita och kvinnor du ser. När du är klar med detta kan du byta till sökorden ”rich” (rik) och ”poor” (fattig) och göra samma beräkning. 

De resultat du får utgår också från en sorts filterbubbla. Resultaten speglar inte en objektiv sanning, utan ger en sorts bekräftelse på en förutfattad mening om hur världen ser ut ur ett västvärlden-perspektiv. Men algoritmen vet inte om detta, den lyfter endast fram det innehåll som engagerar flest användare – oavsett innehållet. En sanning som inte många pratar om är att algoritmerna som styr vårt internet oftast är ganska korkade och designade att endast utföra en enda uppgift. Det är därför filterbubblorna uppstår.
   Men att vi lever i filterbubblor är ingen nyhet. Vad som kan komma att bli en nyhet är däremot att dessa bubblor med relativt enkla medel går att påverka och manipulera. Och att just detta skedde inför USA-valet i fjol.

Facebook publicerade igår en rapport där man tar upp fenomenet ”false amplification”. Begreppet nämns, vid sidan av fejkade nyheter och datastölder, som ett av dagens största cyberhot. I korthet innebär detta att en stor grupp personer (amplifiers) engagerar sig i visst material för att ge det spridning. Motiven är oftast ideologiska och syftar till att skapa förvirring, förändra nyhetsagendan och/eller tysta kritiska röster. Anmärkningsvärt är att Facebook skriver att regeringar har varit involverade i desinformationskampanjerna. Och metoden är busenkel: engagemang.
   Alla sociala medier och sökmotorer utgår idag från i stort sett samma princip: Det som engagerar ska spridas till fler och du ska få mer av det du gillar. Kvaliteten på innehållet kommer alltid vara underordnad kvantiteten av antalet ”lajks” eller klick.

Facebook skriver i rapporten att man under presidentvalåret 2016 identifierat flera fall av false amplification, där små nyheter fått onaturligt stor spridning. Ett exempel är Hillary Clintons e-mailskandal, som blev en världsnyhet trots sitt relativt magra nyhetsstoff.
   Men det finns sätt att identifiera desinformatörerna, skriver rapportförfattarna. Till exempel agerar många konton i koordinerade delningsattacker av visst innehåll. Samma artiklar postas samtidigt i flera grupper av flera olika personer. Det kan också förekomma koordinerade debatter i kommentarsfält, samordnade ”likes” och reaktioner samt spridning av hetsande memes och manipulerade bilder och videor.

Inför USA-valet 2016 skapades även flera fejkade politiska gräsrotsrörelser, som i rapporten kallas ”astroturf-grupper”. Målet med dessa var att under valrörelsen överrösta politiska motståndare och skapa ett informationsöverflöd för att ge ena sidans nyheter extra mycket uppmärksamhet medan den andra inte fick någon alls. För precis som algoritmerna premierar engagerande innehåll ”straffar” de också innehåll som inte engagerar.

Det är ett stort steg att Facebook överhuvudtaget medger att manipuleringskampanjer sprider sig i deras kanaler. Och det blir extra viktigt för oss journalister att vara medvetna om vad som är ”äkta” engagemang och vad som är fejkat när informationsflödet på sociala medier växer. En risk för oss journalister är att våra nyheter lyfts ur kontext och publiceras i desinformationsgrupper. En ännu större risk är om vi lockas av lajksen och skapar nyheter baserat på engagemang i sociala medier utan att titta närmare på vilken sorts engagemang det är vi skapar.

Att våra artiklar blir mer delade är inte ett automatiskt kvitto på bra journalistik. Vi kan lika gärna vara nickedockor i någon annans politiska kampanj.

Referenser

Grunden i vår journalistik är trovärdighet och opartiskhet. Sveriges Radio är oberoende i förhållande till politiska, religiösa, ekonomiska, offentliga och privata särintressen.
Har du frågor eller förslag gällande våra webbtjänster?

Kontakta gärna Sveriges Radios supportforum där vi besvarar dina frågor vardagar kl. 9-17.

Du hittar dina sparade avsnitt i menyn under "Min lista".