Find Ud Af Kompatibilitet Ved Hjælp Af Stjernetegn
Facebook annoncerer gennemgribende ændringer i sine anti-misinformationspolitikker
Fakta-Tjek

(Shutterstock)
Facebook starter andet kvartal af regnskabsåret med at udrulle ændringer i måden, det bekæmper misinformation på sin platform.
I et blogindlæg på næsten 2.000 ord, der blev sendt til Poynter onsdag, annoncerede Facebook en række nye ting, som de gør for at bekæmpe falske nyhedshistorier, billeder og videoer.
Blandt ændringerne:
- Facebook reducerer nu rækkevidden af grupper, der gentagne gange spreder misinformation.
- Det udforsker brugen af crowdsourcing som en måde at afgøre, hvilke nyhedsmedier brugerne stoler mest på.
- Og virksomheden tilføjer nye indikatorer til Messenger, grupper og nyhedsfeed i et forsøg på at informere brugerne om det indhold, de ser.
'Vi har en række produktopdateringer i forhold til en eller to store ændringer,' sagde Facebook-talskvinde Mari Melguizo i en e-mail til Poynter. 'Disse bestræbelser fokuserer på at holde folk sikre og bevare integriteten af information, der flyder gennem vores apps.'
Her er, hvad hver af de største ændringer specifikt har at gøre med misinformation, med kontekst fra journalister, akademikere og teknologer, samt yderligere læsning om hvert emne. Læs hele Facebooks blogindlæg her .
Nedrykning af grupper, der spreder misinformation
Blandt de største ændringer, Facebook annoncerede onsdag, var, at de ville begynde at nedgradere rækkevidden af grupper, der gentagne gange sprede falske nyhedshistorier, billeder og videoer.
'Når folk i en gruppe gentagne gange deler indhold, der er blevet bedømt som falsk af uafhængige faktatjekkere, vil vi reducere den gruppes samlede nyhedsfeed-distribution,' skrev Guy Rosen, Facebooks vicepræsident for integritet, og Tessa Lyons, chef for nyhedsfeedsintegritet. , i blogindlægget.
Facebookhar fået smældi løbet af de sidste par måneder for spredningen af anti-vaccine konspirationsteorier, hvoraf mange startede i grupper og derefter spredte sig til resten af platformen. Som svar på både mediepres ogpres fra amerikanske politikere, virksomheden skitserede en plan i begyndelsen af marts for at bremse antivaxxer-indholdet på sin platform.
I den annoncerede Facebook, at grupper og sider, der deler anti-vaccine misinformation, ville blive fjernet fra sin anbefalingsalgoritme - men ikke fjernet helt. Bevægelsen var en stiltiende anerkendelse af den magt, grupper har til at sprede falsk indhold.
Det rapporterede BuzzFeed News i marts 2018, at funktionen, ofte hyldet af Facebooks ledelse - og prioriteret i News Feed - var blevet 'en global honningpot af spam, falske nyheder, konspirationer, sundhedsmisinformation, chikane, hacking, trolling, svindel og andre trusler mod brugere.' Hvorfor?
'Propagandister og spammere skal samle et publikum, og grupper serverer det på et fad,' fortalte Renee DiResta, en sikkerhedsforsker, til BuzzFeed. 'Der er ingen grund til at køre en annoncekampagne for at finde folk, der er modtagelige for dit budskab, hvis du blot kan deltage i relevante grupper og begynde at skrive.'
Og mens virksomheden har taget flere skridt for at begrænse spredningen af falske nyheder i nyhedsfeed, gjorde det ikke meget for at bekæmpe misinformation specifikt i grupper.
'Der er ingen fælles indsats for at slippe af med falske nyheder, misinformation, hvad som helst,' fortalte en tidligere Facebook-medarbejder, der arbejdede på grupper, til Poynter i januar. 'Det er så meget værre, fordi det sidder der, og det er skjult ... det er lige så slemt som en falsk nyhedsmisinformationsgenereringsmaskine, som den nogensinde har været på News Feed.'
Leonard Lam, en talsmand for Facebook-grupper, fortalte Poynter, at de samme anti-misinformationspolitikker, der styrer produkter som News Feed, gælder for hele platformen. Det betyder, at falske artikler, billeder og videoer afkræftet af Facebooks faktatjekpartnere vil blive vist med det relevante faktatjek vist under dem - selv i grupper.
Disse signaler vil også blive brugt til at bestemme, hvilke grupper der er gentagne fejlinformatorer, en af de første ting Facebook har gjort specifikt for at bekæmpe misinformation i grupper.
Hyperpartiske Facebook-grupper er den næste store udfordring for faktatjekkere
Crowdsourcing tillid til nyheder
Onsdagens meddelelse kommer, da Facebook udvider sit partnerskab med faktatjekforretninger rundt om i verden - uden tvivl virksomhedens mest synlige indsats for at bekæmpe misinformation på platformen.
Facebook lancerede programmet i december 2016 med amerikanske faktatjekkere som (ejede Poynter) PolitiFact, Snopes og Factcheck.org. Målet: At identificere, debunke og reducere rækkevidden af falske nyhedshistorier på platformen. Når en hoax er markeret som falsk, reduceres dens fremtidige rækkevidde i nyhedsfeedet, og der tilføjes et faktatjek.(Oplysning: At være underskriver afPoynter's International Fact-Checking Networks principkodekser en nødvendig betingelse for at deltage i projektet.)
Siden da har dethar udvidet sigat lade faktatjekkere afsløre falske billeder og videoer. Partnerskabet er vokset til 47 projekter, der skriver på 23 sprog rundt om i verden. Og mens projekter som Snopes og CBS har trukket sig ud af forskellige årsager, forretninger som Associated Press har for nyligt udvidet deres engagement i programmet.
En ny anti-misinformationsfunktion kan hjælpe med at styrke dette arbejde.
Hvordan Facebook håndterer misinformation, i én grafik
'Der er simpelthen ikke nok professionelle faktatjekkere verden over, og som al god journalistik tager faktatjek tid,' skrev Rosen og Lyons i blogindlægget. 'En lovende idé til at styrke deres arbejde, som vi har udforsket siden 2017, involverer grupper af Facebook-brugere, der peger på journalistiske kilder for at bekræfte eller modsige påstande fremsat i potentielt falsk indhold.'
CEO Mark Zuckerberg luftede den idé i en Facebook-video i februar - lidt mere end et år efter han flød den først . Bevægelsen var det ikke populær blandt journalister, som sagde, at almindelige Facebook-brugere ikke er i stand til at tilsidesætte deres fordomme for at bedømme troværdige nyhedsmedier.
Men en ny undersøgelse udgivet i februar 2018 tyder på noget andet.
'Det, vi fandt, er, at selvom der er reelle uenigheder blandt demokrater og republikanere om mainstream nyhedsmedier, er stort set alle - demokrater, republikanere og professionelle faktatjekkere - enige om, at de falske og hyperpartiske sider ikke er til at stole på,' sagde David Rand , lektor ved Massachusetts Institute of Technology, i en pressemeddelelse .
Ifølge onsdagens blogindlæg vil Facebook fortsætte med at udforske ideen ved at konsultere akademikere, faktatjekeksperter, journalister og civilsamfundsorganisationer.
'Ethvert system, vi implementerer, skal have beskyttelse mod spil eller manipulation, undgå at indføre personlige skævheder og beskytte minoritetsstemmer,' skrev Rosen og Lyons.
Crowdsourcing troværdige kilder på Facebook er ikke så langt ude, som du tror
Mere kontekst på Facebook
Tidligere teknologivirksomheder har henvendt sig til hjemmesider ligesom Wikipedia for at give mere kontekst om de kilder, der udgiver på deres platforme. Onsdag offentliggjorde Facebook en række nye lignende indikatorer.
'Vi investerer i funktioner og produkter, der giver folk mere information for at hjælpe dem med at beslutte, hvad de skal læse, stole på og dele,' skrev Rosen og Lyons i blogindlægget.
Facebook har opdateret sin kontekstknap, lanceret i april sidste år, for at medtage oplysninger fra Tillidsprojektet om udgiveres etiske politikker, ejerskab og finansieringsstruktur. Virksomheden er begyndt at vise mere information på fanen sidekvalitet, som lanceret i januar at vise sideejere, hvilke af deres opslag der blev afkræftet af Facebooks faktatjekpartnere. Og i Messenger tilføjer virksomheden et verificeret badge for at skære ned på efterligninger og svindel.
Facebook er også begyndt at mærke videresendte beskeder i Messenger - en taktik, der tilsyneladende er lånt fra søsterselskabet WhatsApp, som udrullede en lignende funktion juli i et forsøg på at skære ned på spredningen af misinformation.
WhatsApp lancerer en funktion, der mærker videresendte beskeder
Selvom de er en nem måde at give brugerne mere information om udgivere på sociale medier og derved forhindre dem i at dele misinformation, har indikatorer som Facebooks kontekstknap også potentiale til at blive spillet.
I løbet af sommeren vandaliserede nogen Wikipedia-siden for det republikanske parti i Californien for at sige, at det støttede nazismen. Mens de fleste tilfælde af Wikipedia-hærværk bliver fanget ret hurtigt, har denne hændelsessag fundet vej til Google, som dukkede op den falske redigering højt oppe i søgeresultaterne.
Det er sjældent. Men i betragtning af mængden af redigeringer, der foretages på Wikipedia hver dag, kan det være svært for tekniske platforme at fange alle tilfælde af hærværk.
'Selvfølgelig er det en ret svag måde at bekæmpe falske nyheder på, fordi Wikipedia ikke er en pålidelig kilde til information - som selv Wikipedia erkender,' Magnus Pharao Hansen, postdoktor ved Københavns Universitet. fortalte Poynter i juni . 'Wikipedia er meget sårbar over for fup og indeholder alle former for misinformation, så det er ikke en særlig seriøs måde at bekæmpe problemet med opdigtede nyheder på.'
Wikipedia-hærværk kan modvirke fup-busting på Google, YouTube og Facebook
Samtidig har funktioner som Facebooks sidekvalitetsfane haft en mere demonstrativ effekt på spredningen af misinformation.
Efter Factcheck.org afkræftet et falsk meme om U.S. Rep. Alexandria Ocasio-Cortez (D-N.Y.) i marts, siden der offentliggjorde billedet slettede det . Og det var ikke første gang; andre gentagne fejlinformerende sider på Facebook har taget indhold ned afkræftet af virksomhedens faktatjekpartnere, og nogle har rebrandet deres aktiviteter i det hele taget.
Interessant forskning fra @dpfunke på @factchecknet . Flere beviser på, at ja, (tilføj venligst en kliché om, at løgne rejser hurtigere end sandheden), men det ser ud til, at tredjeparts faktatjekordningen @Facebook ER har en effekt og reducerer effektiviteten af nogle amerikanske 'falske nyheder' operationer https://t.co/yc2qGP7eH7
— Peter Cunliffe-Jones (@PCunliffeJones) 13. marts 2019
Rettelse: En tidligere version af denne artikel stavede Leonard Lams efternavn forkert.