Find Ud Af Kompatibilitet Ved Hjælp Af Stjernetegn
Wikipedia-hærværk kan modvirke fup-busting på Google, YouTube og Facebook
Fakta-Tjek

I et kort øjeblik støttede Californiens republikanske parti nazismen. Det er i hvert fald, hvad Google sagde.
Det skyldes, at nogen vandaliserede Wikipedia-siden for partiet den 31. maj for at liste 'nazisme' sammen med ideologier som 'konservatisme', 'markedsliberalisme' og 'skattekonservatisme.' Fejlen blev fjernet fra søgeresultaterne med Google afklarende til Vice News at søgemaskinen ikke havde fanget hærværket i Wikipedia-indlægget.
Hvis du søger efter 'California Republicans' på Google, angiver Google 'nazisme' som en af ideologierne. pic.twitter.com/JblamxkyF7
— Eric Wilson (@ericwilson) 31. maj 2018
Google har længe trukket på online-leksikonet til at tilføje grundlæggende oplysninger til søgeresultater. Ifølge redigeringsloggen til Californiens GOP-side, nogen tilføjede 'nazisme' til partiets ideologisektion omkring 7:40 UTC den 31. maj. Redigeringen blev fjernet inden for et minut, men det ser ud til, at Googles algoritme skrabede siden lige i tide til det falske.
'Nogle gange vandaliserer folk offentlige informationskilder, som Wikipedia, hvilket kan påvirke den information, der vises i søgninger,' sagde en talsmand for Google til Poynter i en e-mail. 'Vi har systemer på plads, der fanger hærværk, før det påvirker søgeresultaterne, men af og til kommer fejl igennem, og det er, hvad der skete her.'
Wikimedia Foundation, en nonprofitorganisation, der driver Wikipedia, udsendte også en erklæring på Twitter.
Et resultat af Google videnspanel viste hærværk fra en @Wikipedia artikel i dag. Her er mere om, hvad der skete, og hvordan hærværk behandles på Wikipedia. pic.twitter.com/fcoaK2DsXq
— Wikimedia (@Wikimedia) 1. juni 2018
Ifølge Google er mere end 99,9 procent af Wikipedia-redigeringer, der vises i videnspaneler, som viser grundlæggende oplysninger om søgbare søgeord øverst i resultaterne, ikke hærværk. Brugeren, der forfattede den originale redigering af California GOP's side brugte ikke en brugerprofil , hvilket gør dem svære at spore.
Det er en fælles taktik blandt folk, der vandaliserer Wikipedia-sider, en praksis nonprofitorganisationen har dokumenteret omfattende . Men i betragtning af mængden af redigeringer, der er lavet på Wikipedia — omkring 10 i sekundet , med 600 nye sider om dagen - og det faktum, at Facebook og YouTube nu trækker fra dem for at give mere kontekst til opslag, er potentialet for og effekten af misbrug høj.
'Selvfølgelig er det en ret svag måde at bekæmpe falske nyheder på, fordi Wikipedia ikke er en pålidelig kilde til information - som selv Wikipedia erkender,' sagde Magnus Pharao Hansen , postdoc ved Københavns Universitet, i en besked til Poynter. 'Wikipedia er meget sårbar over for fup og indeholder alle former for misinformation, så det er ikke en særlig seriøs måde at bekæmpe problemet med opdigtede nyheder på.'
Hansen har redigeret Wikipedia-sider i omkring 10 år og sagde, at hærværk er almindeligt på platformen. Antallet af redaktører er aftaget i de seneste år, mens online-partisaner har i stigende grad målrettet platformen - et problem at kom til hovedet under Gamergate-kontroversen i 2014. Det er i bund og grund et talspil.
Det er langt fra hvor Wikipedia var i 2005 , da en undersøgelse fandt, at den var omtrent lige så nøjagtig som Britannica. Og det gør det sværere for frivillige redaktører at bekæmpe hærværk i stor skala på Wikipedia, hvilket ikke lover godt for at bruge det til at bekæmpe misinformation på andre platforme.
'Der er helt sikkert mange forkerte oplysninger på Wikipedia, og meget af dem vil blive,' sagde Hansen. 'Ofte skriver nogen en artikel, og der kan gå år, før nogen kommer og redigerer den. Folk laver ikke faktatjek, medmindre noget ser ud til, at det virkelig er malplaceret.'
En opdigtet Wikipedia-artikel boede på siden i et årti, før de blev slettet i 2015.
Samtidig har platformen vist sig at være modstandsdygtig over for den slags svindelnumre, der jævnligt går viralt Facebook og Twitter . Wikimedia skøn at omkring 2,5 procent af de daglige redigeringer er hærværk, og Samantha Lien, en kommunikationschef for Wikimedia, pegede på en algoritme, der automatisk markerer tvivlsomme redigeringer som en nøglesucces for sin integritetsindsats.
'Artikler har en tendens til at give en afbalanceret repræsentation af fakta, og siden har vist sig at være modstandsdygtig over for falske nyheder og misinformation indtil dette punkt,' sagde hun til Poynter i en e-mail. 'Vi har også arbejdet med frivillige redaktører i de sidste par år for at bygge og forbedre moderationsværktøjer til hurtigt at identificere og adressere hærværk på Wikipedia.'
Ud over Wikipedias egne begrænsninger er teknologiske platformes egne systemer ofte genstand for fejl og kontroverser - især videnspaneler.
Også den 31. maj en eftersøgning af en Donald Trump-støttende republikansk senator i North Carolina dukkede et billede op af hende med 'stormand' skrevet henover bunden. I januar fandt The Daily Caller ud af, at Google fejlagtigt tilføjede faktatjek til indholdet og ikke andre forretningers indhold. Det fik teknologivirksomheden til at suspendere funktionen, indtil den fik løst fejlene.
Google fortalte Poynter, at det ikke manuelt ændrer søgeresultater for at vise præference for en part frem for en anden. Men dens algoritmer spilles jævnligt af fup , falske annoncer og trolde, der søger at ændre søgeresultater. Og disse problemer kan strække sig til andre platforme, der linker til Wikipedia.
'Når flere medieplatforme bruger indhold fra Wikipedia ukritisk, øger det indsatsen - både for dem, der vil vildlede eller fup og for dem, der vil sprede viden,' sagde Hansen. 'Jeg tror, især med at linke til Wikipedia fra YouTube-videoer om konspirationsteorier, at det kan have den effekt, at det tiltrækker den forkerte skare.'
I marts, YouTube annonceret at det ville linke direkte til Wikipedia-sider i videobeskrivelser for at give mere kontekst og afkræfte virale konspirationsteorier, som går ofte viralt efter de seneste nyheder. Disse 'informationssignaler' - som blev introduceret på platformen uden Wikipedias viden — vil inkludere en kort linje om kilden og et link til dens Wikipedia-side.
Den funktion er ikke blevet rullet ud endnu, men YouTube introducerede en lignende i februar, der giver mere kontekst til nyhedsorganisationer, der modtager penge fra den amerikanske regering.

(Skærmbillede fra YouTube)
I betragtning af den øgede synlighed af Wikipedia-sider er det tænkeligt, at vandaler kan strømme til platformen for at trolde flere platforme med én redigering.
'Wikipedia 'hacking' har altid været et problem, men det var et problem, der kun virkelig påvirkede Wikipedias læsere. Nu er det endnu mere farligt, da platformene i stigende grad automatisk trækker fra Wikipedia,” sagde Claire Wardle, administrerende direktør for First Draft, i en e-mail til Poynter. 'For agenter af desinformation, der ønsker maksimal forstærkning, giver enhver teknik, der sikrer, at platforme eller nyhedsredaktioner vil gentage sig og derfor legitimerer en løgn, et uforholdsmæssigt 'afkast af investeringen'.'
På trods af at fungere som kilde til flere platforme, har Wikipedia ikke set en stigning i hærværk, sagde Lien. Men når man ser, hvordan tilføjelserne fangede organisationen, er det usikkert, hvordan de præcist vil påvirke Wikipedia-sidernes integritet.
'Tendensen med teknologivirksomheder, der bruger Wikipedia til at løse problemer med misinformation på deres egne platforme, er nyt territorium for os, og vi ved ikke, hvad de fulde implikationer vil være,' sagde hun. 'På kort sigt overvåger vi nøje, hvordan dette påvirker Wikipedia og vores globale samfund af frivillige. Vi har ikke set noget, der tyder på et bredere problem med hærværk til dato.'
Men selv hvis der var en stigning i Wikipedia-hærværk med den hensigt at ændre resultaterne på platformene, sagde Lien, at organisationen ikke ville have nogen mulighed for at vide det.
'Vi har ikke tilgængelige data, der tyder på tendenser i hærværk med den eksplicitte hensigt at manipulere andre platforme,' sagde hun.
Så hvor sandsynligt er det, at mere misinformation vil finde vej til andre platforme? Joseph Reagle, en associeret kommunikationsprofessor ved Northeastern University og en Wikipedia-ekspert, fortalte Poynter, selv om der ikke er nogen måde at vide det uden de rigtige overvågningssystemer på plads, kan den struktur, der er blevet sat op, gøre misinformation mere synlig - selv når den ikke er skabt til at spille. platforme som Google og Facebook.
'Ja, det er sandsynligt, og jeg tror, det vil blive endnu mere sandsynligt, da disse for-profit-virksomheder bliver ved med at hoppe med på vognen,' sagde han. 'I Google-sagen tror jeg ikke, at det var meningen med redigeringen at forurene Wikipedias downstream-brugere, men det var stadig effekten. Det faktum, at Wikipedia bruges af disse downstream-aggregatorer af slagsen, vil også gøre Wikipedia mere til et mål, hvilket er et problem.'
Alligevel, selvom det er ved at skrumpe, har Wikipedia stadig et engageret fællesskab af redaktører, der har års erfaring håndtering af artikler om breaking news. Nathan Matias, en postdoktoral forskningsmedarbejder ved Princeton University, fortalte Poynter i en e-mail, at misinformation sandsynligvis ikke ofte glider igennem sprækkerne på grund af det fællesskab.
Men i udkanten af webstedet øges denne chance betydeligt.
'I breaking news-sager, hvor aktivister af alle slags har udviklet måder at påvirke platformalgoritmer hurtigere end journalistikkens hastighed, forventer jeg, at Wikipedia vil være mere modstandsdygtig over for indflydelse,' sagde han. 'Risiciene for Wikipedia og for platforme vil være større i udkanten af viden og opmærksomhed, da det er sværere at få øje på en lille strøm af mennesker, der får adgang til lavprofileret ekstremistisk materiale.'
På trods af udfordringerne ser nogle eksperter teknologiske platforme, der linker til Wikipedia-sider, som et skridt fremad for at imødegå misinformation på nettet.
Eni Mustafaraj, en assisterende professor i datalogi ved Wellesley College, fortalte Poynter i en e-mail, at tilføjelsen af Wikipedia til store teknologiske platforme er et positivt skridt. Men det kommer med forbehold.
'De er nødt til at gøre dette konsekvent, og ikke kun for at bekæmpe misinformation eller fup eller konspirationsteorier,' sagde hun. 'For at bekæmpe misinformation bør vi ikke sætte Facebook og Google i spidsen, for det var dem, der forværrede problemet i første omgang.'
Samtidig kan det i sagens natur forvirre læserne at fjerne information fra Wikipedia fra platformen. Hansen sagde, at det at se links til webstedet fra sociale medieplatforme, selvom de er velmærkede, ikke vil fremkalde den samme form for skepsis, som er iboende hos Wikipedia-brugere.
'Læseren ved ikke, at dette er fra Wikipedia. Den slags introducerer et lag, hvor man ikke kan være sikker på kilden til informationen,' sagde han. 'Folk er skeptiske, når de er på Wikipedia - du kan se, når der ikke er nogen kilde ... når du er på en anden platform, er du ikke opmærksom på den slags.'
Så er der spørgsmålet om båndbredde. Da redaktionen fortsætter med at falde, vil Wikipedia måske overveje at ansætte fuldtidsansatte, hvis opgave er at overvåge hærværk og sikre, at det ikke spredes til andre platforme. Hansen sagde, at han mener, at nonprofitorganisationen burde oprette en intern faktatjek-enhed eller anmode ekspertredaktører og akademikere til at veje ind på nogle af de mere nuancerede sider.
'Jeg tror, det er den eneste måde at bekæmpe desinformation på Wikipedia,' sagde han.
I det mindste foreslog Lien, at tekniske platforme, der bruger Wikipedia til at modvirke misinformation, giver tilbage til nonprofitorganisationen på en eller anden måde - et punkt, som Wikimedias administrerende direktør Katherine Maher argumenterede i. en nylig artikel til Wired . (Facebook og YouTube er ikke inkluderet blandt Wikimedias største velgørere.)
'Vi opfordrer virksomheder, der bruger Wikipedias indhold, til at give tilbage i den samme ånd af bæredygtighed,' sagde hun. 'Ved at gøre det ville de slutte sig til de millioner af individer, der chip ind for at holde Wikipedia stærk og blomstrende.'
Og Matias var enig.
'Hvis virksomheder forventer at stole på massive mængder af ulønnet og ofte psykologisk belastende arbejdskraft fra Wikipedianere og Wikimedia Foundation for at løse nogle af deres hårdeste problemer, er de nødt til at finde måder at støtte dette arbejde på, samtidig med at de beskytter Wikipedias intellektuelle uafhængighed,' sagde han.