Find Ud Af Kompatibilitet Ved Hjælp Af Stjernetegn
Fire seriøse spørgsmål om Elon Musks fjollede troværdighedsscore
Fakta-Tjek

Mediet Twitter oplevede lidt af en nedsmeltning onsdag eftermiddag, da rum-og-gade-entreprenøren Elon Musk overvejede at oprette en crowdsourced tjeneste, der vurderer journalisters troværdighed.
Vil oprette et websted, hvor offentligheden kan vurdere kernesandheden i enhver artikel og spore troværdighedsscore over tid for hver journalist, redaktør og publikation. Tænker på at kalde det Pravda ...
— Elon Musk (@elonmusk) 23. maj 2018
Lad os tilsidesætte Musks motiver — muligvis informeret af dårlig presse Tesla har for nylig modtaget, hvilket han tilskriver mediernes bias - og koncentrere sig om selve ideen.
Det kan virke ligegyldigt, blotlagt som det var i en snert af tweets og med den primære hensigt at trolde sine kritikere. Men Musks forslag om en 'troværdighedsscore' er værd at diskutere, fordi at bygge en faktisk er en ret populær idé - især blandt Silicon Valley-typer.
Nogle, som troværdighedskoalitionen , forsøger at indramme problemet eftertænksomt, men de fleste er gennemsyret af den samme tekno-utopisme, som har defineret Musks offentlige person. Alene inden for de sidste par måneder har jeg modtaget mindst fire forskellige pitches for et system, der bruger kunstig intelligens (selvfølgelig) til at vurdere troværdigheden af hele internettet.
Visionen om, at et enkelt hack kan rette op på mediebias og massiv online misinformation er gennemgående blandt visse kredse. Men det er dårligt fejlagtigt.
Andre veloplagte journalistiske projekter har lovet at opgradere faktatjek ved enten at injicere mængden i den (WikiTribune) eller udvikle en universel troværdighedsscore (NewsGuard). I WikiTribunes tilfælde er juryen stadig ude, men den faktatjek arbejde til dato synes næppe paradigm-skiftende. NewsGuard har rejst 6 millioner dollars, men er endnu ikke lanceret.
Alligevel er det klart, at status quo trænger til reformer. Faktatjek skal muligvis blæses op og genopfindes. Så i stedet for at dunk på Musk, bør vi diskutere de underliggende udfordringer ved en ægte troværdighedsscore for internettet.
1. Kan vi undgå, at crowdsourcing bliver til en popularitetskonkurrence?
Musk virkede ivrig efter at undgå indtrykket af, at ondsindede skuespillere kunne spille hans troværdighedsscore, når de stillede sin (stærkt skæve) meningsmåling.
Opret et websted for vurdering af medietroværdighed (der også markerer propaganda-botnets)
- Elon Musk (@elonmusk) 23. maj 2018
Dette indtryk blev hurtigt fordrevet, da han brugte sin 21,8 millioner stærke Twitter-konto til at få 'medier' til at stemme imod hans foreslåede løsning.
Hvis du er i medierne og ikke ønsker, at Pravda skal eksistere, så skriv en artikel, hvor du fortæller dine læsere om at stemme imod det ...
— Elon Musk (@elonmusk) 23. maj 2018
Kom på medier, du kan gøre det! Få flere mennesker til at stemme for dig. Du er bogstaveligt talt medierne.
- Elon Musk (@elonmusk) 24. maj 2018
Dette er en grundlæggende udfordring for enhver crowdsourced indsats. De største megafoner og mest engagerede grupper ville være i stand til at mobilisere og målrette journalister, hvis resultater ikke var unøjagtige, men ubehagelige - for eksempel om Teslas arbejdere, der kommer til skade.
Ikke alene kan mængden blive en pøbel, dens kumulative visdom er ikke nødvendigvis summen af dens dele. Hvis 100 velmenende mennesker faktatjekker en påstand om jovianske måner, og en af dem er en NASA-astronom, skal alle vurderinger tælle det samme?
Og selvfølgelig kan du veje brugernes vurderinger anderledes. Men hvis du lader brugere bedømme hinanden, løber vi den samme risiko for direkte pøbel. Hvis vi lader brugerne selv vælge ekspertiseområder, ender vi med en masse oppustede CV'er. Selv faktiske legitimationsoplysninger garanterer ikke ægte ekspertise (tænk bare over Andrew Wakefield ). Og hvis du lader algoritmen finde ud af den ekspertise, du får, ja, Klout .
Jo flere sikkerhedsforanstaltninger du sætter, jo flere brugere mister du. Det ved jeg fra at drive det nu hedengangne crowdsourcede faktatjek-websted FactCheckEU . Brugerne var begejstrede for at starte, men dovne ved opfølgningen. Når først blev bedt om at give mere end et link eller to, faldt interessen ud.
Virkeligheden er, at du skal minimere brugerfriktion for at nå skala, når du crowdsourcing faktatjek. Og minimering af brugerfriktion vil føre til sjuskede fejl. Et modeksempel er Wikipedia - men selv det har en udbygget redaktionel infrastruktur, når du først har gravet i det.
Alt dette betyder ikke, at vi skal opgive at lede efter løsninger. Den nuværende online infrastruktur crowdsourcer effektivt, hvad internetbrugere bør læse, med populært indhold, der skyder til toppen af Facebook News Feeds og Google-søgninger. Vi bør forestille os crowd handlinger, der ser anderledes ud end følelsesmæssige 'like' eller 'haha' og nå et bedre system. Men det er ikke så simpelt, som Musk sætter det.
2. Skal vi kun bedømme journalister?
Musks foreslåede websted, som det er, ville kun koncentrere sig om journalister. Skulle det? Hvad med populære tech-iværksættere med 21,8 millioner følgere på Twitter? Hvad med brugere, der poster falske billeder, der går viralt? At knytte en troværdighedsscore til alle virker orwellsk; Hvis du ikke gør det, ser det ud til at gøre systemet endnu mere tilbøjeligt til viral forfalskning.
3. Hvordan ville du opbygge troværdighedsscore for en kompleks artikel?
Lad os sige, at vi har fundet en løsning til at udnytte mængden på en måde, der undgår mobning og prioriterer ekspertise.
Hvad ville folk være crowdrate? Samvittighedsfulde faktatjekkere bruger timer på at diskutere, om en påstand virkelig kan kontrolleres. De fleste artikler er sammensat af snesevis af faktuelle påstande og endnu mere ukontrollerede. Paul Horners troværdighedsscore kunne have været let at opnå, men i modsætning til Horners arbejde er de fleste historier online ikke bare en falsk overskrift og intet andet.
Troværdighedskoalitionen ser på nogle måder at definerer Denne score, men det er stadig meget fuzzy.
Jeg erkender, at det kan virke lidt rigt, at en faktatjekker - medstifter af et websted, der aggregerede vurderinger af de politikere, den faktatjekkede , ikke mindre - advarer mod troværdighedsscore. Vi advarede eksplicit læserne om, at 'hver politikers samling af vurderinger ikke er en statistisk relevant indikator for deres troværdighed, men en semi-seriøs guide til sandheden af den lille prøve af påstande, der er verificeret.' Og i modsætning til en crowdsourced løsning er faktatjekkernes vurderinger i det mindste baseret på stærkt indkøbte faktatjek med masser af forskning og en forståelse af, hvad der faktisk kan kontrolleres.
Men det kan være på tide at trække disse visualiseringer tilbage for at undgå at give den illusoriske fornemmelse af, at en person kan have en troværdighedsscore, ligesom de kan have en kreditvurdering. Hvilket fører mig til at stille spørgsmålstegn ved 4.
Fire. Skal vi være ratingindhold eller kilder?
Online bruger publikum oftere information efter emne end efter kilde. Når du Googler noget eller deler noget, ser du først, hvad det handler om, og hvem det er fra dernæst.
Og det burde være sådan: Jeg er en ekstremt pålidelig kilde om status for faktatjek rundt om i verden, men jeg er en ekstremt -en pålidelig kilde om amerikansk fodbold. Troværdighed varierer over tid og emne. Hvordan ville en statisk score indkapsle det?
For at være klar: Fejlen i crowdsourcede faktatjekprojekter til dato (inklusive mit) forudsætter ikke fejl i fremtidige bestræbelser. Men vi burde stille disse svære spørgsmål mere, før nogen med mange penge rent faktisk bruger dem til at lancere et forfærdeligt produkt.
Rettelse: En tidligere version af denne artikel brugte 'astrolog' i stedet for 'astronom.' Min troværdighedsvurdering som halvgræker fik et alvorligt hit.