Medierna och staten i valet 2018

Jag skrev tidigare om Vinnova och att de beviljat totalt 13.5 miljoner kronor till projekt i valet 2018.

Bakvänt så vill alltså några mediebolag ihop med public service för att motverka att andra påverka valet själva påverka valet 2018. 

Nu handlar all opinionsbildning om att just påverka valet, varför jag är personligt engagerad i den här frågan. För jag ser en medveten strategi att bunta ihop all det som inom media kallas “views” med “news” så länge det sker utanför mediernas kontroll. Då ska detta kallas “falska nyheter”. Men inom tidningarna, där åsikter blir mer och mer vanliga i alla dessa kolumner, kommentarer, debattartiklar, kulturartiklar osv, där är fortsatt åsikter bara åsikter och inte “falska nyheter”.

Jag har fått ut projektansökningarna och besluten. 

Givetvis är de sekretessmärkta, Vinnova är en av myndigheterna som satt i system att sekretessmärka och räknar med att få pallar att överklaga. Jag har överklagat.

Först till pengarna.

Den automatiska nyhetsvärderingen, som i grunden är en algoritm, ska hjälpa redaktionerna att värdera nyheter. Vilket säger något om att de inte tycker att de är bra på det idag.

Här dyker Södertörns högskola plötsligt upp som mottagare av 2 miljoner kronor men projektledaren sitter på SVT. 

Projektet “Valkollen” får också nästan 2 miljoner kronor. SVT får mest.

Faktassistenten får också nästan 2 miljoner kronor och även här får SVT mesta av pengarna. Projektledaren för samtliga 4 projekt är nämligen på SVT. De 4,5 miljarder de får varje år räcker alltså inte till detta.

Personaliseringsmotorn får också nästan 1,9 miljoner och precis som alla andra projekt ligger SVT i toppen.

Av de 13,5 miljonerna får alltså landets största medieföretag 8 miljoner kronor. 

Vad är det då de ska göra?

“Faktassistenten” är ett digitalt verktyg de ska utveckla som ska “verifiera” nyheter. Mer än så får vi inte veta för Vinnova. Istället för att en person sitter och tar beslutet “är detta trovärdigt” ska en algoritm som också utvecklas genom machine-learning, det vill säga algoritmen lär sig av tidigare beslut. Intressant idé, som jag inte alls tror på faktiskt. En algoritm är dessutom inget trolleri. Det är en person som kodat algoritmen. Den personen kan göra fel och då är vi tillbaka till ruta ett. Eller så blir algoritmens eget inlärandes resultat ändå fel resultat än vad man vill ha.

Missförstå mig inte, jag tycker algoritmer är fantastiska saker. De är inte som de utmålas problemet utan lösningen. Men jag har svårt att se hur den kan ersätta en persons bedömning eftersom texter inte är statistiska. Som jag tidigare skrivit om finns en massa olika definitioner på falska nyheter. Hur ska algoritmen kunna bedöma om allt innehåll från en källa många tycker är oseriös, till exempel Avpixlat, är fel? Bara för att det kommer därifrån innebär inte att det är sakfel. Risken blir att vissa källor kommer algoritmen alltid stämpla som falska nyheter. Även om det är korrekt, eller om det är opinion och inte nyhet.

Valkollen. Detta ska vara mediebolagens stora satsning på “fake news”, men inte heller i ansökan kan man hitta en enda definition på vad man menar med falska nyheter. Detta oroar mig som sagt. För det öppnar för enormt godtycke och efterhandskonstruktion att kategorisera allt man ogillar som falska nyheter.

Vad är ett ogrundat påstående? 

Sådana hittar jag hela tiden i deras egna tidningar. Ogrundade påståenden. Senast om att Leif Östling skulle på något sätt betett sig klandervärt eller undanhållit skatt “till vård och skola” som Sveriges Radio och SVT angav. Som om inte skatt samtidigt betalar luftvärnsrobotar eller löner till gränspoliser, till exempel. Eller kamelcenter för den delen.

“I Valkollen granskas dygnet runt postningar i sociala medier som har med valet att göra och de falska, tveksamma ellr ogrundade posteringar märks ut och den korrekta uppgiften publiceras i anslutning till den problematiska postningen”

I anslutning till? Hur går detta till rent tekniskt att posta den “sanna” postningen i anslutning till den felaktiga? Är det skärmdumpar de tänker sig? En dump på en tweet och sedan en korrigering?

 

“Vid projektets slut har en plattform för redaktionellt samarbete vid särskilda händelser utvecklats, driftsatts och använts för publiceringar som använts av svenska mediekonsumenter. 

Svenska medborgare har kunnat fatta välgrundade beslut om hur de ska rösta och det politiska samtalet har präglats av värdegrunder och fakta. Valkollen har bidragit till detta”

Svenska värdegrunder? Vad är det för något?

Jag hade mycket hellre sett att redaktionerna följde sina egna etiska principer först, till exempel inför en rättelse VARJE gång de har skrivit fel. Vilket de fuskar rejält med. Eller att public service låter bli att kalla skatteplanerande för att ta pengar från välfärd, som alltså är ett ogrundat påstående. Inte bara för att skattplanering är lagligt utan också för att alla pengar som sagt inte går till välfärd. Vissa används till att bygga vapen till exempel. Eller åka på resor för att sälja vapen. Inte mig emot men då ska inte SVT påstå sådant heller.

Projektet “Automatiserad nyhetsvärdering” låter som vilken vanlig algoritm som helst som de redan använder. För om ni trodde att algoritmer vad något bara sociala medier styrs av tror ni fel. Vanlig media styrs i allt högre grad av samma sak, till exempel vilka nyheter du får se på startsidan.

Detta verkar vara helt vanlig teknikutveckling och något som borde betalas av bolagen själva.

Det sista projektet är “Personaliseringsmotor”.

“Baserat på unika data i digital och mobil nyhetskonsumtion utveckla en personaliseringsmotor baserad på preskription analys och maskinlärning för identifiering av användarbehov och automatiserad anpassning av nyhetsprodukter”

Detta mina vänner, beskriver vad en så kallad filterbubbla är. Som inte finns men som medierna använder som argument hela tiden varför sociala medier är farligt och dåligt.

De vill använda statliga bidraget för att bättre anpassa nyhetsflödet efter dina preferenser helt enkelt. Helt vanlig teknisk utveckling alltså som de borde betala själva med presstöd, intäkter och public service miljardbidrag.

“Viktiga parametrar för individualiseringen blir användarnas egna prioriteringar, tidigare konsumtion, registrerat beteende över olika konsumtionsplattformar, funktionsanvändning, prediktiv analys av framtida intressen samt matchning med andra användares konsumtionsmönster”

De vill bli bättre på att sälja nyheter för att själva kunna sälja samarbeten och annonser bättre. Det handlar om pengar helt enkelt. Ju mer de kan identifiera om läsarnas preferenser (konsumtionsmönster, intressen etc) desto bättre blir de på att rikta erbjudandena från sina kunder till oss.

Sedan kommer det ironiska.

De hävdar att syftet med projektet just är att slå hål på “filterbubblor”. Genom att utveckla tekniker för att de kommersiellt ska kunna tjäna på egna så kallade filterbubblor via algoritmer.

 

Men vem granskar granskarna?

Störst behov som jag ser det är nämligen just detta – att granska media och hur de vinklar, vrider men också sprider falska nyheter, som i verkligt falska nyheter.

Som i vintras, när bland annat Aftonbladet och Sydsvenskan, påstod att Ahmed lyckats ta ut 600 000 ur bankomater. Utan att en enda gång fundera på – verkar detta sannolikt? Finns det ens så mycket kontanter i Malmös bankomater?

Istället körde man okritiskt ut nyheten. Och sedan, när det visade sig vara just en falsk nyhet, dödade man länkarna och struntade i rättelse.

Media visar tydligt att de inte förstått vad som hänt. Men också att kritiken de för mot sociala medier, eller kritik, det är snarare att likna vid ett korståg, bara grundar sig i makt och pengar. Två av de fyra projekten de fått 8 miljoner kronor för är helt normal affärsutveckling som de klätt i någon slags illasittande demokratikostym.

De övriga två får vi hålla koll på för deras syfte är rätt klart – en attack mot alla som verkar utanför traditionell media.

………………….

Stöd mitt arbete, bli en Patreon

Eller Swish: 0762096244 

Kommentera

E-postadressen publiceras inte. Obligatoriska fält är märkta *

Namn *