Användningen av avancerade teknologier som sensorbaserade nätverk, sociala medier och ansiktsigenkänning har under de senaste åren lett till betydande förändringar i hur vi interagerar med världen omkring oss. Men dessa framsteg medför också risker, däribland hot mot individens rätt till integritet och ökad diskriminering utan deras explicita samtycke. AI och algoritmer kan återspegla de fördomar som redan existerar i samhället, och besluten som fattas genom dessa system tenderar att vara orättvisa om de inte är tillräckligt övervakade eller korrigerade. Som Mehrabi et al. (2019) påpekar: Algoritmer, likt människor, är sårbara för partiskhet som gör deras beslut “orättvisa.” Orättvisa beslut uppstår när en algoritm favoriserar en individ eller grupp baserat på deras medfödda eller förvärvade egenskaper.

Exempel på detta kan ses i flera incidenter, där användningen av AI har förstärkt sociala orättvisor, som det könsbias som visades i rekryteringsverktyg i USA (Dastin 2018) och de diskriminerande kreditalgoritmerna som drabbar minoritetsgrupper (Bartlett et al. 2018). Ett annat exempel är ProPublica's undersökning av ett riskbedömningsverktyg som användes i Florida, vilket visade sig vara partiskt mot svarta individer och ledde till diskriminerande resultat (Angwin et al. 2016).

Det är också viktigt att förstå att dessa etiska utmaningar kan variera beroende på kultur och språk. En incident i Israel 2017, där Facebook felaktigt översatte en mans inlägg och därigenom ledde till hans arrestering, visar på farorna med maskinöversättningar och den komplexitet som ligger i att hantera AI inom olika kulturella sammanhang (Hagerty och Rubinov 2019). En liknande situation inträffade i Brasilien, där algoritmer på Facebook orsakade en ursprungsbefolkning att bli osynliggjord genom en felaktig översättning av “like”-knappen, vilket påverkade deras förmåga att sprida sitt budskap (Ochigame och Holston 2016). Detta belyser hur AI-principer, som är värderelaterade, kan få olika betydelser och konsekvenser beroende på den kulturella och språkliga kontexten.

I länder med låga och medelinkomster är risken för att AI förstärker dessa ojämlikheter ännu större. Enligt Världsekonomiskt Forum (2018) är utvecklingsländer mer benägna att utsättas för diskriminerande mönster när de använder maskininlärningsmetoder. Hashmi et al. (2019) påpekar att AI:s implementering inom offentlig sektor är förknippad med betydande etiska frågeställningar som påverkar samhällets moraliska, juridiska, ekonomiska och sociala strukturer. Det är tydligt att AI-teknologier måste övervakas noggrant och tillämpas med ett etiskt ansvar för att undvika negativa konsekvenser.

En annan viktig aspekt är AI:s potential att hantera eller till och med förstärka spridningen av falska nyheter. AI kan, genom att identifiera automatiserade konton och genomföra automatiserad faktagranskning, hjälpa till att stoppa spridningen av desinformation på sociala medier (Marsden och Meyer 2019). Det är dock också uppenbart att AI inte bara används för att försvara mot desinformation. Genom avancerad maskininlärning och naturlig språkbehandling (NLP) kan AI skapa skräddarsydda desinformationskampanjer som riktar sig till specifika målgrupper. Denna förmåga till mikroinriktning gör att AI inte bara kan användas för att skydda mot online-bedrägerier, utan också för att sprida dem (Yang et al. 2019).

Det finns en dubbel funktion i hur AI hanterar desinformation. Förutom att det kan vara ett försvar mot automatiserade bots, kan det också användas för att manipulera och sprida propaganda och falska nyheter. Detta har blivit särskilt tydligt genom fenomenet med "deepfakes", som underminerar trovärdigheten av visuellt innehåll och hotar autenticiteten i det vi ser på nätet (Strickland 2018). Således måste AI, trots sina fördelar i bekämpningen av desinformation, hanteras med stor försiktighet, eftersom det också kan bli ett kraftfullt verktyg för att manipulera sårbara befolkningsgrupper.

För att bemöta dessa etiska utmaningar inom AI-området, föreslår flera forskare att begreppet "intersectionality" (intersektionalitet) bör spela en central roll. Att främja mångfald och inkludering är grundläggande för att minska AI:s inneboende partiskhet. Att säkerställa att utsatta och missgynnade grupper får rättvist och rättvist bemötande i algoritmiska beslut, och att dessa grupper inkluderas i design- och ingenjörsprocesserna för AI-system, är avgörande. Intersectionality betonar vikten av att förstå hur olika identiteter och erfarenheter samverkar, vilket är särskilt viktigt i det sammanhanget när AI-system designas och implementeras.

För att effektivt hantera de etiska problem som uppstår med AI-teknologier måste vi erkänna hur dessa system förstärker existerande maktstrukturer och diskriminering. Att arbeta med intersektionalitet som en teoretisk ram kan hjälpa oss att utveckla mer rättvisa och inkluderande AI-system som skyddar alla individer, oavsett deras bakgrund.

Hur fake news försvagar demokratiska processer och skapar nya politiska utmaningar

Det har observerats att fler och fler medborgare agerar emot sitt eget självintresse (Acshen och Bartelrs, 2016). Samtidigt som förmågan att särskilja sanning från fiktion försvagas, passar detta fenomen in i ett bredare mönster som har formaliserats mer nyligen. Kavanagh och Rich (2018) kallar detta fenomen för "sanningsförfall" (truth decay). I sin bok definierar de detta som ett mönster som kan beskrivas genom fyra trender:

  1. Ökad oenighet om fakta och analytiska tolkningar av fakta och data.

  2. En suddig gräns mellan åsikt och fakta.

  3. Den ökande volymen och den resulterande påverkan av åsikter och erfarenheter över fakta.

  4. Minskande förtroende för tidigare respekterade källor för fakta.

Var och en av dessa trender representerar en egen utmaning för att kunna särskilja fakta från fiktion (eller åsikter). Men som författarna påpekar är det deras synergistiska konvergens och strategiska användning, med allt mer sofistikerade metoder som mikro-targeting på sociala medier, som har tillåtit sanningsförfallet att växa snarare än att begränsas.

Det budskap som Kavanagh och Rich förmedlar är att medan striden mellan fakta, åsikter och ren fiktion har en lång historia (deras undersökning fokuserar på USA men har tydliga kopplingar till Europa), så är det förmågan att kontrollera informationsflödet och rikta budskap mot de mest mottagliga under specifika perioder som nu gör det möjligt att utmana vad som verkar vara den demonstrerbara verkligheten. De främsta verktygen för denna kontroll är att manipulera individers psykologi genom kognitiva processer och inbyggda biaser (som vilka koncept, övertygelser och regler man tillämpar vid utvärdering, Kunda 1990; Sniderman 2000) samt deras emotionella profiler (dvs. att förstärka individers partiskhet och negativa partiskhet i en mer polariserad politisk kontext).

USA är inte ensamt om detta fenomen. Uppkomsten av regionala autonomirörelser, Brexit, framväxten av mjuka diktatorer i Östeuropa, migrationsfrågan, uppkomsten av både extrema och nya politiska partier samt terrorism är bara några av de mest synliga samtida och samtidiga händelser som direkt utmanar de demokratiska staters förmåga att reagera. Den mest undergrävande effekten av fake news på den svaga kopplingen mellan information och demokrati är dess negativa nedströmseffekt på den politiska kulturen genom att delegitimera demokratiska institutioner.

I kontexten av Europas demokratiska system innebär den obegränsade och snabbt föränderliga naturen av digitala plattformar i tidsåldern för fake news och desinformation ett betydande problem. Det har åtminstone skapat fler möjligheter för icke-statliga aktörer att initiativta och finansiera informationskampanjer, inte bara i sina egna länder utan också genom att bygga internationella kopplingar med likasinnade grupper. På detta sätt har de fått en större möjlighet att driva sina agendor över landsgränserna.

Tidigare internetförespråkare lovade att genom att göra sociala medier tillgängliga för alla – d.v.s. demokratiskt, eftersom vem som helst kan delta lika – skulle vi inte bara stärka våra egna demokratiska kulturer utan också sprida demokratisk inspiration till icke-demokratiska länder (Dahlgren 2000; Shirky 2011; Valenzuela, Park och Kee 2009; Ward, Gibson och Lusoli 2003; Weber, Loumakis och Bergman 2003; Zhang et al. 2010). Men, istället för att främja demokrati, har det blivit tydligt att sociala medier har bidragit till en fragmentering av information och skapandet av ekokammare. Detta har lett till en ökad polarisering och separation snarare än att föra oss närmare ett mer sammanhållet samhälle.

En bredare syn på detta fenomen tyder på att förlusten av expertis och förmågan att tala med varandra om samma uppsättning fakta är resultatet av den strategiska användningen av fake news. Istället för en enkel informationsochletring ser vi nu en översvämning av halvsanningar, konspirationsteorier och vilseledande information i nyhetsskapandet. Målet med detta strategiska överskott av "nyheter" är att försvaga varje signal genom ett överflöd av brus.

För individen innebär detta en emotionell belastning, då nyhetskonsumenter inte bara börjar tvivla på varje historia – sann eller falsk – utan även funderar på att ge upp den allt mer komplicerade uppgiften att särskilja verklig från fake news. Fakta och verklighet blir ett utomordentligt svårhanterat territorium där desinformation inte bara hotar politiska system utan underminerar själva tanken på kollektiva handlingar som är grundläggande för ett demokratiskt samhälle.

På individnivå korrelerar exponering för och acceptans av fake news och konspirationsteorier med negativa epistemiska motiv (t.ex. att förstärka känslor av alienation och att förstärka mönster där de inte existerar). Detta leder till en förlust av förmågan att tänka klart eller att tillämpa logik (Ståhl och van Prooijen 2018), och bidrar till en benägenhet för delusionalt tänkande (Freeman 2007) eller dogmatism (Berinsky 2012). Vid ännu allvarligare nivåer kan fake news ha psykologiska konsekvenser som att skapa hallucinationer eller förvränga perceptionen av verkligheten (Dagnall et al. 2015).

Sammanfattningsvis är fake news inte bara en fråga om desinformation – det är en emotionell och psykologisk kraft som påverkar individens förmåga att fatta rationella beslut och delta i kollektivt politiskt agerande. Effekterna på samhällskulturen är djupgående och långvariga, och den demokratiska processen försvagas när vi inte längre kan enas om fakta, när källor vi tidigare litade på inte längre anses vara pålitliga, och när åsikter överväger fakta i en tid av överflödande information.

Hur vi kan kämpa mot desinformation och propaganda i dagens värld

I dagens värld, där information sprids snabbare än någonsin genom både traditionella och digitala medier, ser vi en växande utmaning i form av desinformation och propaganda. I västvärlden, liksom i många andra delar av världen, ser vi en försvagning av det offentliga förtroendet för fakta. Ett exempel på detta var Anti-Vax-rörelsen, där fakta och vetenskapliga bevis inte hade någon större påverkan på övertygelserna hos de som vägrade vaccinera sig. Detsamma gäller för diskussionerna kring ekonomi och inflation, där politiska ledare snabbt avfärdar professionella ekonomers analyser med en enkel mening, vilket gör åratal av forskning och empirisk erfarenhet värdelösa i deras ögon. Denna mekanism, som populistiska och suveränistiska rörelser använder, bygger på att skapa en alternativ verklighet för sina väljare, där rationell och evidensbaserad diskussion inte får plats. I denna alternativa verklighet kan väljare inte längre ens enas om vad som är möjligt eller rationellt.

När vi diskuterar lösningar på desinformationsproblemet ser vi att det handlar om mer än bara att arbeta med medier och journalister. Under den första kalla kriget var målet att låta sanningen om det kommunistiska regimslivet tränga över gränserna. De falska narrativen om kommunismens "lyckor" kollapsade till slut, och det "onda imperiet" föll. Men idag, i en ny "kall krig" av desinformation och fake news, måste vi bekämpa ett ännu större problem: en desinformationskampanj som inte bara hotar länder långt borta, utan även våra egna demokratiska system. Västvärldens immunförsvar mot denna desinformation har visat sig vara svagare än vi trott, och det är uppenbart att vi måste stärka vårt försvar, inte bara genom lagstiftning, utan genom utbildning och mediekompetens.

För att motverka desinformation måste journalister fortsätta sitt arbete med att verifiera sina källor, kontrollera information och vara så opartiska som möjligt. Det låter kanske enkelt, men i en värld där både officiella och oberoende aktörer från exempelvis Ryssland försöker påverka västvärldens opinion, är det uppenbart att journalister ofta inte gör sitt jobb tillräckligt bra. Politisk inblandning, både utländsk och inhemsk, använder samma metoder för att påverka medierna och därigenom opinionen, vilket innebär att det inte räcker med att bara stoppa inblandningen – vi måste också skapa en solid motberättelse, en som verkligen talar till allmänheten på ett trovärdigt sätt.

Den ryska propagandaapparaten är en av de mest komplexa och långlivade formerna av desinformation. Under Sovjettiden var propaganda en central del av statens arbete, och även idag spelar Ryssland en stor roll i att skapa och sprida desinformation. I västvärlden har bilden av Ryssland förändrats från en totalitär kommuniststat till en kraftfull nation som ses som en alternativ modell för motstånd mot den globala ordningen. För vissa västerlänningar representerar Ryssland en form av stabilitet, en plats där "de goda gamla tiderna" ännu lever kvar, där traditionella värderingar skyddas och där den västerländska moderniteten, med dess invandring, sekularisering och feminism, inte existerar.

Denna bild av Ryssland är inte bara en förenklad verklighet; den är en produkt av väldesignad propaganda. Och för att verkligen förstå vad som händer måste vi som journalister och medier gå bortom de lockande rubrikerna om Putin, militära parader och glamour, och istället fokusera på den verkliga situationen i landet: hur pensioneringssystemet fungerar, hur sjukvårdssystemet ser ut, eller vad som verkligen händer med den ryska ekonomin. Detta skulle ge ett mer realistiskt och mångfacetterat perspektiv, vilket är avgörande för att motverka den ytliga, förenklade propaganda som ofta sprids av både ryska och västerländska medier.

I kampen mot desinformation och propaganda spelar mediernas och journalisternas roll en central del. Det handlar inte bara om att avslöja och motbevisa falska nyheter, utan också om att vara proaktiva och förekomma desinformation innan den ens sprids. För att göra detta måste journalister bygga förtroende hos sitt publikum genom att vara experter på sin ämnesområde, genom att säkerställa att de inte sprider rykten, sensationer eller partisk information. Det handlar om att ha modet att säga nej till clickbait, skvaller och hatpropaganda som får stora klick.

Fakta måste återupprättas som en gemensam grund för alla diskussioner. Medier och journalister måste gå tillbaka till grundläggande principer om objektivitet och faktaförmedling. De måste hjälpa sina läsare att utveckla kritisk tänkande och förståelse för att inte lita på någon källa blint – inte ens på journalister själva. För detta krävs ett robust och strukturerat tillvägagångssätt, där skillnaden mellan fakes och fakta, mellan fakta och åsikter, mellan åsikter och propaganda, tydligt definieras. Endast då kan vi hoppas på att återställa ett förlorat förtroende för den information vi tar emot.

Hur Sovjetiska Taktiker Har Återuppstått i Rysslands Informationskrigföring

Den växande användningen av desinformation på global nivå är inte en slump, utan snarare en strategisk strategi som har sina rötter i äldre och välbeprövade metoder. Ett av de mest anmärkningsvärda exemplen på detta är Rysslands användning av desinformation, som bygger på en lång tradition av sovjetisk "maskirovka" – en teknik för att vilseleda och förvränga verkligheten för att uppnå politiska och militära mål.

Det är en välkänd sanning att desinformation inte är något nytt. Sedan statens uppkomst har manipulation av information varit en del av maktens arsenal. Men dagens Ryssland har utvecklat en särskilt sofistikerad och systematisk metod för att sprida desinformation, som en del av en större strategi för att påverka och destabiliserar både nationella och internationella politiska landskap. Den ryska statens engagemang i denna typ av informationskrigföring går långt bortom isolerade fall av bloggar och Twitter-konton som sprider falsk information. I själva verket är dessa bara en liten del av en mycket större maskin som styrs av statliga aktörer med ett tydligt syfte: att påverka och kontrollera den globala narrativen.

En av de vanligaste invändningarna från dem som ifrågasätter allvaret i desinformation är den nedlåtande frågan: "Borde vi verkligen bry oss?" Det är lätt att underskatta de potentiella konsekvenserna av att ett fåtal Twitter-konton eller små bloggar kan ha inflytande på ett lands politiska eller informationsklimat. Men detta synsätt missar helt den övergripande dynamiken. Vi måste förstå att de allra flesta av de påstådda desinformationskällorna vi ser idag är bara toppen av isberget. Dessa onlinekonton, webbplatser och bloggar är i grunden länkar i en mycket större kedja av informationspåverkan, och de har ofta fått sina instruktioner och stöd från mycket högre statliga nivåer.

När vi talar om Ryssland som en aktör i informationskrigföring måste vi beakta två viktiga aspekter. För det första har Ryssland byggt upp en institutionell struktur och ett nätverk för informationspåverkan som ingen annan stat kan jämföras med idag. För det andra är den nuvarande ryska strategin för desinformation inte en ny uppfinning, utan snarare en förfinad version av gamla sovjetiska taktiker, där "aktiva åtgärder" och "reflexiv kontroll" utgör grunden för påverkan. Sedan Vladimir Putin kom till makten har det ryska militärledarskapet intensifierat sin satsning på att utveckla och omdefiniera dessa gamla metoder, vilket nu tar form i mer sofistikerade tekniker för att påverka sociala medier och internationella opinioner.

Denna utveckling är särskilt tydlig när vi ser på Rysslands användning av "sharp power", ett begrepp som beskriver en form av inflytande som inte handlar om att locka eller övertyga genom attraktiva idéer, utan snarare om att manipulera och underminera. I sociala medier och andra digitala plattformar har Ryssland blivit mästare på att använda "sharp power"-tekniker, vilket gör det möjligt för dem att genomföra långsiktiga strategier för att försvaga demokratier och internationella institutioner.

Ett exempel på denna strategi är den så kallade "little green men"-taktiken, där oidentifierade soldater i gröna uniformer tog kontrollen över Krimhalvön i Ukraina 2014. Initialt förnekade Ryssland all koppling till dessa soldater, men senare bekräftade de sin militära närvaro. Denna form av asymmetrisk krigföring, där en stat döljer sina verkliga intentioner och opererar genom förtäckt infiltration, är ett exempel på hur Ryssland genomfört strategiska åtgärder för att skapa förvirring och osäkerhet.

Trots att desinformation kan verka trivialt i det stora hela, är den potentiella effekten på demokratiska samhällen och deras institutioner enorm. Särskilt efter den globala Covid-19-pandemin, som har fördjupat de redan existerande spänningarna i internationella relationer, har information och narrativ blivit mer kraftfulla än någonsin. Demokratier, särskilt i västvärlden, måste därför vara vaksamma och beredda att skydda sina informationssystem mot sådana insatser.

En sådan uppmärksamhet är inte bara viktig på ett praktiskt plan utan också för att förstå det större sammanhanget av internationell maktpolitik. Denna förståelse ger oss inte bara insikt i hur desinformation fungerar, utan också i hur stater kan använda medveten manipulation för att påverka och styra andra nationers inrikespolitik utan att behöva tillgripa traditionell militär konflikt.

När vi diskuterar Rysslands roll i detta komplexa nät av informationskrigföring är det avgörande att förstå att det inte handlar om isolerade incidenter eller enstaka exempel på "fake news". Det är en omfattande och strategisk satsning som syftar till att undergräva internationell stabilitet och demokratiska värderingar. Vad som börjar med en blogg eller ett Twitter-konto kan snabbt växa till en fullskalig, statligt ledd kampanj för att påverka val, destabiliserande politiska system eller skapa allianser genom manipulation av allmän opinion.

Det är också viktigt att betona att även om Ryssland är en av de mest framstående aktörerna i denna typ av informationskrigföring, så är de inte ensamma. Andra stater och icke-statliga aktörer har utvecklat sina egna varianter av desinformation och påverkansoperationer, vilket gör den globala informationsmiljön mer komplex och utmanande än någonsin tidigare. För att effektivt motverka detta måste vi som samhälle förstå dessa dynamiker och vidta åtgärder för att skydda vår demokrati och säkerställa en transparent och sanningsenlig informationsflöde.

Hur kan valrelaterad cybersäkerhet och utländska ingrepp påverka den demokratiska processen?

Cybersäkerhet är ett av de största hoten mot demokratiska val i dagens digitala värld. De tekniska och organisatoriska aspekterna av cybersäkerhet har blivit centrala för att säkerställa att infrastrukturen som används vid val, såsom elektroniska rösträkningssystem och databaser, är skyddad mot potentiella attacker. I samband med detta bör höga cybersäkerhetsstandarder vara en självklarhet för att kunna genomföra fria och rättvisa val. Dessa standarder bör bygga på etablerade bästa praxis och stärkt samarbete mellan myndigheter. Genom att dela erfarenheter och information mellan olika aktörer kan man gemensamt motverka cyberhot och förbättra skyddet av valprocessen (ENISA 2019).

En annan specifik sårbarhet ligger i de interna system som politiska partier och valkampanjer använder för att kommunicera och organisera sina aktiviteter. Trots att dessa system är högvärdiga mål för både inhemska och utländska aktörer, tar många politiska grupper inte sin egen cybersäkerhet på allvar. Det handlar inte alltid om illvilja, utan ofta om brist på resurser. Politiska organisationer, som ofta är decentraliserade och arbetar med frivilliga, har inte samma ekonomiska muskler som större företag, vilket gör det svårare för dem att genomföra omfattande cybersäkerhetsåtgärder. För att motverka detta föreslår ENISA (2019) att det införs obligatoriska cybersäkerhetsstandarder för politiska organisationer, samtidigt som de får hjälp att anpassa sig till dessa krav. I flera europeiska länder har sådana initiativ redan satts i verket, och erfarenheter från dessa länder kan tjäna som modell för andra.

Politiska kampanjer får inte lämnas ensamma att hantera hot från avancerade, statssponsrade aktörer. Det är därför viktigt att dessa organisationer får den hjälp och de verktyg de behöver för att skydda sig. Detta innebär också att lösningar som involverar stora teknikföretag från tredje land inte alltid är politiskt acceptabla, särskilt om dessa företag har starka band till länder med egna intressen i valet.

Ett annat viktigt område är hur val påverkats av utländska aktörer, särskilt Ryssland, som under de senaste åren har blivit ett fokus för internationell uppmärksamhet. Utländska aktörer som försöker påverka inhemska valprocesser är ett växande hot, och Europeiska unionen har arbetat fram verktyg för att hantera denna typ av påverkanskampanjer. Cyberdiplomati har utvecklats som ett sätt att svara på cyberattacker som kan kopplas till externa aktörer, men detta kräver noggrant övervägande för att förhindra att konflikter snabbt eskalerar, särskilt med tanke på Rysslands egna aggressiva användning av cyberoperationer i de senaste åren.

De åtgärder som vidtas för att skydda val från utländska ingrepp får dock inte bara fokusera på externa hot. För att verkligen skydda demokratin måste man även beakta de inhemska sårbarheterna som gör att externa aktörer kan påverka valresultat. Detta innebär att ett större fokus bör läggas på frågor som påverkar den inhemska politiska infrastrukturen, inklusive finansiering av politiska kampanjer och åtgärder mot korruption. Under de senaste åren har ett antal skandaler, inklusive ryska lån och påstådda olagliga bidrag till europeiska partier, satt fokus på dessa frågor. Sådana finansiella flöden kan allvarligt undergräva demokratin om de inte hanteras på rätt sätt. Exempel på detta är de kontroversiella lån som Marine Le Pens National Front erhöll från Kreml-relaterade aktörer eller den påstådda ryska finansieringen av den italienska partiledaren Lega (Tizian och Vergine 2019).

Det är också viktigt att förstå att det inte enbart är fråga om att identifiera och hantera externa aktörer, utan att också skapa större transparens och öppenhet i finansieringen av politiska kampanjer och andra aktörer som spelar en allt större roll i den politiska processen. Detta gäller särskilt i länder som Storbritannien, där misstankar om olaglig finansiering av politiska kampanjer har fått stor uppmärksamhet (Ramsay och Geoghegan 2017).

Att hantera dessa utmaningar kräver en balans mellan att skydda den demokratiska processen från externa hot och att hantera interna svagheter som kan ge upphov till politisk manipulation. Detta innebär att politiska system måste vara flexibla och robusta nog att motstå både externa och inhemska hot. Demokratin blir starkare genom att förebygga manipulation från alla håll och att säkerställa att både inhemska och externa aktörer håller sig inom ramen för rättvisa och lagliga procedurer.