Säkerhet inom mjukvaruutveckling är ett av de mest svårfångade och komplexa områdena i modern teknik. Inga applikationer kan vara fullständigt säkra – fel kommer alltid att uppstå, och missbruk av funktioner är ibland omöjligt att förutse. Ändå är det vår skyldighet att försöka. Att förutse, analysera och minska potentiella risker innan de materialiseras är inte bara ett etiskt krav, utan också ett ekonomiskt. Att reparera skador i efterhand är ofta omöjligt, både för de drabbade och för utvecklaren.
Det brittiska Post Office Horizon-fallet visar med förödande tydlighet vad som kan ske när tekniskt systemfel kombineras med organisatorisk arrogans. Det nya redovisningssystemet, Horizon, visade felaktiga siffror som fick hundratals postmästare att framstå som tjuvar. Över tvåhundra personer fängslades, tusentals förlorade sina hem och några tog sina liv – allt på grund av felaktig mjukvara. Årtionden senare pågår fortfarande kampen för upprättelse. När skadan väl är skedd, när människoliv förstörts av en algoritms misstag, finns det inget “rollback”-kommando som kan återställa verkligheten.
Skada kan anta många former. De mest uppenbara är katastrofer som Therac-25, där mjukvarufel orsakade dödliga strålningsoöverdoseringar, eller Ariane-raketens explosion – symboler för teknisk hybris och otillräcklig riskanalys. Men även subtila fel kan orsaka skada: ett felaktigt öppettidsschema på en sökmotor, som får kunder att tro att en butik är stängd, kan förstöra ett företags rykte. En algoritm som felaktigt flaggar språk som “toxiskt” kan bidra till censur och social exkludering. Denna typ av skada är svår att mäta, men inte mindre verklig.
Mjukvaruutveckling skiljer sig fundamentalt från traditionell ingenjörskonst. En individ kan skapa, distribuera och globalt sprida en idé i kod utan fysiska begränsningar eller formella säkerhetskrav. Därför måste testning för säkerhet börja långt innan den första kodraden skrivs. Säkerhet handlar inte bara om teknisk korrekthet utan om moraliskt och socialt ansvar: Vad händer om en algoritm fattar fel beslut i en medicinsk kontext? Vad händer när en digital assistent upprepar en rasistisk term i samband med en låttitel? Detta är inte kodningsfrågor – det är designfrågor, och de måste behandlas som etiska beslut.
Ett särskilt exempel illustrerar komplexiteten i sådana beslut: frågan om huruvida en virtuell assistent ska uttala titeln på en populär låt som innehåller N-ordet. För en maskin är detta en semantisk fråga, men för människor rör det sig om historisk smärta, språkets makt och sociala normer. Ska systemet censurera, eller återge sanningen? Oavsett beslut krävs reflektion kring vilka konsekvenser en sådan handling får för användaren, för konstnären och för samhällets uppfattning om språk och teknologi.
Säkerhetsfunktioner är aldrig fria från kompromisser. Ett drönarprojekt kräver exempelvis hårdvaruredundans och sensorer för att garantera flygsäkerhet. Men varje extra komponent ökar vikten, vilket paradoxalt nog kan öka risken för haveri. Säkerhet måste därför ses som ett systemiskt fenomen, inte som en uppsättning enskilda lösningar. Att lägga till fler skyddslager kan lika gärna skapa nya risker som minska befintliga.
Efter lansering måste säkerheten fortsätta vara en levande del av produktens ekosystem. Det räcker inte med att övervaka drifttid och minnesanvändning – man måste också följa hur produkten påverkar människor. En applikation som fungerar perfekt tekniskt kan fortfarande orsaka etisk eller psykologisk skada. Därför krävs processer som aktivt registrerar, analyserar och reagerar på säkerhetsproblem när de uppstår.
Googles egna erfarenheter visar hur svårt det är att förutse de oavsiktliga konsekvenserna av små förändringar. En utvecklare uttryckte det så: “Oavsett hur mycket erfarenhet du har, underskatta aldrig universums förmåga att skapa en helt ny situation.” Den insikten sammanfattar hela kärnan i etisk design: vi kan aldrig kontrollera alla utfall, men vi kan skapa strukturer som gör oss beredda på det oväntade.
Det är viktigt att förstå att säkerhet i mjukvara inte är ett slutmål, utan ett förhållningssätt. Den börjar med moralisk föreställningsförmåga – förmågan att föreställa sig världen ur användarens perspektiv, att se de osynliga följderna av en designbeslut. Den kräver ödmjukhet inför det faktum att teknik inte är neutral, och att varje funktion, varje algoritm, bär med sig ett fragment av mänskligt ansvar.
Hur kan mjukvaruutvecklare implementera AI på ett ansvarsfullt sätt?
Att bygga AI-system på ett ansvarsfullt sätt är långt mer än en teknisk utmaning; det är ett åtagande som kräver kulturell förändring, långsiktigt engagemang och kontinuerlig medvetenhet om de konsekvenser som mjukvaran kan ha för användare och samhälle. Google har exempelvis infört RESIN-utmaningen som en del av introduktionen för nyanställda, vilket syftar till att de ska förstå AI-principerna innan de påbörjar sina projekt. Denna typ av proaktivitet är avgörande för att säkerställa att tekniska beslut inte bara optimerar prestanda utan också skyddar användarnas rättigheter och välbefinnande.
Många utvecklare förstår intuitivt värdet av ansvarsfull kodning: att skydda integritet, minimera koldioxidavtryck från sin kod och förebygga skadlig bias. Men kunskap räcker inte; det är när tidsbegränsningar, konkurrerande prioriteringar och pressade deadlines träder in som utmaningen blir konkret. Att investera tid och resurser tidigt i utvecklingsprocessen för att identifiera och mitigera risker kan spara betydligt mer tid i efterhand genom färre akuta problem, enklare underhåll och färre incidenter som påverkar användare negativt.
Ett centralt element i ansvarsfull AI-utveckling är förståelsen av samhällelig kontext och aktörer. AI påverkar inte bara individuella användare utan också grupper, institutioner och i förlängningen hela samhällen. Detta innebär att utvecklare behöver identifiera vilka aktörer, artefakter och förutsättningar som kan påverkas av systemet och analysera potentiella negativa konsekvenser. Bland annat innebär detta att arbeta med testning som tar hänsyn till både över- och underrepresenterade grupper, att utvärdera systemens output noggrant och att mäta både noggrannhet och rättvisa separat, eftersom hög precision inte automatiskt garanterar rättvisa.
Rättviseaspekten är särskilt komplex. Bias är alltid närvarande, från val av träningsdata till algoritmiska antaganden. Därför måste utvecklare kontinuerligt reflektera över sina egna förutfattade meningar och systemens potentiella blinda fläckar. Verktyg som differential privacy och k-anonymitet kan bidra till att skydda användarnas data, men de är inte tillräckliga om inte hela systemets design är förankrad i etiska principer. Det är också viktigt att väga prioriteringar mellan olika typer av skador, exempelvis allokeringsskador eller indirekta effekter på klimat och samhällsstruktur.
Miljöpåverkan är en annan kritisk aspekt av ansvarsfull utveckling. Mjukvara genererar indirekt koldioxidutsläpp genom energianvändning i servrar och datacenter. Att mäta och optimera kodens energiförbrukning, exempelvis genom att schemalägga beräkningar vid tidpunkter med låg koldioxidintensitet, är därför en del av ett ansvarsfullt arbetsflöde. Ansvarsfull kodning innebär således inte bara att undvika skada mot användare, utan också att aktivt bidra till att minska påverkan på planeten.
Att etablera tydliga processer inom organisationen är avgörande: från analysfas och justeringssteg till implementering av test- och utvärderingsramverk. Att skapa en kultur där ansvarsfull AI är en självklar del av arbetsmetoden kräver uthållighet, transparent kommunikation och ledarskap som föregår med gott exempel.
Det är viktigt att förstå att ansvarsfull AI-utveckling inte är ett slutmål utan en kontinuerlig process. Tekniken förändras snabbt, samhällskontexten utvecklas och nya etiska utmaningar uppstår ständigt. Därför måste utvecklare, team och ledning ständigt utvärdera och uppdatera sina principer, processer och verktyg. Att kombinera teknisk expertis med etisk medvetenhet, proaktiv riskbedömning och en holistisk syn på påverkan på både människor och miljö är den verkliga vägen mot hållbar och ansvarsfull mjukvaruutveckling.
Vad betyder rättvisa i den artificiella intelligensens epok?
Att förstå rättvisa inom artificiell intelligens kräver att man ser bortom siffror, bortom algoritmernas matematiska elegans, och istället betraktar de människor, processer och värderingar som formar varje beslut. Rättvisa är inte en konstant, utan en rörlig balans mellan intention och konsekvens. Det finns ingen entydig definition, inget NORA – no one right answer – och ändå är det just detta osäkra område som gör frågan så avgörande.
Rättvisa inom teknik är ofta reducerad till ett tekniskt problem: paritet, datakvalitet, mätbarhet. Men det är ett mänskligt problem först och främst. När företag som Google, Microsoft eller Meta utarbetar modeller för att mäta rättvisa, handlar det i grunden inte om algoritmernas struktur utan om värdenas hierarki – vilka värden ges företräde, vilka röster får höras, vilka antas redan vara inkluderade? Den tekniska rättvisan blir en spegel av den kulturella rättvisan, och när språket – ofta engelskan – blir det dominerande verktyget, skapas också ett slags fångenskap. Som Wierzbicka påpekar: språket begränsar tanken, och när världen mäts genom engelska begrepp, uppstår en global blindhet för lokala nyanser.
I den artificiella intelligensens arkitektur gömmer sig tusentals små beslut, ofta osynliga. En dataset modifieras, ett filter läggs till, en modell tränas om. Varje sådan handling innehåller ett val, ibland moraliskt, ibland praktiskt. Att mäta framgång blir därmed inte bara en fråga om prestanda utan om vilka slags mänskliga konsekvenser som uppstår. Rättvisa handlar inte bara om att balansera fördomar, utan om att ifrågasätta själva ramen för vad som räknas som "objektivt" eller "neutralt".
Att skapa incitament från grunden – incentives from the bottom up – innebär att låta rättvisan växa fram ur människors erfarenheter snarare än ur kodens logik. Processer för ansvarstagande AI, som intake-stadierna i Googles granskningssystem eller IEEE:s standarder, visar hur svårt det är att operationalisera etik. Det handlar inte om regler, utan om reflektion. Om att förstå att varje försök att ”mäta” rättvisa riskerar att reducera den till statistik.
Det finns också en dubbelhet i själva språket för rättvisa. Att tala om fairness är inte detsamma som att leva den. AI-modeller tränas på språk, men språket i sig är en artefakt fylld av kulturella skikt. Markerat språk, bias i ton, de små ordvalen som avslöjar en underliggande världsbild – allt detta fortplantas genom systemen. Att mildra markerat språk är därför inte en teknisk övning utan en kulturell.
Men rättvisa kräver också något som inte kan kodas: moralisk fantasi. Googles ”moral imagination workshops” syftar till att återskapa förmågan att föreställa sig konsekvenser som ännu inte har inträffat. Det är inte bara en övning i empati, utan ett sätt att återföra ansvar till skapandet. För utan moralisk föreställningskraft förblir tekniken blind.
Att tala om mätning av rättvisa utan att tala om makt är också en illusion. Makt finns i infrastrukturen – i vem som kontrollerar datan, i vem som sätter policyn, i vem som avgör vad som är ”ansvarsfullt”. IEEE, NIST, eller interna riktlinjer inom stora företag, fungerar ofta som speglar av institutionella prioriteringar snarare än som garanter för etik. Därför blir frågan inte bara vad som mäts, utan varför, och för vems skull.
För att förstå rättvisa i AI måste man slutligen acceptera att rättvisa inte är en egenskap hos maskinen, utan en relation mellan människor. Den handlar om ömsesidighet, misstro och förhandling. Den kräver att man ser både möjligheten och risken i varje automatiserat beslut. I en värld där data har blivit en form av makt, är den sanna rättvisan kanske inte att eliminera bias helt, utan att erkänna dess ofrånkomlighet och lära sig leva med dess spår.
Det är viktigt att förstå att rättvisa inom artificiell intelligens inte kan isoleras från språk, kultur och makt. Att varje försök till standardisering riskerar att dölja det som inte låter sig kvantifieras. Och att rättvisa inte kan uppnås genom teknik ensam, utan genom ett ständigt återvändande till den etiska grunden: människan som både skapar och drabbas av systemet hon bygger.
"10" november 2021 Nr _____________________ 105120, Ryssland, Moskva, Maly Polyaroslavsky pereulok, 3/5, byggnad 1 tel.: +7 495 916-12-48, fax: +7 495 916-30-67 e-post: [email protected]
ANSÖKAN
Godkänd av chefen för Myndigheten för konsument- och hälso-skydd i Tula oblast den 10.01.2022 (ändrad 16.01.2023) FÖRFATTNING OM Avdelningen för juridiskt stöd, statlig tjänst och personal vid Myndigheten för konsument- och hälso-skydd i Tula oblast
Dagordning för det ordinarie sammanträdet i Kommunfullmäktige i den kommunala enheten staden Petergof (6:e mandatperioden) den 15 februari 2024 kl. 15.00

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский