Att träna en AI-modell innebär inte bara att säkerställa att den fungerar korrekt utan också att förstå de potentiella orättvisor som kan uppstå i dess resultat. En vanlig fråga när man utvecklar AI är hur modellen hanterar kön, ras, ålder, sexuell läggning och andra känsliga kategorier. En särskild problematik är användningen av "markerat" språk – där ett extra ord eller en adjektiv läggs till för att beskriva någon på ett sätt som antyder att de avviker från normen. Till exempel, i stället för att bara säga "läkare", kan vi säga "manlig läkare" eller "svart läkare". I dessa fall betraktas termen som "markerad", vilket innebär att den ger en specifik konnotation, ofta baserad på sociala stereotyper eller förväntningar.

För att ta itu med dessa problem är det första steget att identifiera när och hur sådana mönster uppträder i träningsdata. En vanlig lösning kan vara att tillägga ord som saknas – exempelvis, om en AI-modell tenderar att associera begreppet "läkare" enbart med män, kan man komplettera träningsdata med ordet "manlig" där det saknas. När detta görs kan modellen tränas om, och förhoppningsvis kommer den att sluta associera vissa yrken eller roller med specifika kön.

Det är dock viktigt att notera att markerat språk inte alltid handlar om kön. Det kan dyka upp i andra sammanhang, till exempel vid beskrivning av någon med hjälp av ytterligare ord för att markera deras skillnader från en antagen norm. Här är några exempel på hur markerat och omarkerat språk kan yttra sig:

  • Nationalitet: Författare vs. brittisk författare

  • Politik: Vetenskapsman vs. högerorienterad vetenskapsman

  • Ålder: Skådespelare vs. barnskådespelare

  • Funktionsnedsättning: Advokat vs. blind advokat

  • Sexuell läggning: Butiksägare vs. gay butiksägare

Det är klart att markerat språk inte alltid innebär att en orättvisa föreligger, men det är ett område som kräver uppmärksamhet. Att bli medveten om dessa subtiliteter är ett steg mot att skapa rättvisa i AI-modeller.

En annan viktig aspekt för att säkerställa rättvisa är användningen av modellkort. Ett modellkort fungerar på liknande sätt som när du köper förpackade livsmedel och får information om näringsinnehåll och rekommenderad användning. På samma sätt tillhandahåller ett modellkort detaljerad information om en AI-modell, såsom dess syfte, version, användningsområden, träningsdata och etiska överväganden. Google har tillhandahållit en mall för att skapa sådana modellkort, vilket gör det möjligt för ingenjörer att välja AI-modeller som är mest lämpliga för deras specifika behov. Detta kallas för att undvika "portabilitetsfällan" – problemet att använda en modell utvecklad för ett specifikt syfte i en annan kontext, vilket kan leda till felaktiga eller orättvisa resultat.

Förutom modellkort är en annan metod för att upptäcka orättvisa i AI-modeller så kallad "red teaming". Detta innebär att en grupp av testare försöker framkalla felaktiga eller skadliga svar från en AI-modell genom att utsätta den för olika typer av provocerande och utmanande input. Ett exempel kan vara att uppmana en AI att ge rasistiska eller sexistiska svar eller rekommendera osanna medicinska råd. Målet är att hitta och åtgärda de svagheter som testarna upptäcker, och en viktig aspekt är att testarna bör ha olika bakgrunder och erfarenheter för att kunna fånga upp olika former av bias.

Det är också viktigt att notera att red teaming inte kräver ett stort antal testare. Med rätt struktur kan även en liten grupp personer upptäcka allvarliga brister i en AI-modells bete

Hur bör företag hantera persondata och sekretess för att bygga förtroende?

Att skapa och dela bilder eller innehåll som kan betraktas som "icke-samtyckta bilder eller information" (NCEI) kan vara olagligt och ofta bryta mot produktpolicyn för många online-tjänster. Trots att företag som Google vill undvika att visa denna typ av innehåll (t.ex. i bildsökningar eller på webbsidor), är det ofta svårt att identifiera och ta bort det. Problemet ligger i att det inte alltid är uppenbart att en viss bild har skapats eller delats utan den avbildades samtycke. För företag som hanterar bilder och information om människor innebär detta en svår balansgång, där transparens och kontroll spelar en avgörande roll för att skydda individens rätt till privatliv.

En idé som initialt kan verka rimlig, som Cwip föreslår, är att hålla en lista över NCEI-”offer”. Men i praktiken kan en sådan lista, om den skulle läcka, orsaka ännu större problem för användarnas integritet. Det skulle kunna bli en vägledning för de som vill hitta och utnyttja sådant innehåll. Detta skulle på sätt och vis förvärra problemet. Dessutom innebär en jämförelse av en NCEI-offers bild med en databas av andra bilder att även dessa andra bilder och deras innehåll blir utsatta för potentiella integritetskränkningar.

Kontroll går hand i hand med transparens. Ett bra exempel på detta är hur användare delar information om sig själva med andra. Om ett företag driver en social medieplattform, till exempel, och en användare delar en bild på en söt katt, ska plattformen ge användaren kontroll över hur och med vem den här informationen delas. Här handlar det om att ge användaren transparens på följande sätt: Vilka ser bilden (en specifik person, alla användare på sidan eller kanske hela internet)? Vilken information delas (bara bilden eller även identiteter på de personer som syns i bilden)? Hur kommer informationen att visas för andra (kommer den att inkludera kontaktinformation, som e-postadresser)? Och hur kan användaren stoppa delningen om de ångrar sig senare?

För att skydda användares privatliv behöver företag som hanterar sådan data förstå och implementera fundamentala principer som kontroll, transparens, samtycke och förtroende. Att göra detta handlar inte bara om god programvaruutveckling utan också om att ha ett grundligt stöd från experter inom rättsliga och integritetsfrågor.

Sekretess ur ett dataperspektiv

Tänk dig att din applikation samlar in data från användare på ett ansvarsfullt sätt, att du har varit transparent med hur datan används och gett användarna den kontroll de behöver för att kunna se och radera sina uppgifter. Vad gör du nu? Du måste fortfarande behandla den insamlade datan ansvarsfullt, och ju mer känslig datan är, desto mer omsorg krävs. Detta innebär att du som utvecklare behöver ta hänsyn till aspekter som:

  • Minimering: Samla endast den data som är nödvändig.

  • Behållning: Behåll data endast så länge det är nödvändigt.

  • Anonymisering: Omvandla identifierbar data till icke-identifierbar data.

För att åstadkomma detta krävs mer än bara teknisk kompetens; det krävs även juridisk och etisk insikt. Låt oss titta närmare på varje princip.

Minimering

När du utvecklar en app, till exempel en som rekommenderar restauranger i närheten, samlar du data om användarens plats. Syftet är tydligt: att hitta närliggande restauranger. Här handlar det om dataminimering – du samlar bara in den data som är nödvändig för att uppfylla målet, och inte mer. Om ditt mål är att rekommendera restauranger, behöver du bara användarens ungefärliga plats. Det innebär att du inte bör samla in mer personlig identifierbar information (PII) än nödvändigt. Detta är en av de mest grundläggande principerna i GDPR, som säger att data ska vara "adekvat, relevant och begränsad till vad som är nödvändigt".

Google har exempelvis implementerat dataminimering i sitt Street View-projekt. När Street View lanserades visades bilder i full detalj, men efter klagomål om privatlivet började Google automatiskt blura ansikten på människor och nummerplåtar på bilar för att skydda individens integritet.

Behållning

En annan viktig aspekt är retention, det vill säga hur länge du behåller den insamlade datan. En bästa praxis är att inte behålla data längre än nödvändigt. För att säkerställa att personuppgifter inte lagras längre än vad som är nödvändigt, bör det finnas tydliga tidsramar för när informationen ska raderas eller när en översyn ska göras. Ett bra exempel är Googles datalagringspolicy. När användare har ett Google-konto kan de själva välja vad de vill spara och vad de vill radera.

Tänk på användningen av data för att anpassa annonser. Företag som använder webben för annonsering vill hellre visa relevanta annonser än slumpmässiga. Om en användare till exempel godkänner att deras webbläsarbeteende används för att anpassa annonser, måste företagen tänka på hur länge de ska behålla denna data. För de flesta användare räcker det med att behålla data i tre månader, medan längre retention kan vara motiverad i vissa sammanhang, till exempel för att anpassa annonser inför återkommande säsongsbaserade inköp.

Anonymisering

Anonymisering innebär att förvandla en uppsättning data så att ingen individ kan identifieras. Om data ska anonymiseras måste den omvandlas på ett sätt som gör det omöjligt att återkalla individens identitet. Det finns olika metoder för anonymisering beroende på vem du frågar, men målet är att säkerställa att ingen kan identifiera någon från den insamlade datan. Om din applikation förlitar sig på anonymisering är det viktigt att också söka juridisk vägledning för att säkerställa att processen uppfyller lagkrav och standarder.

I praktiken kan anonymisering vara komplex, eftersom det är lätt

Hur kan artificiell intelligens och ansvarstagande samverka för hållbarhet och rättvisa?

Utvecklingen av artificiell intelligens ställer oss inför komplexa utmaningar som sträcker sig från teknisk prestanda till etiska och samhälleliga konsekvenser. Att optimera algoritmer för tidpunkten på dagen, hantera koldioxidutsläpp och samtidigt säkerställa användarnas integritet kräver en djupgående förståelse för både systemens funktion och deras påverkan på människor och miljö. Ett exempel är Googles arbete med Carbon-Intelligent Computing System, där %CFE (carbon-free energy percentage) används för att styra kodens körning i datacenter, vilket minskar koldioxidavtrycket utan att kompromissa med prestandan.

Samtidigt ställs AI-utvecklare inför frågan om partiskhet i algoritmer. Att mildra bias i vårdalgoritmer innebär inte bara att identifiera och rätta skevheter i datamängder, utan även att förstå den samhälleliga kontext som algoritmen verkar i. Här blir metoder som counterfactual fairness, demografisk paritet och jämställd tillgång till tjänster centrala. Verktyg som Differential Privacy och GAEN visar hur man kan balansera datainsamling och integritet, särskilt i situationer som COVID-pandemin där användardata är känslig men viktig för hälsosäkerhet.

Ansvarstagande AI handlar inte bara om att utveckla säkra och rättvisa algoritmer, utan också om att skapa en kultur där etik, säkerhet och lärande från misstag är integrerade i processen. Case-studier som Google’s Moral Imagination Workshop och Responsible Innovation Challenge visar hur utbildning, tvärfunktionellt samarbete och tydliga processer kan minska riskerna för oavsiktliga konsekvenser. Chaos engineering och Disaster Recovery Testing (DiRT) är exempel på praktiska metoder för att testa robustheten i komplexa system.

En annan dimension är kodoptimering och processorhantering, där val av plats för kodkörning, profileringsverktyg och samdesign med användare inte bara påverkar prestanda, utan också energieffektivitet och användarsäkerhet. Att implementera principer för krafthantering, CO2e-beräkningar och kontroll över dataprocessorer är strategier för att minska den miljömässiga påverkan.

För att förstå och förutse konsekvenserna av AI-system är det avg

Hur kan teknik och AI utvecklas etiskt och rättvist?

I dagens tekniska landskap blir frågor om etik, rättvisa och integritet alltmer centrala. Implementeringen av artificiell intelligens (AI) och maskininlärning skapar situationer där teknikerna kan påverka människor på djupgående sätt, och det är inte alltid uppenbart hur dessa effekter ska bedömas. För att utveckla system som fungerar väl för alla måste vi förstå skillnaden mellan noggrannhet och rättvisa: ett AI-system kan vara statistiskt korrekt men ändå reproducera sociala orättvisor genom felaktiga antaganden eller bias i data. Rättvisa är relativ och kontextberoende; den kan inte reduceras till enkel mätbarhet utan kräver både reflektion och bredare perspektiv.

Att skydda individers integritet är grundläggande. Regelverk som GDPR i EU och HIPAA i USA definierar ramarna för hur personligt identifierbar information bör hanteras, men juridiska krav räcker inte alltid. Anonymisering och generalisering av data är användbara verktyg, men dessa tekniker kan vara otillräckliga när data kombineras på oväntade sätt. Det krävs en medveten planering av potentiella konsekvenser nedströms, inklusive fallstudier som Exposure Notification System (GAEN) under COVID-19-pandemin, där balansering av offentlig nytta och individuell integritet blev central.

För att hantera bias och rättviseproblem behövs skalade utvärderingar som inte enbart fokuserar på kön eller ras, utan även tar hänsyn till fler dimensioner av mänsklig mångfald. Dataset som FACET och Fair-speech, tillsammans med verktyg som Model Cards, kan bidra till att identifiera bias, men ingen metod är perfekt. Bias är alltid närvarande i viss utsträckning, och det krävs ett aktivt arbete med att identifiera och mitigera ogrundade antaganden. Att skapa en kultur av lärande från misstag, genom exempel som Machine Learning Crash Course och Failure Library, hjälper team att förbättra sina processer kontinuerligt.

Ansvarstagande mjukvaruutveckling handlar inte bara om teknik utan också om människor och processer. Att ha starka facilitatorer, tydliga processer för granskning och red teaming, samt kontinuerlig utbildning av nyanställda är centralt för att skapa en hållbar etisk praxis. Praktiker som Moral Imagination Workshops visar hur man kan öva framtidsreflektion och förutse potentiell skada innan den inträffar. Det inkluderar att förstå typer av skada, deras amplifiering och kopplingen mellan tekniska beslut och sociala konsekvenser.

Det är också avgörande att bedöma AI-systemens miljöpåverkan. Verktyg och case studies inom koldioxidintelligent beräkning, såsom Project Sunroof och Green Software Foundation, visar hur kod och beräkningsresurser kan optimeras för att minska klimatpåverkan. Säkerställande av rätt användning av GPU:er och processorresurser är en del av ansvarstagande mjukvaruteknik som inte bara handlar om prestanda utan om hållbarhet och etiska konsekvenser.

Etik, rättvisa och ansvar i AI är sammanflätade med samhälleliga kontexter. Förståelsen av social kontext är central vid utveckling av algoritmer för vård, utbildning eller arbetsmarknad, där felaktiga antaganden kan leda till skadliga stereotyper eller ojämlik behandling. Transparens i processer och tydlig kommunikation med användare är avgörande för att bygga förtroende.

Det är viktigt att läsa dessa frågor som en dynamisk balans mellan teknik, människa och samhälle. Att förstå historien bakom lagstiftning, principer för ansvar, fallstudier, och verktyg för utvärdering ger en grund för att skapa AI-system som inte bara fungerar, utan också gör det på ett etiskt, rättvist och hållbart sätt. Förutom tekniska aspekter måste läsaren reflektera över att etiska beslut ofta är kontextspecifika och kräver både kritiskt tänkande och moralisk fantasi.

Hur kan AI-system förstå och hantera rättvisa och bias?

Att utveckla och testa AI-system innebär att man inte bara ser till att tekniken fungerar utan också överväger hur rättvisa och bias påverkar resultaten. I många fall är det svårt att definiera exakt vad som är rätt eller fel i AI:s utvärderingar, eftersom dessa system ofta saknar en universell standard för "korrekta" resultat. Ta till exempel en situation där ett AI-system ska förutsäga en kunds sannolikhet att svara på en annons om en läkartjänst. Även om den matematiska modellen är korrekt, kan systemet ändå skapa en snedvridning om annonserna visas i olika frekvenser för kvinnor och män. Därmed uppstår ett rättvisefråga, inte på grund av själva beräkningarna, utan på grund av de bakomliggande kulturella och sociala mönstren som påverkar systemets utfall.

Denna typ av orättvisa kan uppträda på flera nivåer. Om ett system producerar korrekta resultat för 98% av användarna, men dessa resultat inte gäller för en specifik grupp, som döva eller kortvuxna personer, kan det innebära ett problem. Här talar man om subgruppens noggrannhet, vilket belyser en annan viktig aspekt: att definiera noggrannhet är inte alltid lätt för AI-system. Om vi exempelvis ber om att AI ska generera bilder av människor som älskar att äta gurkor, finns det ingen objektiv referenspunkt för hur dessa bilder ska se ut. Ska personerna vara unga eller gamla? Vilken hårfärg ska de ha? Måste bilderna verkligen visa gurkor? Denna typ av osäkerhet är ett klassiskt exempel på fenomenet "no one right answer" (NORA), vilket innebär att AI-system ofta inte har en entydig definition av rätt eller fel.

Detta illustrerar de svårigheter som AI-system möter när det gäller rättvisa och objektivitet. Om man exempelvis ber AI:n att skapa en bild av en kristen läkare, kan resultatet vara en person i vit läkarrock med ett kristet kors runt halsen. För vissa betraktare är detta korrekt, men för andra kan det vara problematiskt eftersom det inte är självklart att en läkare alltid skulle bära ett kors. På samma sätt kan en AI som genererar en bild av en läkare utan ett kors vara lika korrekt. Detta förtydligar att AI inte alltid kan definiera "korrekthet" på ett entydigt sätt, vilket gör att frågan om rättvisa blir relativ.

I den verkliga världen är ingen helt objektiv. Vad som anses vara rättvist för en person, kan verka orättvist för en annan. Därför innebär rättvisa alltid