Generativ kunstig intelligens (AI) har i økende grad blitt integrert i selskaper og bransjer på tvers av verden. I denne sammenheng er det viktig å forstå hvordan bruken av AI kan påvirke både selskapers beslutningstaking og ansattes rettigheter. AI, i sin generative form, kan på mange måter forbedre arbeidsprosesser og effektivisere beslutningstaking, men den reiser også viktige spørsmål knyttet til etikk, ansvarlighet og risikohåndtering.

En systematisk risikohåndtering er nødvendig gjennom hele livssyklusen til et AI-system. Aktørene i AI-verdenen må, basert på deres roller og kontekst, anvende risikohåndteringsstrategier for å håndtere utfordringer som personvern, digital sikkerhet, sikkerhet og bias. Dette krever kontinuerlig overvåking og evaluering for å sikre at AI-systemene ikke fører til utilsiktede eller uønskede konsekvenser. En sentral del av dette er å sikre at AI er gjennomsiktig og forklarlig, slik at både brukerne og samfunnet kan forstå hvordan beslutningene tas og hvilke data som benyttes.

I sammenheng med corporate governance er det avgjørende at AI-verktøy, til tross for sin autonome natur, blir overvåket av mennesker. Dette kan sammenlignes med hvordan styremedlemmer eller ledere i tradisjonelle selskaper bruker eksperter (juridiske, finansielle eller regnskapsmessige) for å ta avgjørende beslutninger. Det er et juridisk og etisk krav at den fysiske personen bak beslutningen alltid er ansvarlig for de beslutningene som tas, og at AI-verktøyene underkastes kontinuerlig kritisk vurdering for å unngå uforutsette konsekvenser.

I Tyskland, et land med et sterkt system for medbestemmelse, har AI også stor innvirkning på arbeidstakeres rettigheter. Tyskland har et todelt styringssystem, hvor arbeidstakernes representanter sitter i tilsynsstyrene, og beslutninger blir tatt i samarbeid med ledelsen. Denne modellen har bidratt til å beskytte arbeidstakernes interesser i møte med endringer i arbeidsmarkedet, men med AI's inntog står mange tradisjonelle jobber i fare for å bli redusert eller erstattet. Dette kan føre til økt usikkerhet i arbeidsmarkedet, noe som igjen kan påvirke selskapers beslutningstaking om hvilke teknologier som skal implementeres. Det er viktig at arbeidstakernes rettigheter beskyttes, ikke bare gjennom arbeidsrett, men også gjennom selskapenes interne beslutningsprosesser.

AI's innvirkning på arbeidslivet er også et globalt fenomen. En studie fra Goldman Sachs fra mars 2023 anslår at omtrent to tredjedeler av dagens jobber i USA og Europa kan bli påvirket av AI-automasjon, og at generativ AI kan erstatte opp til en fjerdedel av dagens arbeidsplasser. Den globale effekten kan være enorm, med estimater som tyder på at generativ AI kan erstatte tilsvarende 300 millioner heltidsjobber verden over. Dette setter selskaper og investorer i en posisjon hvor de må vurdere hvilke etiske og økonomiske konsekvenser AI-bruken kan ha, ikke bare for produktiviteten, men for arbeidsstyrken som helhet.

I lys av disse utfordringene har flere tyske eksperter i medbestemmelse argumentert for at arbeidstakernes medbestemmelsesrettigheter må styrkes for å minimere risikoene og maksimere fordelene med AI. Dette innebærer blant annet at de må involveres i beslutningsprosesser knyttet til AI-implementering, slik at rettighetene deres blir ivaretatt. I tillegg må AI-implementering skje i tråd med nasjonale og internasjonale rettigheter og prinsipper, som for eksempel Den europeiske søyle for sosiale rettigheter.

Generativ AI er også blitt en viktig faktor for investorer, spesielt innenfor rammeverk som ESG (Environmental, Social, Governance). Investorer, som de store pensjonsfondene eller statlige investeringsfondene, har begynt å vektlegge AI som en del av sitt ansvar for å ivareta etiske og bærekraftige investeringer. For eksempel har Norges største investor, Statens pensjonsfond, uttrykt et sterkt engasjement for hvordan investeringsobjektene deres bruker AI, og dette har blitt en viktig del av deres ansvar for å drive frem både økonomisk og etisk bærekraft. Investorer ser på AI-bruken som en nøkkel til økt produktivitet, men samtidig stiller de krav til at denne bruken skjer på en ansvarlig måte, med fokus på transparens, risikohåndtering og etikk.

I fremtiden vil det være viktig at selskaper og investorer ikke bare ser på AI som et verktøy for effektivisering, men som en teknologi som må håndteres med et etisk og sosialt ansvar. Dette betyr at selskaper bør innføre robuste mekanismer for å overvåke bruken av AI, sørge for at det er gjennomsiktig og forståelig for alle interessenter, og at det er en kontinuerlig kritisk vurdering av hvordan AI påvirker både de ansatte og samfunnet som helhet.

Hvordan AI Endrer Menneskelig Beslutningstaking og Beskyttelse mot Manipulasjon

Den siste utviklingen innen kunstig intelligens (AI) har ført til en rekke spørsmål om både etikk og lovgivning. Mens teknologien i seg selv gir store muligheter, åpner den også for potensialet for manipulering på en måte som tidligere var utenkelig. Et sentralt punkt i den nye lovgivningen om AI i EU, er Artikkel 5, som spesifiserer hvilke former for manipulering som er tillatt eller forbudt. Dette er et forsøk på å regulere hvordan AI kan påvirke individers beslutningsprosesser, særlig med hensyn til biometriske data.

Artikkel 5 (1) (f) forbyr AI-systemer fra å trekke slutninger om menneskelige følelser i arbeidsplasser og utdanningsinstitusjoner. Dette er en viktig begrensning, da det gir et beskyttelsesnivå mot uønsket innblanding i emosjonelle prosesser i disse sensitive områdene. Men, i de fleste andre sektorer, er det tillatt å trekke slutninger om følelser og intensjoner basert på biometriske data. Dette åpner for en ny form for manipulering, som kan anvendes i markedsføring og kommersiell påvirkning. Det er i disse sammenhengene at AI kan bruke verktøy som systemene for kognitiv manipulering, hvor følelser, tanker og intensjoner kan påvirkes uten at individet nødvendigvis er klar over det.

Spørsmålet som reises her, er hvor grensene går for hva som er tillatt i kommersiell sammenheng. Ved å bruke AI til å analysere biometriske data, kan selskaper potensielt forstå kognitive filtre og biaser som påvirker beslutningsprosesser. Dette gir AI-systemene muligheten til å skreddersy meldinger og produkter for å maksimere effekten på individets valg. Dette gjelder ikke bare for produkter, men kan også inkludere politiske holdninger, helsebeslutninger og andre viktige livsvalg.

Samtidig, Artikkel 5 i EU-lovgivningen, til tross for sin intensjon om å beskytte individer mot uønsket manipulering, har flere svakheter. For det første er begrepet "manipulasjon" ikke klart definert, noe som skaper rom for tolkning og usikkerhet i hva som faktisk er ulovlig. Videre kan teknologien allerede ha påvirket individets beslutninger før lovgivningen treffer inn, noe som innebærer at teknologien i mange tilfeller kan anvendes før loven har hatt tid til å reagere.

I tillegg er det et betydelig problem at eksisterende lovgivning, som GDPR (Generell databeskyttelsesforordning) og DSA (Digital Services Act), ikke tar tilstrekkelig hensyn til AI-systemenes potensial til å manipulere uten å bruke falsk informasjon eller de mer tradisjonelle metodene for påvirkning. Disse lovene er i stor grad rettet mot å beskytte forbrukere mot villedende informasjon og direkte skade, men de tar ikke høyde for mer subtile former for kognitiv manipulering som kan påvirke individers mentale selvbestemmelse uten å forårsake "skade" i tradisjonell forstand.

Det er viktig å forstå at AI, i motsetning til klassiske manipulerende strategier, ikke nødvendigvis trenger å bruke direkte villedende informasjon for å påvirke beslutninger. Ved hjelp av store datamengder kan AI analysere alt fra politiske preferanser til personlige valg, og utforme meldinger som er spesifikt tilpasset hver enkelt brukers kognitive profil. Dette kan være tilsynelatende uskyldige handlinger, som å anbefale produkter basert på tidligere kjøp, men kan også utvikle seg til å påvirke mye mer sensitive områder som personlige holdninger eller valg av partnere.

For å beskytte individers mentale autonomi mot denne typen subtile påvirkning, er det nødvendig med en mer presis og omfattende regulering. AI-systemer må utvikles med klare etiske retningslinjer som ikke bare forhindrer bruk av falsk informasjon, men også tar hensyn til hvordan teknologien kan manipuleres til å utnytte kognitive prosesser uten at individer er klar over det. I tillegg bør det legges til rette for en mer robust kontrollmekanisme som fanger opp og stopper manipulering før det skjer, i stedet for å reagere etter at skaden er gjort.

For å oppsummere er det klart at lovgivning som tar sikte på å beskytte individer mot manipulasjon gjennom AI, trenger å utvikles videre for å være effektiv. Det er ikke tilstrekkelig å bare forby falsk informasjon eller villedende reklame; lovene må også adressere mer subtile former for manipulasjon som kan ha stor innvirkning på menneskers valg og mentale selvbestemmelse.

Hvordan endringer i EU-lovgivningen påvirker ansvar for digitale produkter og AI-systemer

I det siste har det skjedd betydelige endringer i EU-lovgivningen når det gjelder ansvar for digitale produkter, spesielt programvare og AI-baserte produkter. Den reviderte direktiv om produktansvar (PLD) har klart utvidet definisjonen av hva som regnes som et «produkt», og inkludert programvare i denne definisjonen. Dette har skapt et nødvendig rammeverk for å håndtere ansvarsspørsmål når digitale produkter, som kunstig intelligens og programvare, forårsaker skade. Denne utviklingen er viktig for både forbrukere og produsenter, da det åpner for en ny forståelse av hvordan digitale produkter og tjenester bør behandles i lovens kontekst.

Først og fremst har EU vært nødt til å adressere den raske utviklingen av teknologi, spesielt programvare og AI-systemer, som opererer i et dynamisk og kontinuerlig endrende miljø. Tidligere var programvare ofte unntatt fra produktansvar, men med den reviderte PLD er programvare nå eksplisitt inkludert som et produkt. Dette betyr at programvareleverandører og utviklere av AI-systemer nå kan holdes ansvarlige for skader forårsaket av defekte produkter, uten at det er nødvendig å bevise at produsenten var uaktsom.

En annen viktig utvikling er inntoget av begrepet «komponentdel» i produktansvarslovgivningen. Denne definisjonen omfatter både fysiske og immaterielle komponenter, inkludert programvare og relaterte tjenester. Dette kan omfatte alt fra firmware i smarte enheter til AI-moduler som er integrert i produkter som biler, hjemmetjenester eller medisinutstyr. Når disse komponentene er essensielle for produktets funksjonalitet, kan mangler eller feil i komponenten føre til at produsenten blir holdt ansvarlig. Denne utviklingen reflekterer et paradigmeskifte i hvordan vi forstår forholdet mellom produkter og tjenester i en digitalisert verden.

Denne endringen er særlig viktig i lys av hvordan smarte produkter fungerer. Slike produkter er avhengige av både fysiske komponenter og integrerte digitale tjenester for å levere sine funksjoner på en sikker måte. For eksempel kan et smart hjem-system som er utstyrt med temperaturkontroll og sikkerhetstjenester ikke fungere riktig uten de digitale tjenestene som overvåker og justerer systemet. Derfor, for at produktansvar skal være konsekvent og rettferdig, må disse digitale tjenestene anses som «komponenter» i produktansvarslovgivningen. Uten denne tilpasningen risikerer vi å få et ufullstendig ansvarssystem som ikke kan håndtere de kompleksitetene som følger med digitale produkter.

Et interessant poeng som har blitt diskutert i sammenheng med den reviderte PLD, er inkluderingen av programvare som en «produkt» uavhengig av hvordan den tilbys til forbrukerne. Dette betyr at programvare ikke lenger bare anses som et fysisk produkt, men også som en tjeneste når det tilbys via abonnementsmodeller som Software as a Service (SaaS). Dette åpner for at kunder kan kreve kompensasjon for feil eller mangler i programvare, enten de har kjøpt den som et produkt eller benytter den som en del av en abonnementsordning. Denne tilnærmingen er viktig for å sikre at forbrukerne har tilgang til de samme rettighetene og beskyttelsen, uavhengig av hvordan produktet leveres.

I tillegg har det vært nødvendig å klargjøre hvordan relaterte tjenester, som for eksempel dataleveranser eller overvåkningstjenester, skal behandles i lys av ansvarslovgivningen. Et eksempel på dette kan være en navigasjonsapp som kontinuerlig mottar trafikkinformasjon eller et temperatursystem som regulerer hjemmet ditt. Selv om disse tjenestene ikke nødvendigvis er fysisk integrert i produktet, spiller de en avgjørende rolle for at produktet skal fungere som forventet. Derfor er det viktig at disse tjenestene også omfattes av produktansvarslovgivningen, da de utgjør en integrert del av produktets funksjonalitet.

Når det gjelder Internett-tjenester, er spørsmålet om hvorvidt disse skal regnes som relaterte tjenester mer komplisert. Generelt er ikke Internett-tilgang ansett som en «relatert tjeneste» fordi den er utenfor produsentens kontroll. Likevel kan det være tilfeller der produkter som er avhengige av Internett, som smarte hjemmeprodukter, ikke fungerer som de skal hvis de mister tilkoblingen til nettet. I slike tilfeller kan produsentene bli holdt ansvarlige for eventuelle feil som oppstår på grunn av manglende tilgang til nødvendige tjenester.

Endringene i produktansvarslovgivningen reflekterer et skifte i hvordan vi ser på produktansvar i den digitale tidsalder. Vi beveger oss bort fra en tradisjonell forståelse av produkter som fysiske gjenstander, og anerkjenner at mange produkter i dag er integrert med programvare og digitale tjenester. Denne utviklingen har nødvendige juridiske implikasjoner som krever at vi tenker på ansvar på en ny måte. Ved å inkludere programvare og relaterte digitale tjenester i ansvarsreglene, gir EU en viktig beskyttelse til forbrukerne i en verden hvor produkter ikke bare er fysiske, men også digitale og stadig mer interaktive.

Det er også viktig å merke seg at den reviderte PLD gir en bedre struktur for hvordan produsenter og leverandører av digitale produkter og tjenester kan forholde seg til ansvar. I tilfelle skade, kan forbrukeren nå kreve kompensasjon uten å måtte bevise at det forelå feil eller uaktsomhet hos produsenten. Dette representerer et viktig skritt mot å sikre rettferdighet for forbrukerne, spesielt i en tid hvor teknologiske feil kan ha omfattende konsekvenser.

Hvordan Kina Navigerer AI-regulering: En Analyse av Dypt Syntese og Internett Informasjonstjenester

Kinas tilnærming til regulering av generativ kunstig intelligens (AI) gjennom de nylig innførte tiltakene har blitt møtt med både internasjonal oppmerksomhet og intern debatt. Disse tiltakene introduserer ikke nødvendigvis fundamentalt nye institusjonelle mekanismer, men de markerer en betydelig utvidelse av ansvaret for AI-tjenesteleverandører, som nå pålegges samme ansvar som innholdsprodusenter. Dette representerer en ny fase i hvordan generativ AI skal reguleres, spesielt med tanke på de spesifikke kravene til treningsdata som benyttes i AI-modellene. Mange av bestemmelsene i tiltakene er en bekreftelse på eksisterende regler, men enkelte av dem, som de som omhandler bekjempelse av falsk informasjon, datamerking, og beskyttelse av personlig informasjon, er nå mer presise og omfattende.

En viktig del av disse tiltakene er koblingen mellom AI-innhold og tidligere lover, som for eksempel "Deep Synthesis Regulations", som krever vannmerking og merking av AI-generert innhold. Dette er et svar på de økende utfordringene knyttet til AI, og reflekterer et ønske fra kinesiske myndigheter om å finne en balanse mellom å fremme teknologisk innovasjon og hindre misbruk. Reguleringen knytter seg tett til allerede eksisterende lover som forvalter algoritmiske anbefalinger og sikkerhetsvurderinger. Dette peker på et ønske om å oppnå en enhetlig lovgivning på AI-området, en tilnærming som Kina har benyttet i flere andre teknologiske reguleringer, slik som Cybersikkerhetsloven og Personvernsloven.

Tanken bak en overordnet AI-lov i Kina virker å være en forening av ulike reguleringsmetoder for å skape en mer sammenhengende tilnærming til AI-rettigheter og -plikt. De eksisterende lover og tiltak har lagt et grunnlag for dette, men det er åpenbart at det er behov for en videreutvikling som kan tette de regulatoriske hullene. For eksempel, mens et system for algoritmeregulering er på plass, er det uklart hvordan dette systemet vil utvikle seg videre. Vil registrering være en forutsetning for ansvar eller en reaksjon på hendelser? Klarhet på slike spørsmål vil være viktig for hvordan fremtidige lover vil bli tolket og implementert.

I tillegg til de nasjonale rammeverkene, forsøker Kina også å finne sin plass i den globale konkurransen om AI-regulering. AI har ikke lenger bare en teknologisk dimensjon; nå handler det også om å sette globale standarder og regler. EU, med sin AI Act, har vært en av de mest aktive aktørene på dette området, og Kina søker å være en ledende stemme ved å utvikle sin egen AI-regulering. Reguleringsrammene som Kina har lagt frem, reflekterer ønsket om å bidra til det globale styringslandskapet for AI, selv om medieomtalen utenfor Kina ofte fokuserer på det politiske innholdet, som kravene om å "opprettholde kjerne sosialistiske verdier".

I en tid hvor AI-regulering er i en fase med å omsette grunnleggende prinsipper til konkrete rammeverk og standarder, ser det ut til å være en global konsensus om de viktigste spørsmålene: rettferdighet i algoritmer, algoritmenes gjennomsiktighet, datasikkerhet, og beskyttelse av personlig informasjon. Imidlertid er det fortsatt mange utfordringer i å utvikle internasjonalt samarbeidsvilje, ettersom geopolitiske interesser og konkurransen mellom nasjoner kan skape hindringer for felles tiltak. Dette gjelder også for Kinas ambisjon om å fremme digital suverenitet, som potensielt kan ha negative konsekvenser for det globale markedet for AI.

For å møte de økende teknologiske risikoene og tilpasse seg det globale landskapet for AI, er det avgjørende at Kina, sammen med andre nasjoner, finner måter å samarbeide på for å utvikle et mer koordinert rammeverk for global AI-governance.

Reguleringen av generativ AI i Kina har som hovedmål å sikre offentlig innhold og forhindre potensielle skader som kan oppstå ved feilaktig eller farlig AI-generert informasjon. Tiltakene som er implementert, omfatter noen brede prinsipper for regulering av generativ AI, men en mer sofistikert reguleringsstruktur som kombinerer både harde og myke lovverktøy vil være nødvendig for en effektiv gjennomføring. Det er også essensielt at lovgiverne klarer å skape tydelige retningslinjer for ulike aktørers ansvar i AI-økosystemet, spesielt når det gjelder bestemmelser om skadefastsettelse og bevisbyrde.

Det er viktig å forstå at reguleringen av AI ikke bare handler om teknologisk innovasjon, men også om å beskytte samfunnet mot potensielle skader som kan oppstå når AI-teknologi går uten tilstrekkelig kontroll. Dette innebærer å definere klare ansvarslinjer for aktører i AI-kjeden, slik at teknologiske framskritt kan balanseres med hensynet til samfunnets velvære og rettssikkerhet.