Generative AI-teknologier har allerede begynt å endre landskapet for personvern og databeskyttelse på måter som var utenkelige bare for noen år siden. Den hurtige utviklingen av kunstig intelligens, spesielt i form av generative modeller som kan lage tekster, bilder og videoer, har skapt nye utfordringer for både individer og samfunn. Under lovverk som CCPA (California Consumer Privacy Act) kan det være vanskelig å eliminere påvirkningen data har på en modells prediksjoner eller utganger. Denne vanskeligheten forsterkes ytterligere når slike modeller brukes til å lage og spre skadelig syntetisk media, som deepfake-pornografi eller fabrikerte nyheter, ettersom det er utfordrende å stoppe eller reversere den virale spredningen av slike innhold på sosiale medier. Mangelen på robuste mekanismer for autentisering og fjerning av slikt innhold gjør situasjonen enda mer kompleks.

En av de mest problematiske konsekvensene av generative AI er at mange av dens skadelige virkninger er usynlige, innebygd i automatiserte systemer som opererer før de formelle beslutningspunktene. I stedet for en eksplisitt avvisning, vil ofte biased eller unøyaktige vurderinger på forhånd blokkere tilgang til muligheter. For eksempel kan predictive hiring-algoritmer som benytter seg av informasjon fra CV-er eller sosiale medier filtrere ut kvalifiserte jobbsøkere basert på forutinntatte vurderinger, og dermed skape et "silisiumtak" som umerkelig hindrer økonomisk mobilitet for marginaliserte grupper. Dette illustrerer hvordan generative AI kan forsterke eksisterende ulikheter i samfunnet uten at de nødvendigvis er synlige for dem som blir rammet.

I tillegg kan de kollektive og diffuse skadene som diskriminerende utfall eller erosjon av offentlig diskurs, ikke spores tilbake til spesifikke tilfeller av uaktsomhet eller mishandling. Slike skader oppstår ofte fra de komplekse interaksjonene mellom AI-systemer og samfunnet, og effektene kan først bli synlige etter hvert som de bygger opp og forsterker eksisterende mønstre av ulempe og ulikhet. Denne usynligheten utgjør en betydelig hindring for personverns- og databeskyttelsesmekanismer, som tradisjonelt er fokusert på konkrete og identifiserbare skader og basert på individuelle klager eller rettssaker for å avdekke feil.

Mangelen på individuell kontroll og de kollektive virkningene av generativ AI viser tydelig at tradisjonelle, reaksjonære former for regulering ikke er tilstrekkelige for å håndtere de strukturelle skadene som disse systemene forårsaker. Mens individuell omkamp og rettshandling kan gi viktige muligheter for rettferdighet i spesifikke saker, er de ofte for langsomme, kostbare og begrenset i omfang til å dempe generativ AI’s vidtspredte og raskt utviklende risikoer. Videre, ettersom effektene av AI-systemene kan være diffuse og langsiktige, vil tradisjonelle, retroaktive tiltak ofte ikke være i stand til å adressere de mer subtile, men potensielt ødeleggende effektene som utvikles over tid.

Derfor er det behov for et nytt paradigme for personvernregulering som går utover dagens tilnærminger. Dette innebærer å skifte fokuset fra individuell kontroll over data til et mer kollektivt syn på personvern som en sosial verdi og offentlig godt. Personvern bør ikke bare sees som et individuelt rettighetsspørsmål, men som en kollektiv forpliktelse som krever at institusjoner tar ansvar for hvordan data håndteres. Den eksisterende reguleringen har vist seg utilstrekkelig, og derfor må vi begynne å forstå personvern som et kollektivt gode som omhandler ikke bare individuelle rettigheter, men også samfunnets helse og velferd.

En viktig endring må også være å gå fra reaksjonære til proaktive styringsmodeller. I stedet for å vente på at spesifikke juridiske brudd eller forbrukerklager utløser tiltak, bør myndighetene innføre kontinuerlig overvåkning, revisjon og vurdering av potensielle risikoer før organisasjoner og selskaper ruller ut generative AI-systemer i stor skala. Den europeiske AI-loven, som fokuserer på bredere samfunnsmessige konsekvenser og graduerte krav basert på teknologiens risiko, kan tjene som en modell for en mer systematisk tilnærming til AI-styring. Denne loven krever for eksempel at «høyrisiko» AI-systemer skal gjennomgå obligatoriske samsvarsvurderinger, noe som kan redusere risikoen for utilsiktede eller skadelige konsekvenser før de inntreffer.

For å møte utfordringene knyttet til generativ AI og personvern, bør den tradisjonelle tilnærmingen som legger vekt på individuell kontroll og etterpåklokskap skiftes ut med en helhetlig, proaktiv tilnærming som setter samfunnets beste i sentrum. Dette innebærer at både offentlige myndigheter og private aktører må utvikle nye modeller for ansvarlighet og åpenhet i bruken av AI, som går utover de tradisjonelle grenser for personvern.

Hvordan Bør Bedriftsledere Forholde Seg Til Generativ AI I Forvaltning?

Generativ kunstig intelligens (AI) er ikke bare et teknologisk gjennombrudd, men et fundamentalt skifte i hvordan bedrifter opererer, spesielt når det gjelder selskapsledelse og etterlevelse. Dette gjelder både i den forebyggende og retrospektive overvåkingen av risikoer. Den europeiske AI-loven (EU AI Act) definerer kunstig intelligens som digitale systemer som er laget for å operere med varierende grader av autonomi og kan generere prediksjoner, innhold, anbefalinger eller beslutninger som påvirker fysiske eller virtuelle miljøer. Generativ AI kan også skape nytt innhold og ideer, inkludert samtaler, bilder, videoer og musikk, og kan anvendes på områder som finans, helsetjenester, kundeservice og til og med juridiske rådgivningstjenester.

Så, hvordan bør bedrifters ledelse tilnærme seg risikoene og mulighetene som følger med generativ AI? Det er åpenbart at dette ikke er et spørsmål om "om", men "hvordan" AI skal integreres i virksomheten. Generativ AI har potensial til å endre industrilandskapet fullstendig, og i mange tilfeller kan det være vanskelig å identifisere hvilke områder av virksomheten som ikke vil bli påvirket av teknologiens fremmarsj.

Ledelsen må forstå hvilke spesifikke AI-verktøy som kan gi verdifulle resultater og hvilke som utgjør uakseptable risikoer. Hva skjer dersom AI-teknologien feiler, blir programmert til å ta uautoriserte beslutninger, eller til og med bryter med etiske og juridiske normer? For at beslutningstakere skal kunne håndtere disse problemene på en effektiv måte, er det avgjørende at de kontinuerlig oppdaterer sine forståelser av AI, inkludert dens styrker, svakheter og begrensninger.

I denne sammenhengen er det viktig at ledelsen er grundig forberedt, velinformert og tilstrekkelig opplært i hvordan generativ AI kan brukes på en sikker og produktiv måte i selskapets virksomhet. Det innebærer å utvikle en forståelse for hva AI kan gjøre i dag, og hvilke farer som kan oppstå dersom det ikke implementeres riktig. Det er også avgjørende å ha en aktiv tankegang som er integrert i virksomhetens beslutningstaking, med fokus på å balansere innovasjonens muligheter med de potensielle risikoene som følger med.

Generativ AI kan potensielt forbedre mange aspekter av virksomheten, fra produktutvikling og markedsføring til risikohåndtering og kundeservice. Men det er også uunngåelige juridiske, operasjonelle og etiske utfordringer som må håndteres. For eksempel kan feilaktig eller uetisk bruk av AI føre til alvorlige konsekvenser, både for selskapets omdømme og for dets økonomiske stabilitet. Ledelsen må derfor sørge for at nødvendige overvåkningssystemer og etterlevelsesmekanismer er på plass for å unngå slike problemer.

I tillegg er det viktig å forstå at AI-teknologier ikke fungerer isolert, men er en del av et bredere globalt økosystem. Generativ AI har potensial til å forandre internasjonale handels- og politiske relasjoner, og beslutningstakere må være oppmerksomme på de globale og økonomiske implikasjonene av AI-implementeringen i virksomheten. Denne forståelsen bør være en integrert del av ledelsens beslutningsprosesser.

I lys av disse betraktningene må styre og ledelse være godt forberedt på en verden hvor AI ikke bare er et verktøy, men en uunnværlig del av bedriftsstrategien. For å lykkes i dette nye landskapet er det viktig at lederne utvikler en strategi for bærekraftig AI-adopsjon og risikostyring. Denne tilnærmingen vil ikke bare beskytte bedriften mot potensielle tap og juridiske problemer, men også posisjonere den til å dra nytte av de betydelige mulighetene som generativ AI kan tilby.

AI bør ikke unngås eller ignoreres av styret eller den utøvende ledelsen, men heller adopteres på en informert, grundig og målrettet måte. Uvitenhet og unnvikelse kan føre til alvorlige konsekvenser for selskapet, både på kort og lang sikt. Den eneste sikre veien fremover er å forstå AI-teknologiens potensiale og risiko, og ta ansvar for hvordan den implementeres i samsvar med både lovgivning og etiske standarder.

Det er også viktig å merke seg at AI ikke bare endrer hvordan beslutninger tas, men også hvordan suksess vurderes av investorer, myndigheter og andre interessenter. Det som tidligere kunne betraktes som god forvaltning, må nå inkludere en nøye vurdering av hvordan AI blir brukt og hvilke konsekvenser det kan ha for virksomheten og samfunnet. I fremtiden vil det å være en "god forvalter" i næringslivet nødvendigvis innebære å forstå og håndtere AI på en ansvarlig måte.

Er LLM-bruk en juridisk tjeneste? Nye utfordringer for rettslige reguleringer og profesjonsetikk

Spørsmålet om hvorvidt bruken av store språkmodeller (LLM) kan kvalifiseres som juridisk tjeneste, avhenger av flere faktorer. Hvis en bruker etterspør generell juridisk informasjon, anses dette vanligvis ikke som en aktivitet knyttet til de «konkrete anliggender» som defineres i lovgivningen. Dette står i kontrast til situasjonen hvor en bruker stiller et individuelt juridisk spørsmål. I slike tilfeller relaterer svaret som LLM gir seg direkte til den spesifikke saken, og man kan dermed argumentere for at det dreier seg om et «konkret anliggende» etter lovens definisjon. Dermed bør unntak som advarer om at LLM-er kun gir generell informasjon og ikke juridisk rådgivning, ikke nødvendigvis betraktes som tilstrekkelig beskyttelse for forbrukeren.

Tanken bak denne tolkningen er at beskyttelsen av forbrukere er nødvendig nettopp fordi LLM kan gi feilaktige resultater som ikke er gjenkjennbare for den alminnelige brukeren. Hvis dette synspunktet følges, kan LLM-er bli ulovlige i land som Tyskland. Det er imidlertid fortsatt uklart under tysk rett om LLM-er som brukes i juridiske sammenhenger faktisk kvalifiseres som en juridisk tjeneste som kun kan tilbys av advokater, eller om dette kan overlates til programvareselskaper. Domstolene har ennå ikke tatt stilling til dette spørsmålet.

I mange land, som i USA og Tyskland, baseres lovgivningen rundt hvem som kan yte juridisk rådgivning på personlige kvalifikasjoner. Advokater må gjennomføre spesifikke utdanningskrav, bestå en statlig advokatprøve og gjennomgå en bakgrunnssjekk. Denne modellen baserer seg på ekspertisen til individet, ikke nødvendigvis kvaliteten på tjenestene som tilbys. Ettersom algoritmiske juridiske tjenester primært er bestemt av programvaren og treningsdataene, kan ikke et advokatlisens garantere at tjenesten er av tilstrekkelig kvalitet. Derfor er det et behov for alternative godkjenningsprosesser og sertifiseringsordninger som sikrer kvaliteten på programvaren og treningsdataene.

LLM-er utfordrer derfor ikke bare selve definisjonen av hva som utgjør juridisk rådgivning, men også hvordan vi forstår profesjonell etikk innen rettslige tjenester. Når advokater og juridiske selskaper benytter LLM-er, oppstår det spørsmål om hva de juridiske og etiske retningslinjene bør være. Ulike initiativer rundt om i verden har forsøkt å adressere bruken av kunstig intelligens i lovpraksis. Et eksempel er "Task Force on Responsible Use of Generative AI for Law" som ble opprettet av MIT Computational Law Report. Denne gruppen utviklet retningslinjer for ansvarlig bruk av generativ kunstig intelligens i juridiske prosesser. På samme måte har forskjellige advokatforeninger, som New York State Bar Association, laget veiledninger for bruken av AI i rettslige sammenhenger.

Imidlertid er ingen av disse veiledningene juridisk bindende. Hvilke regler som gjelder for bruken av LLM-er, vil i siste instans avhenge av tolkningen av profesjonsetiske regler og eksisterende lovgivning. Dette innebærer at det i mange tilfeller vil være nødvendig med en grundig vurdering av hvordan disse nye teknologiene påvirker rettssystemets integritet og kvaliteten på de juridiske tjenestene som tilbys.

Rettslige reguleringer står overfor en rekke utfordringer når det gjelder å tilpasse seg den raske utviklingen av AI-teknologi. Den klassiske modellen som baserer seg på menneskelig ekspertise som en garanti for tjenestekvalitet, kan vise seg utilstrekkelig når det gjelder AI-drevne tjenester. Derfor er det viktig å vurdere alternative tilnærminger til regulering, som produktgodkjenning og sertifisering av AI-verktøy, slik at forbrukerne får tilgang til juridisk rådgivning som er både trygg og av høy kvalitet.

Endringer i lovgivningen vil sannsynligvis være nødvendig for å møte de nye utfordringene som AI og LLM-er skaper for tilgang til rettferdighet, kvalitet, valgmuligheter og representasjon i juridiske tjenester. Samtidig bør det vurderes om dagens monopol på juridiske tjenester, som er forbeholdt advokater, fortsatt er gyldig i en verden drevet av teknologi.

Hvordan kan menneskelig verdighet informere tolkningen av menneskerettigheter i europeisk rett?

Menneskelig verdighet har vært et sentralt prinsipp i internasjonale menneskerettigheter gjennom hele andre halvdel av det 20. århundre. I den internasjonale konvensjonen om sivile og politiske rettigheter fra 1976 blir det fastslått at rettigheter "stammer fra den iboende verdigheten i mennesket", og at anerkjennelsen av "den iboende verdigheten" og "de like og ufravikelige rettighetene til alle medlemmer av den menneskelige familien" er grunnlaget for frihet, rettferdighet og fred i verden. Dette prinsippet er i stor grad videreført i spesifikke menneskerettighetsinstrumenter, som de som gjelder for barn eller personer med funksjonsnedsettelser.

Selv om det i 1950 var uvanlig at utformerne av den europeiske menneskerettighetskonvensjonen (EMRK) eksplisitt nevnte menneskelig verdighet, er dette begrepet innebygd i konvensjonens tekst. Forordet til EMRK viser tydelig til den universelle menneskerettighetserklæringen (UDHR), som var kun noen måneder gammel da EMRK ble utformet. Mange av de samme personene som var med på å utforme UDHR, deltok også i arbeidet med EMRK, og konvensjonen kan sees som en videreføring av deres arbeid, ikke et separat prosjekt. Hensikten med EMRK var ikke å erstatte UDHR, men å "ta de første skrittene mot kollektiv håndheving av visse rettigheter nevnt i den universelle erklæringen". Dermed er UDHR fortsatt grunnlaget for EMRK, som har som mål å gjøre de rettighetene og verdigheten som er nedfelt der, praktisk håndhevbare.

Den europeiske menneskerettighetsdomstolen (EMD) har gjentatte ganger støttet denne forståelsen, og har slått fast at "menneskelig verdighet og menneskelig frihet" er "selve essensen" av EMRK. Men til tross for verdighetens relevans, kan det være uklart hvordan prinsippet skal anvendes i praksis. McCrudden har hevdet at verdighet som en isolert rettighet kan være for vag. Den faktiske fraværet av en eksplisitt henvisning til verdighet som en separat rettighet i EMRK kan støtte dette synet. Det er derfor mer nyttig å betrakte verdighet som et grunnleggende prinsipp som underbygger tolkningen av spesifikke rettigheter innenfor konvensjonen. I denne sammenhengen kan prinsippet om verdighet støtte tolkningen av andre rettigheter, inkludert deres omfang og anvendelse, og dermed ha en "indirekte juridisk effekt".

Verdighetens rolle som et dynamisk prinsipp er særlig relevant når vi forstår EMRK som et "levende instrument", et perspektiv som ble understreket av Sir Humphrey Waldock, tidligere president i Den europeiske menneskerettighetsdomstolen. Han påpekte at "meningen og innholdet i bestemmelsene i EMRK skal forstås som ment å utvikle seg i respons på endringer i juridiske eller sosiale konsepter". Denne tilnærmingen er særlig verdifull når vi står overfor nye kontekster, som integreringen av kunstig intelligens (AI) i rettslige prosesser. Menneskelig verdighet kan fungere som et ledende prinsipp, som sikrer at tolkningen og utviklingen av rettigheter forblir i samsvar med EMRKs kjerneverdier.

Når vi ser nærmere på verdighetens tolkning, har McCrudden identifisert et minimum på tre grunnleggende elementer som utgjør en substantiv idé om verdighet. Først er det "ontologiske kravet", som sier at hvert menneske har en iboende verdi, kun ved å være menneske. Det andre er det "relasjonelle kravet", som innebærer at denne iboende verdien bør anerkjennes og respekteres av andre. Behandlingen av en person bør derfor være i tråd med respekt for denne verdien. Det tredje elementet er "kravet om en begrenset stat", som sier at staten bør eksistere for individets beste, og ikke omvendt.

McCrudden selv finner at verdighet kan være for vag i den forskjellige kontekstuelle betydningen den kan få, men han er enig med Clapham i at det finnes fire verdier som står nært knyttet til verdighet: (1) forbudet mot umenneskelig behandling, ydmykelse eller degradering; (2) muligheten for individuell valg og selvrealiseringsbetingelser; (3) beskyttelsen av gruppeidentitet og kultur som et middel for å bevare personlig verdighet; (4) å skape nødvendige betingelser for å tilfredsstille individuelle behov.

Gitt disse potensielle truslene mot menneskelig verdighet, kan vi foreslå en "tett" tolkning av artikkel 6 i EMRK, styrt av prinsippet om menneskelig verdighet. Denne tolkningen bør: (1) anerkjenne den iboende verdien av alle som møter for en domstol, og sikre at de behandles som unike individer, ikke bare som datapunkter; (2) garantere meningsfull deltakelse i rettsprosessen, inkludert muligheten til å bli virkelig hørt og forstått; (3) sikre at avgjørelser tas med genuin forståelse av den menneskelige konteksten, inkludert kulturelle og personlige faktorer; (4) opprettholde åpenhet og forklarbarhet i beslutningsprosessen, slik at enkeltpersoner kan forstå og eventuelt utfordre de underliggende resonnementene; (5) bevare moralsk ansvarlighet i rettssystemet, og anerkjenne at rettferdighet er et menneskelig konsept som krever menneskelig forståelse og ansvar.

Med dette som bakgrunn kan vi argumentere for at en verdighetinformert tolkning av artikkel 6 i EMRK implicit sikrer retten til en menneskelig dommer. Denne tolkningen anerkjenner at kjernen i en rettferdig rettssak, som det er tenkt i EMRK, er avhengig av menneskelig skjønn, empati og forståelse – elementer som ikke fullt ut kan replikeres av AI-systemer.