Generativ kunstig intelligens (KI) fremstår ikke lenger som et teknologisk eksperiment, men som et strukturerende prinsipp som begynner å trenge inn i rettens kjerneområder. Fra å være et emne for teknologientusiaster, har generativ KI blitt en sentral aktør i juridisk praksis, rettslig regulering og global rettsutvikling. De juridiske spørsmålene som teknologien reiser, er ikke begrenset til hypotetiske scenarier, men utgjør allerede konkrete utfordringer for lovgivere, domstoler og advokatfirmaer.

Det er nødvendig å forstå at generativ KI, i motsetning til tidligere bølger av digital teknologi, ikke bare endrer hvordan informasjon behandles eller lagres, men hvordan normer produseres, hvordan ansvar allokeres, og hvordan rettferdighet tenkes og praktiseres. Håndboken fra Cambridge posisjonerer generativ KI som både en juridisk utfordring og et reguleringsobjekt, men også som en aktør med evne til å forme rettens fremtid.

Innledningsvis reises spørsmålet om teknologisk grunnlag og samfunnsmessig virkning. Generativ KI opererer gjennom store språkmodeller og nevrale nettverk som genererer tekst, bilder og beslutningsforslag uten menneskelig veiledning. Denne autonomien problematiserer klassiske forestillinger om aktørskap og ansvar. Teknologien produserer ikke bare innhold – den simulerer menneskelig kommunikasjon, og dermed også normative strukturer. Dette har dype konsekvenser for rettsforståelsen i alt fra kontraktsrett til strafferett.

På tvers av jurisdiksjoner utvikles det ulike regulatoriske modeller, og del to av verket kartlegger hvordan reguleringsinitiativer som EUs AI-forordning (AI Act) forsøker å definere hva som er tillatt, påkrevd og forbudt. Her pekes det på den iboende spenningen mellom teknologisk innovasjon og rettslig forutsigbarhet. Spesielt fremheves ansvarsplassering ved bruk av såkalte foundation models, som er kjernen i generativ KI-systemer. Både EU og USA sliter med å finne juridiske strukturer som både fremmer innovasjon og ivaretar offentlig interesse. Det som i dag er et spørsmål om lovgivning, kan i morgen bli et spørsmål for høyesterett.

Den tredje delen av håndboken behandler generativ KIs konkrete konsekvenser for spesifikke rettsområder. Ikke-diskriminering, personvern og opphavsrett blir her testet mot en teknologisk virkelighet hvor algoritmisk produksjon og vurdering ikke lenger kan skilles fra menneskelig beslutningstaking. Spørsmål om datakvalitet, bias og transparens går hånd i hånd med utfordringer knyttet til eierskap og ansvarlighet. For eksempel stiller generativ KI nye spørsmål til opphavsretten: Hvem eier resultatet av en KI-generert tekst eller et bilde? Er det brukeren, utvikleren eller ingen av dem?

I tillegg ser man en fremvekst av såkalt "privat regulering", der store teknologiselskaper utvikler egne vilkår og standarder for bruk og utvikling av KI. Dette forskyver rettens domene fra offentlig normsetting til kontraktsbaserte rammer, hvor maktbalansen mellom partene ofte er skjev. Samtidig viser håndboken hvordan slike private reguleringsinitiativer kan fungere som forløpere til mer formell, statlig regulering – eller som måter å unngå den på.

Et særskilt viktig poeng er hvordan generativ KI allerede anvendes i juridisk praksis. I rettsvesenet testes bruk av språkmodeller for å utforme utkast til dommer, analysere bevismateriale og forutsi utfallet av rettssaker. I offentlig forvaltning ser vi forsøk på å bruke KI til å vurdere søknader, fatte vedtak eller klassifisere risiko. Dette reiser grunnleggende spørsmål om rettssikkerhet, rettferdighet og forholdet mellom menneske og maskin i beslutningsprosesser. Ettersom KI-systemer ofte opererer som "black boxes", uten forklarbar logikk, utfordres prinsippet om begrunnede avgjørelser og innsynsrett.

Det er også vesentlig å merke seg hvem som står bak denne kunnskapsproduksjonen. Redaktørene for verket – Mimi Zou, Cristina Poncibò, Martin Ebers og Ryan Calo – representerer en bred tverrfaglig kompetanse og har sentrale roller i utforming av både nasjonale og internasjonale reguleringsrammer. Dette gir håndboken autoritet, men også et klart signal om at rettens fremtid i møte med KI ikke er et akademisk spørsmål alene, men et politisk, etisk og institusjonelt anliggende.

Det må forstås at rettens møte med generativ KI ikke handler om én enkelt teknologi, men om et paradigmeskifte i hvordan vi produserer, tolker og anvender rettslige normer. Det er ikke lenger tilstrekkelig å betrakte teknologien som et objekt for regulering; den må forstås som en medprodusent av rettslig praksis. Dette krever en dyp og kontinuerlig refleksjon over rettens grunnlag, formål og grenser.

I tillegg til det som allerede er fremhevet i teksten, er det viktig for leseren å forstå hvordan generativ KI også potensielt forskyver maktbalansen mellom teknologiske aktører og juridiske institusjoner. Når store modeller kontrolleres av private selskaper med global rekkevidde, svekkes den nasjonale reguleringskapasiteten. Det blir derfor avgjørende å utvikle internasjonale rettsstrukturer og standarder som ikke bare regulerer teknologien, men også sikrer rettsstatens grunnprinsipper i en tid der beslutningsmakt forskyves til kodenivå. Samtidig må det bygges teknologisk og rettslig kompetanse hos både dommere, advokater og lovgivere – slik at rettens autonomi ikke går tapt i møte med algoritmisk autoritet.

Hvilket ansvar har leverandører og brukere av generativ AI for opphavsrettsinngrep?

I spørsmålet om ansvar for opphavsrettsinngrep ved bruk av generative AI-systemer, blir ansvarsfordelingen mellom leverandøren og brukeren langt mer kompleks enn i tradisjonelle tilfeller av kopiinnbrudd. Det første elementet i et brudd på opphavsretten, faktisk kopiering, innebærer vanligvis at en enkelt defendant skaffer tilgang til arbeidene til saksøker og deretter inkorporerer disse i sitt eget verk. I generative AI-systemer er denne prosessen imidlertid delt mellom to potensielt uavhengige parter, leverandøren og brukeren.

Leverandøren av AI-systemet har hatt den første tilgangen til saksøkerens verk og er ansvarlig for å skape muligheten for at systemet kan generere lignende output. Imidlertid er det ikke nok å bare skape forutsetningene for inngrep; direkte ansvar vil vanligvis ikke oppstå med mindre systemet har et begrenset spekter av potensielle utganger. Et generativt AI-system kan produsere et hvilket som helst antall verk som kan etterspørres av en bestemt bruker, hvorav de fleste ikke vil være brudd på opphavsretten i det hele tatt. På denne måten er generative AI-systemer mer å sammenligne med en kopibutikk enn et kabelsystem.

Kopibutikker kan være indirekte ansvarlige for opphavsrettsinngrep begått av kundene sine, dersom de møter kravene for indirekte ansvar, men de er ikke direkte ansvarlige med mindre butikkens ansatte utfører kopieringen. Selv om leverandørens ansatte bevisst har valgt å inkludere visse materialer i treningsdataene, vil de ikke ha utøvd noen form for vilje i å generere spesifikke utganger. Brukeren av et AI-system kan også ha begrenset involvering i å lage en substansielt lik utgang. Selv om det er brukerens prompt som får utgangen til å bli generert, kan denne prompten være veldig enkel og kanskje ikke inneholde noen referanse til det opprinnelige verket eller forfatteren. I et slikt tilfelle vil den opprinnelige kopieringen fra saksøkerens verk være helt et resultat av leverandørens handlinger, mens viljen til å produsere en lignende utgang vil være et resultat av brukerens handlinger.

Verken leverandøren eller brukeren har derfor utøvd vilje til å produsere en liknende utgang. Patentlovgivning, i motsetning til opphavsrettslovgivning, har en doktrine om felles inngrep, men selv dette ville ikke etablere direkte ansvar her, med mindre det forelå en form for avtale eller koordinering mellom leverandøren og brukeren. Det har vært tilfeller hvor saksøkerens verk har kommet til den tiltalte gjennom en lang og tilfeldig rekke hendelser, og domstolene har funnet at slike årsakskjeder har vært tilstrekkelige for å etablere tilgang fra den tiltalte. Men selv i slike tilfeller har den tiltalte til slutt mottatt en kopi av saksøkerens verk, og deretter inkorporert det i sitt eget. I tilfelle med generative AI mottar ikke brukeren det opprinnelige verket fra saksøker, men mottar i stedet en generert utgang som er basert på AI-modellens opplæring.

En bruker som bevisst har bedt AI-systemet om å generere en utgang som er lik et kjent opphavsrettsbeskyttet verk, kan bli ansett som ansvarlig for å hente ut lignende uttrykksfulle elementer fra modellen og dermed for både kopieringen og viljen til å lage en lignende utgang. Bortsett fra denne teorien vil det eneste mulige ansvaret for generative AI-systemer være for kopierte treningsdata. Selv om disse dataene ved første øyekast kan være et brudd på opphavsretten, kan brukerens generering kvalifisere som rettferdig bruk, men det er umulig å si noe sikkert på forhånd om sjansene for å lykkes med et forsvar. Dette vil helt avhenge av hvordan utgangen ble brukt.

En bilde generert fra et portrettbilde og brukt som illustrasjon i et nettmagasin, vil være svært usannsynlig å kvalifisere som rettferdig bruk. Derimot vil humoristiske tekster generert for å følge en kjent sang sannsynligvis kvalifisere som rettferdig bruk. Det finnes også muligheten for at, selv om det ikke er direkte ansvar for substansielt like utganger, kan brukeren indirekte være ansvarlig for direkte brudd på opphavsretten begått av AI-leverandøren, som nevnt tidligere. Dette er av teoretisk interesse, men sannsynligheten for indirekte ansvar blant individuelle brukere

Hvordan reguleres AI-drevne plattformer og kommersiell praksis i EU?

I EU har det blitt lagt frem flere tiltak for å håndtere utfordringene som oppstår når generativ kunstig intelligens (GenAI) blir brukt i kommersielle sammenhenger, spesielt på digitale plattformer. Teknologiselskaper integrerer stadig mer avansert AI i sine produkter, som for eksempel Adobe Photoshop, Google’s Gemini, Microsoft LinkedIn og Samsungs Galaxy S24. Denne utviklingen har ført til et behov for mer regulering, både for å beskytte forbrukere og for å sikre rettferdig konkurranse på nett.

EU har anerkjent at AI-drevne systemer kan ha en subtil, men betydelig påvirkning på forbrukernes beslutningstaking. Dette skjer gjennom algoritmer som kan manipulere hvordan informasjon blir presentert for forbrukeren, for eksempel i søkeresultater eller på markedsplasser. Dette gjør det nødvendig med regler som gir forbrukerne innsikt i hvordan algoritmer fungerer, og hvordan anbefalinger blir generert. For eksempel krever Digital Services Act (DSA) at plattformer skal informere brukerne om hvordan deres anbefalingssystemer opererer, inkludert hvilke faktorer som påvirker innholdets prioritering. Målet er å gi brukeren kontroll og forståelse over hvordan hypersuasion, eller overdrevet manipulasjon, kan påvirke deres digitale erfaringer.

I tillegg pålegger DSA plattformer ansvar for å motvirke skadelig innhold, som hatprat eller terrorpropaganda, som kan bli forsterket av algoritmer som er designet for å maksimere brukerengasjement. Dette er en viktig del av EU’s tilnærming til å sikre en trygg og rettferdig digital arena, hvor plattformenes makt ikke blir misbrukt til å favorisere egne produkter og tjenester, noe som kan hindre innovasjon og forvride forbrukernes valg.

Videre fremmer EU et risikobasert rammeverk for regulering av AI gjennom Artificial Intelligence Act (AIA), som legger strenge krav på utviklere og leverandører av generativ AI. AIA omfatter blant annet at leverandører må gjennomføre kontinuerlige risikoanalyser, ha robust datahåndtering, og sørge for at alle AI-modeller som er i bruk er testet for å unngå skadelige konsekvenser. Denne lovgivningen stiller også krav om at AI-leverandører skal dokumentere sine modeller grundig og tilby innsyn i datagrunnlaget og ressursene som har vært brukt til utviklingen.

Et av de mest krevende aspektene ved reguleringen av AI i kommersiell sammenheng er å beskytte brukerens personvern. AI-systemene som benyttes på dagens plattformer, samler inn omfattende brukerdata, som ikke bare inkluderer eksplisitte handlinger som klikk og kjøp, men også mer subtile signaler som surfemønstre og til og med emosjonelle responser. Denne dyptgående innsamlingen av data kan føre til personvernsbrudd og svekke tilliten mellom plattformer og brukere.

Et annet kritisk område er plattformenes rolle som såkalte "digitale portvoktere", som kan utnytte sin markedsposisjon til å favorisere egne produkter, som nevnt i DSA. Dette kan føre til en konkurransevridning og hindre forbrukere i å ta velinformerte valg, ettersom algoritmene kan prioritere visse produkter over andre, selv om de ikke nødvendigvis er de beste eller mest relevante for brukeren.

GenAI og plattformer som benytter denne teknologien utfordrer dermed både lovgivere og brukere. Lovgivning som DSA og AIA er et viktig skritt i å sikre at teknologien brukes på en ansvarlig måte, men den stadig utviklende naturen av AI-teknologi gjør at det er nødvendig med kontinuerlig tilpasning av lovverket. Dette vil være avgjørende for å balansere innovasjon og beskyttelse av forbrukeren.

Det er viktig å forstå at selv om lovgivningen har gjort store fremskritt, er det fortsatt mange utfordringer knyttet til reguleringen av AI-drevne plattformer. Forbrukere må være bevisste på hvordan deres data samles inn og brukes, og de bør være kritiske til hvordan informasjon blir presentert for dem på digitale plattformer. Dette inkluderer både hvordan søkeresultater vises og hvordan produkter blir anbefalt basert på tidligere interaksjoner. Transparens og ansvarlighet er nøkkelord i den videre utviklingen av disse reglene, og forbrukerne spiller en viktig rolle i å kreve større innsyn og rettferdighet i digitale tjenester.

Hvordan utviklingen av generativ kunstig intelligens utfordrer lovgivning, etikk og økonomi

I kapittel 2 undersøker Zijie Huang, en annen datavitenskapsmann, de siste fremskrittene i utviklingen av ulike generative AI-modeller og deres anvendelser de siste årene. Huang legger stor vekt på viktigheten av å utvikle pålitelig og ansvarlig generativ AI, og understreker behovet for å balansere innovasjon med etiske hensyn. Dette temaet om etikk blir ytterligere belyst i kapittel 3 av Ludovica Paseri og Massimo Durante, som foreslår en dobbel tilnærming til analysen av generativ AI sin påvirkning: normativ og epistemologisk. Deres analyse avdekker den komplekse samspillet mellom hvordan generativ AI fungerer og dens bredere samfunnsmessige implikasjoner, særlig i forhold til juridisk epistemologi. Et annet viktig aspekt som fremkommer er potensialet for misbruk og manipulering.

I kapittel 4 presenterer Stefano Faraoni en klar advarsel om de enestående evnene generativ AI har innen beregningsmessig manipulering. Faraoni kritiserer de eksisterende svakhetene i EU-lovgivningens rammeverk for å beskytte individets autonomi mot de stadig mer sofistikerte AI-drevne manipulasjonene. De økonomiske implikasjonene av generativ AI blir utforsket i kapittel 5 av Jerome De Cooman, som anvender et darwinistisk perspektiv for å undersøke mulige markedsforvrengninger i kunstverdenen. Dette perspektivet fremhever hvordan generativ AI kan føre til en ‘unaturlig seleksjon’ i kreative markeder, og potensielt underminere menneskelige kunstnere samt tradisjonelle begreper om opphavsrett og verdi. Disse bidragene i del I avslører den tverrfaglige naturen av utfordringene som generativ AI reiser. Fra datavitenskap og etikk til økonomi og jus, krever håndteringen av teknologiens implikasjoner en helhetlig tilnærming som trekker på ulike ekspertiseområder.

I del II utforskes de ulike tilnærmingene til regulering og styring av generativ AI på nasjonalt og internasjonalt nivå, samt industriregulering og de utfordringene de medfører. I kapittel 6 undersøker Ugo Pagallo reguleringen av generativ AI, foundation AI og store språkmodeller (LLMs) innenfor rammen av EUs AI-lov. Pagallo fremhever flere potensielle risikoer knyttet til disse teknologiene, inkludert diskriminering, informasjonshazarder og miljøskader. Han påpeker også begrensningene i dagens reguleringsforsøk, inkludert spørsmål om konkurranseevne, juridisk usikkerhet og behovet for hyppige revisjoner for å følge med på teknologiske fremskritt. Dette temaet blir videreutviklet i kapittel 7 av Teresa Rodriguez de las Heras Ballell, som kartlegger ansvarssaker knyttet til generativ AI innenfor EUs juridiske rammeverk. Ballells analyse fokuserer på å teste ansvarreglene i det foreslåtte direktivet om kunstig intelligens og det reviderte produktansvarsdirektivet, og vurderer deres tilstrekkelighet og effektivitet i møte med utfordringene generativ AI representerer.

Et sentralt punkt i kapittel 8 av Peter Henderson er utfordringen med å etablere klart ansvar for utviklere og brukere av foundation-modeller. Henderson peker på vanskelighetene med å oppfylle kravene til vitende handling (scienter) og skape bevis under mange eksisterende lover i amerikansk rett. Han trekker også frem potensielle grunnlovsbeskyttelser for AI-generert tale og muligheten for juridiske utfordringer mot regulatoriske myndigheters myndighet over AI-systemer. I kapittel 9 gir Lu Zhang og Mimi Zou innsikt i Kinas regulering av generativ AI, der de fremhever spenningen mellom å håndtere potensielle risikoer og fremme industriell vekst. Forfatterne analyserer nøye bestemmelsene i Kinas vertikale midlertidige forskrifter for styring av generativ AI-tjenester, som primært retter seg mot innholdssikkerhet og risiko, samtidig som de prøver å stimulere industrivekst. I kapittel 10 beskriver Jason Grant Allen og Jane Loo Singapore sin utviklende AI-styringsrammeverk, hvor de beskriver landets “myke tilnærming”, som vektlegger samarbeid mellom regjering og industri, klare ansvarsstrukturer og viktigheten av offentlig tillit til AI. Forfatterne fremhever Singapores proaktive holdning til utviklingen av initiativer som AI Verify Toolkit og deltakelse i internasjonale samarbeid.

Internasjonalt samarbeid om generativ AI-styring er temaet i kapittel 11 av Hiroki Habuka og David U. Socol de la Osa. De analyserer G7s Hiroshima AI-prosess og det resulterende omfattende politiske rammeverket som et betydelig skritt mot internasjonal enighet om prinsipper for beskyttelse av individuelle rettigheter og økt tillit til AI-systemer. I kapittel 12 ser Sebastian Hallensleben på rollen til internasjonal standardisering i generativ AI-styring, og forholdet mellom regulering og standardisering i EU. Hallensleben noterer at selv om AI-standardiseringsarbeidet er godt i gang, er det spesifikke arbeidet med standarder for generativ AI fortsatt i tidlige faser. Han foreslår potensielle områder for fremtidig standardisering, inkludert testmetoder, ytelsesmål og standarder for merking av AI-generert innhold.

Kapittel 13 flytter fokuset fra offentlig regulering til privat orden, og utforsker selvregulering i landskapet av generativ AI. Forfatterne, Igor Szpotakowski, Joséphine Sangaré, Lilian Edwards, Gabriele Cifrodelli og James Stewart, undersøker vilkår og betingelser, personvernspolicyer og andre instrumenter som benyttes av modelltilbydere for å styre sitt forhold til brukerne. Kapittelet fremhever et vanlig paradigm der leverandører fraskriver seg eierskap av output, samtidig som de unngår ansvar, og posisjonerer seg som ‘nøytrale mellomledd’, på en måte som minner om tidligere diskusjoner om plattformregulering. Bidragene i del II peker på nødvendigheten av tilpassede reguleringsmetoder gitt den raske teknologiske utviklingen og den globale naturen til utvikling og implementering av generativ AI. Analysene av ulike nasjonale tilnærminger (USA, Kina, Singapore) og multilaterale innsats (EU, G7) understreker behovet for koordinert global styring.

Et gjennomgående tema i kapitlene er at generativ AI utfordrer eksisterende juridiske rammeverk på flere nivåer. Det er ikke bare spørsmål om teknologisk utvikling, men også om hvordan lovgivning kan utvikles for å adressere de raske endringene i AI-teknologi. Å oppnå et rettferdig forhold mellom innovasjon og etikk, samtidig som man sikrer at de økonomiske, juridiske og sosiale konsekvensene håndteres på en ansvarlig måte, krever samarbeid på tvers av landegrenser og mellom ulike disipliner.