Opphavsrett krever menneskelig forfatterskap, og dette kravet ble i 2023 også anvendt på verk generert av kunstig intelligens (KI). I en rekke avgjørelser fra og med 2022 har det amerikanske opphavsrettskontoret (Copyright Office) nektet registrering av verk hvor det mente at KI-generert materiale ikke var tilstrekkelig oppgitt. Dette synet har fått kritikk, men er likevel et forsvarlig standpunkt når man vurderer opphavsrettens omfang. Opphavsretten er unikt forfatterorientert sammenlignet med andre immaterielle rettigheter, noe som betyr at identiske verk kan behandles ulikt basert på tilknytningen til den påståtte forfatteren.

Verk som er laget helt eller nesten helt av automatiserte prosesser, og som dermed ikke formidler menneskelige tanker eller uttrykk, kan ikke forsvares som opphavsrettsbeskyttede. Slike verk anses som naturobjekter og bør forbli i det offentlige domene, selv om de ikke kan skilles fra menneskeskapte verk på overflaten.

Den største utfordringen ligger i å trekke en klar grense mellom hva som kan anses som menneskelig forfatterskap og hva som er ren maskinproduksjon. En bruker som gir et kort, generelt prompt til en KI, for eksempel «skriv en historie om en pingvin som er cowboy», har bidratt minimalt utover en idé. Men dersom prompten er svært detaljert eller består av en lang serie instruksjoner, kan dette faktisk utgjøre en form for forfatterskap. I tillegg kan brukerens etterfølgende redigeringer av KI-generert materiale nå et nivå som i seg selv er opphavsrettsbeskyttet.

Når KI-systemer fungerer som verktøy som assisterer menneskelig skapelse, bør resultatet kunne oppnå opphavsrett, på samme måte som fotografier tatt av en kunstnerisk arrangert scene kan ha opphavsrettslig vern. Skillet mellom et verktøy under menneskelig kontroll og en ren KI-produksjon er imidlertid svært uklart. Opphavsrettskontoret har gitt retningslinjer der de vurderer om en KI-teknologi har bestemt de uttrykksmessige elementene i verket, eller om resultatet skyldes forfatterens egen mentale oppfatning og uttrykk. Svaret vil alltid avhenge av omstendighetene i hvert enkelt tilfelle.

Noen juridiske eksperter har foreslått at man bør identifisere kilden til de kreative valgene i verket, en analyse som kan sammenlignes med det kompliserte prinsippet om årsakssammenheng i erstatningsrett. Opphavsrettskontoret søker nå innspill på hvordan disse problemstillingene knyttet til KI bør håndteres. Denne saksbaserte tilnærmingen med uklare standarder er imidlertid tungvint å gjennomføre, særlig når man må avgjøre om verket stammer fra forfatterens originale mentalitet i over hundre saker.

For å lette denne byrden har kontoret lagt ansvaret på registranten for å oppgi KI-generert innhold og forklare den menneskelige forfatterens bidrag. Likevel forventes det mange tvister både ved registrering og i rettssaker fremover.

Når det gjelder fremtiden, mangler fortsatt klarhet i spørsmål om både opphavsrett og krenkelse knyttet til KI-genererte verk. Lovgivningen har tradisjonelt kommet sent i møte med teknologiske endringer, og det er sannsynlig at en fullstendig løsning heller vil komme gjennom rettspraksis og gradvis utvikling enn ved rask lovgivning. Et særlig problem er hvordan man skal håndtere tilfeller hvor KI-verktøy gjenskaper kopier som ligner sterkt på verk i treningsdataene. Leverandører av KI-systemer bør ha insentiver til å minimere slike kopier, uten at dette skaper uoverkommelige rettslige barrierer.

Et annet sentralt spørsmål er hvordan man skal forholde seg til opphavsrettens antakelse om vern for de minste kreative verk. Dersom slike verk lett kan genereres av KI, vil fordelene ved enerett minske, mens kostnadene for rettighetsforvaltning og håndheving vedvare. Å skille menneske- og KI-genererte verk kan bli en krevende og kostbar oppgave.

Det er viktig å forstå at opphavsrettens kjerne ligger i menneskets kreative intensjon og uttrykk. Teknologiske hjelpemidler som KI utfordrer denne kjernen ved å flytte mye av skapelsesprosessen til maskiner. Likevel må vurderingen fortsatt hvile på om menneskelig kreativ kontroll er tilstede. For leseren er det sentralt å gripe kompleksiteten i dette samspillet, hvor rettslige rammer, teknologisk utvikling og kreative prosesser overlapper, og at klare svar ennå ikke foreligger.

Hvordan Singapores nasjonale AI-strategi former fremtiden for kunstig intelligens

Singapores tilnærming til kunstig intelligens (AI) er et eksempel på hvordan en nasjon kan navigere gjennom utfordringene og mulighetene som følger med denne teknologiske revolusjonen. Med sitt ambisiøse mål om å bli verdensledende innen AI og skape et "Smart Nation", har Singapore utviklet en nasjonal AI-strategi som er både omfattende og fremtidsrettet. Denne strategien er ikke bare et rammeverk for teknologisk utvikling, men også et nøkkelverktøy for å sikre at bruken av AI skjer på en etisk og ansvarlig måte.

Singapores første nasjonale AI-strategi (NAIS 1.0), som ble formulert i 2019, fokuserte på tre hovedmål: å utvikle Singapore som et globalt knutepunkt for AI-innovasjon, å skape nye forretningsmodeller som kan forbedre menneskers velferd, og å forberede arbeidsstyrken på den digitale økonomiens utfordringer. Denne strategien var grunnlaget for et helhetlig digitalt transformasjonsprosjekt, med mål om å fremme AI i sektorer som helsevesen, utdanning og digital handel. Gjennom nasjonale AI-prosjekter og et økosystem bestående av forskning, industri og myndigheter, ble det lagt grunnlaget for et bærekraftig AI-miljø.

I 2023 ble NAIS 1.0 oppdatert til NAIS 2.0, som bygger videre på den samme visjonen, men med et sterkere fokus på offentlig velferd, global konkurranseevne og utvikling av et robust AI-økosystem. I denne oppdaterte strategien er det en tydelig vekt på å fremme et samfunn der både tekniske eksperter og vanlige AI-brukere er forberedt på den nye digitale virkeligheten. NAIS 2.0 inkluderer tre "systemer", ti "muliggjørere" og femten "handlinger", som sammen beskriver de konkrete tiltakene som skal fremme utviklingen av AI i Singapore.

Det første systemet, "Aktivitetsdrivere", omhandler samspillet mellom industri, myndigheter og forskningsmiljøer, som alle må samarbeide for å utnytte AI på meningsfulle måter. Her understrekes viktigheten av å bruke eksisterende teknologiske kapabiliteter for å løse samfunnsutfordringer. Det andre systemet, "Folk og samfunn", legger vekt på talentutvikling og skaping av et inkluderende AI-miljø der både forskere og ingeniører kan bidra til nye løsninger. Det tredje systemet, "Infrastruktur og miljø", fokuserer på å sikre at Singapore har nødvendig infrastruktur og et pålitelig miljø for AI-innovasjon, noe som gjør landet til en attraktiv destinasjon for AI-utvikling og -implementering.

En av de viktigste dimensjonene ved Singapores AI-strategi er dens vektlegging av samfunnsverdier som rettferdighet, ikke-diskriminering og menneskesentrering. Dette er prinsipper som skal bidra til å minimere risikoene ved AI, samtidig som man integrerer teknologiene på en måte som ivaretar viktige offentlige interesser og opprettholder samfunnets tillit. Singapore har også vært tidlig ute med initiativer for å regulere AI, og deres modellrammeverk for AI-governance, som ble lansert i 2019, setter standarden for hvordan AI bør styres i en innovasjonsvennlig kontekst. Dette rammeverket legger til rette for både et åpent forretningsklima og et minimumsnivå av etiske standarder som alle AI-løsninger bør overholde.

I et globalt perspektiv har det vært en kraftig økning i antallet etiske retningslinjer og styringsdokumenter for AI, særlig etter 2016, da kun ett land (USA) og en enkelt bedrift hadde etablert slike dokumenter. Innen 2021 var dette tallet flere titalls, og i 2023 ble det anslått at mer enn 200 etiske retningslinjer for AI var publisert av offentlige myndigheter, akademiske institusjoner, private selskaper og sivilsamfunnsorganisasjoner verden over. Singapore har derfor hatt en tidlig og viktig rolle i å etablere normer for hvordan AI bør styres, og har på denne måten styrket sin posisjon som et globalt senter for AI-utvikling.

Det er viktig å merke seg at Singapores tilnærming ikke nødvendigvis innebærer en vei mot streng regulering av AI, som sett i andre jurisdiksjoner, som EU. I stedet fokuserer Singapore på å bygge et tillitsfullt og samarbeidsorientert AI-økosystem, der både myndigheter, industri, akademia og det internasjonale samfunnet spiller en rolle i utviklingen og implementeringen av teknologi. Dette inkluderer å oppfordre til datadeling, fremme partnerskap og støtte entreprenører som jobber med AI-løsninger. Det er gjennom disse tiltakene at Singapore ønsker å balansere innovasjon med ansvar, og sikre at AI-teknologiene gagner samfunnet som helhet.

I tillegg til de teknologiske og etiske aspektene ved AI-strategien, er det også viktig å forstå at Singapores nasjonale AI-initiativ er tett knyttet til landets bredere visjon om økonomisk utvikling og samfunnsmessig fremgang. Ved å fremme et AI-baserte samfunn, håper Singapore å kunne styrke sin globale konkurranseevne, forbedre livskvaliteten for innbyggerne og skape et mer inkluderende og rettferdig økonomisk landskap. Dette krever en kontinuerlig tilpasning av politiske rammeverk, utdanningssystemer og industrielle praksiser for å imøtekomme de stadig skiftende kravene og utfordringene som følger med den raske utviklingen av AI.

Hvordan generativ AI påvirker rettslige anvendelser: Evaluering, risiko og muligheter

Generativ AI, og spesielt store språkmodeller (LLM), har fått betydelig oppmerksomhet de siste årene, ikke bare innen teknologi, men også i mange profesjonelle og kreative sektorer. Når vi ser på applikasjoner av generativ AI i rettsvesenet, kommer det tydelig frem at teknologien både kan ha stor nytteverdi og innebære betydelige utfordringer. Det finnes allerede spesialiserte benchmarks som har blitt utviklet for å vurdere prestasjonen til AI-modeller i juridiske oppgaver, som LawBench, som tester juridisk kunnskap, og LegalBench, som vurderer evnen til juridisk resonnering. Disse testene er utformet for å evaluere modellenes nøyaktighet og beslutningsevne når det gjelder spesifikke juridiske spørsmål. Men til tross for at benchmarking har blitt en vanlig metode for å vurdere LLM-applikasjoner, er det fortsatt mange begrensninger i de verktøyene som er tilgjengelige i dag.

En viktig utfordring er at dagens benchmarks ikke kan sammenlignes med de strenge og standardiserte testene som finnes i andre teknologiske sektorer, som luftfart eller bilindustri. Dette innebærer at juridiske applikasjoner av generativ AI ikke er underlagt de samme rigorøse standardene for pålitelighet og sikkerhet. Forskjellige benchmarks har ofte blitt utviklet av forskere, og kan dermed være mindre representative for det bredere juridiske fellesskapet. Dette skaper et behov for en mer systematisk og global tilnærming til testing og evaluering av generativ AI, som kan bidra til å sikre at disse teknologiene fungerer som forventet i alle relevante juridiske kontekster.

Et annet sentralt problem er risikoen for feilinformasjon eller såkalt "hallusinasjon". Dette refererer til situasjonen der en stor språkmodell genererer informasjon som virker troverdig, men som i virkeligheten er helt oppdiktet. Dette er et problem som kan få store konsekvenser, spesielt i juridiske sammenhenger, hvor korrekthet og presisjon er avgjørende. Når en AI-modell presenterer informasjon som ser ut som fakta, men som viser seg å være feil, kan det føre til alvorlige konsekvenser i dommer eller rettslige beslutninger.

Videre er det også et problem knyttet til datasikkerhet og konfidensialitet. Når brukere sender inn data til en generativ AI, må de være klar over at deres input kan bli synlig for organisasjonen som leverer AI-tjenesten. Selv om innholdet i promptene kanskje ikke blir direkte inkorporert i modellens læringsparametere, kan det lagres og brukes i fremtidig utvikling av tjenesten. Det er også en risiko for at data kan bli "memorisert" i modellen, hvor spesifikke tekstbiter brukt i treningen kan trekkes ut nærmest ordrett. Dette kan ha juridiske implikasjoner, både når det gjelder personvern og intellektuell eiendom.

For å redusere risikoen for hallusinasjon har det blitt utviklet metoder som kombinerer generativ AI med dokumenthenting fra pålitelige databaser, kjent som "retrieval-augmented generation" (RAG). Denne tilnærmingen sørger for at resultatene av AI-generert tekst blir forankret i verifiserbare kilder. Andre systemer kombinerer generativ AI med symbolsk AI, som beslutningstrær, for å håndtere noen av de iboende begrensningene ved statistisk AI alene. Ved å benytte slike hybride systemer kan man potensielt gjøre AI mer presis og pålitelig.

Det er også viktig å merke seg at det finnes mindre, spesialiserte språkmodeller som kan være mer effektive for bestemte applikasjoner, samtidig som de er mindre kostbare og energikrevende enn de store modellene. Dette åpner for muligheter i spesifikke juridiske sektorer hvor en høy grad av presisjon er nødvendig, men hvor ressursene er begrensede.

Sikkerhet og konfidensialitet er også en nøkkelutfordring. Selv om private systemer og interne løsninger basert på åpne modeller kan bidra til å beskytte data, er det fortsatt uklart hvordan utviklingen på dette området vil påvirke bruken av generativ AI i sensitive bransjer som jus, helsevesen og finans.

Det er klart at utviklingen av generativ AI har potensial til å omforme mange aspekter av samfunnet, inkludert det juridiske feltet. Teknologien kan både forbedre effektiviteten og kvaliteten på juridisk arbeid, men det er viktig å være klar over de etiske og tekniske utfordringene som følger med bruken. Å forstå både mulighetene og risikoene ved generativ AI er essensielt for å kunne navigere i denne nye teknologiske virkeligheten, spesielt når det gjelder rettssektoren, som er fundamentalt basert på pålitelighet, sannhet og rettferdighet.