Upphovsrätten och dess anpassning till teknologiska framsteg har länge varit en utmaning för lagstiftare och domstolar. Denna kamp mellan att skydda skapande och att främja teknisk innovation är långt ifrån ny. Genom historien har teknologier som fotografering, grammofoner, videobandspelare och peer-to-peer fildelning testat upphovsrättens förmåga att hantera disruptiva förändringar. Med den nya vågen av generativ AI ställs dock en ännu större fråga: är upphovsrättens grundprinciper fortfarande tillräckliga för att möta de snabba tekniska förändringarna?

I denna kontext står japansk upphovsrätt lagstiftning ut, inte nödvändigtvis för att den skapar helt nya rättsliga koncept, utan för att Japan har blivit känt för att införliva internationella rättsliga normer med nödvändiga anpassningar till sin egen kulturella och ekonomiska kontext. Detta har lett till att landet har utvecklat särskilda undantag och begränsningar inom upphovsrätten för att hantera användningen av stora datamängder och avancerad teknik. Ett tydligt exempel på detta är introduktionen av undantag för text- och datamining (TDM), som har gett Japan en ledande roll i att definiera upphovsrättens gränser i en digital tidsålder.

Från och med 2009 och 2012 infördes särskilda bestämmelser i Japans upphovsrättslag för att tillåta viss användning av upphovsrättsskyddat material för utveckling av informationsteknik och kommunikationsteknik. Dessa bestämmelser var ursprungligen begränsade, men i takt med att behovet av mer flexibilitet i lagstiftningen växte, särskilt för att främja användningen av AI och digital teknologi, vidtogs ytterligare åtgärder. Den japanska regeringen införlivade mer generella undantag för att möjliggöra större användning av upphovsrättsskyddat material i tekniska och datadrivna sammanhang.

En särskilt intressant aspekt är införandet av tre flexibla bestämmelser som främjar användningen av upphovsrättsskyddat material i tekniska och vetenskapliga sammanhang, där syftet inte är att "njuta" av materialet utan att använda det i processer som dataanalys och teknikutveckling. Enligt Artikel 30-4 i den japanska upphovsrättslagen är det tillåtet att utnyttja verk för icke-njutningssyften, exempelvis vid utveckling av teknologi kopplad till ljud- och bildinspelning eller vid databehandling där själva verket inte är i fokus utan snarare dess användning i en teknisk kontext.

Artikel 30-4 lyfter fram ett viktigt undantag: det är tillåtet att använda verk för databehandling, där materialet inte direkt upplevs av människans sinnen, vilket innebär att användningen av verk i exempelvis mjukvaruutveckling och andra tekniska tillämpningar kan ske utan att upphovsrätten åsidosätts. Detta undantag för databehandling och tekniska processer, särskilt när det gäller text- och datamining, är centralt för att förstå hur Japan har skapat ett rättsligt utrymme för innovativa teknologier som generativ AI.

Det är också viktigt att notera att dessa undantag är föremål för restriktioner. Enligt lagen får sådana handlingar inte otillbörligt skada upphovsrättsinnehavarens intressen, vilket innebär att det finns en balansgång mellan att främja teknisk innovation och att skydda kreativa rättigheter. Syftet med dessa undantag är att ge utrymme för utveckling av teknik som kan ge samhälleliga fördelar utan att på ett orimligt sätt begränsa upphovsrättsinnehavarnas rättigheter.

Vidare, medan dessa åtgärder har visat sig vara framgångsrika i Japan, väcker den ökande användningen av generativ AI och andra avancerade teknologier nya frågor om upphovsrättens tillämpning. En av de centrala frågorna som upphovsrättsliga regulatorer ställs inför är om användningen och bearbetningen av träningsdata för AI-modeller innebär ett intrång på upphovsrätten. Detta är en fråga som både Japan och Kina har börjat adressera, men där det fortfarande finns många oklarheter.

En annan fråga som uppstår är vem som egentligen äger upphovsrätten till det innehåll som genereras av AI. Om en AI skapar ett verk baserat på träningsdata, är det skaparen av AI-modellen som äger rättigheterna, eller är det de som tillhandahåller träningsdata, eller kanske till och med en tredje part som på något sätt påverkar processen? Detta är ett område där lagstiftningen är långt ifrån enhetlig och där både teknologiska framsteg och kulturella skillnader spelar en stor roll.

För den som studerar japansk upphovsrätt är det avgörande att förstå hur dessa undantag har utvecklats, och hur de svarar på den tekniska utvecklingens krav. Japans exempel kan fungera som vägledning för andra länder som söker balans mellan upphovsrätt och innovation i en digital värld. Samtidigt är det viktigt att vara medveten om att dessa lagstiftningar är i ständig förändring och att nya teknologier som generativ AI ställer krav på kontinuerlig anpassning av lagarna.

Hur kan stora språkmodeller användas för att identifiera och generera juridiska klausuler?

Stora språkmodeller (LLM) har visat sig vara mycket användbara i många områden, och en av de mest lovande tillämpningarna är inom rättslig textanalys och dokumentgenerering. Genom att tillhandahålla exempel på både lagliga och olagliga klausuler kan LLM:er tränas för att effektivt identifiera och kategorisera olika typer av klausuler, såsom begränsningar av ansvar eller jurisdiktionsbestämmelser. Denna process involverar att presentera en klausul följt av en uppmaning för modellen att klassificera klausulen som laglig eller olaglig, vilket gör det möjligt för modellen att lära sig skillnaderna mellan dessa. Exempelvis, en klausul som säger att ett företag kan ta bort innehåll som bryter mot deras användarvillkor, kan anses potentiellt orättvis om den inte specificerar tydligt vilka kriterier som gäller för sådan borttagning. Å andra sidan, en klausul som ger tjänsteleverantören fullständig diskretion att ta bort innehåll utan förvarning eller möjlighet för användaren att återställa det, anses klart orättvis.

Detta tillvägagångssätt kräver att modellen genomgår en iterativ förbättringsprocess där feedback från juridiska experter är avgörande. Om modellen felklassificerar en klausul, måste korrektiv feedback ges för att förklara varför klassificeringen var felaktig, vilket gör att modellen kan lära sig av sina misstag och bli mer exakt över tid. Vidare måste denna typ av specifikation av orättvisa klausuler uppdateras regelbundet för att ta hänsyn till nya rättsliga standarder och utmaningar.

För att testa modellens effektivitet kan promptbaserade tester användas, där modellen ska kunna bedöma en klausuls rättvisa genom att tillämpa klassiska utvärderingsmått som precision och återkallning. Exempel på en sådan testfråga kan vara: “Är denna klausul rättvis, potentiellt orättvis eller klart orättvis?” När modellen får en klausul att analysera, till exempel en som säger att företaget kan ta bort användarinnehåll om det anser att det strider mot deras villkor, kan den klassificera klausulen som potentiellt orättvis beroende på hur vaga och tolkbara villkoren är.

En fördel med att använda LLM:er är att de kan minska den tids- och arbetsintensiva fasen av att skapa stora träningsuppsättningar av märkta data, vilket annars krävs för mer traditionella NLP-metoder. Detta innebär att LLM:er kan erbjuda en effektivare lösning på rättsliga uppgifter. Samtidigt innebär den icke-deterministiska naturen hos LLM:er att de ibland ger olika svar på samma fråga beroende på hur prompten formuleras, vilket kan skapa osäkerhet i vissa fall. Denna aspekt gör det nödvändigt att noggrant finjustera modellerna för att säkerställa konsekventa och rättvisa resultat.

När det gäller dokumentgenerering, särskilt för kontrakt och sekretesspolicyer, är LLM:er också användbara, men deras tillvägagångssätt skiljer sig från uppgifterna om klassificering och analys. Här handlar det om att skapa en text som uppfyller specifika krav och regler. En användare kan till exempel ge modellen en lista med punkter som ska ingå i ett kontrakt, såsom de kategorier av data som ska behandlas eller syftet med behandling av personuppgifter. Modellen instrueras att skriva varje klausul på ett tydligt och icke-vagt sätt som följer specifika rättsliga föreskrifter.

För att säkerställa att den genererade texten uppfyller de juridiska kraven är det avgörande att juridiska experter granskar och justerar de automatiskt skapade dokumenten. Det finns en möjlighet för dessa experter att identifiera eventuella fel eller brister i modellen, såsom hallucinationer (felaktig eller irrelevant information) eller missade aspekter som inte inkluderats i texten. Därför kommer den juridiska expertisen fortfarande att spela en central roll i processen, även om själva dokumentgenereringen sker genom LLM.

Vid användning av LLM för att skapa eller redigera juridiska dokument, måste noggrant arbete göras för att säkerställa att varje detalj är korrekt och att modellen inte skapar innehåll som kan tolkas på ett sätt som inte överensstämmer med gällande lagar och regler. Modeller kan förbättras genom att kontinuerligt samla in feedback från både användare och experter, vilket gör att de kan finjusteras och utvecklas i takt med att nya rättsliga standarder och praktiker uppstår.

Hur utvecklas det internationella samarbetet för att reglera generativ AI?

Fältet för artificiell intelligens (AI) har under de senaste åren genomgått en period av exceptionell framsteg, och en av de mest omvälvande förändringarna är framväxten av generativ AI (GenAI). GenAI, som gör det möjligt för maskiner att skapa originaltexter, bilder, musik och kod med en otrolig sofistikering, har inte bara öppnat nya vägar för kreativt uttryck utan även för problem-lösning inom en mängd olika ekonomiska sektorer och industrier. Samtidigt har denna teknologiska utveckling väckt intensiva diskussioner om hur AI ska utvecklas och regleras på ett ansvarsfullt sätt.

En av de mest framträdande internationella initiativen på detta område är G7:s Hiroshima AI Process, som fokuserar på att skapa ett globalt ramverk för att säkerställa att utvecklingen av avancerad GenAI sker på ett ansvarsfullt sätt och med respekt för mänskliga rättigheter, demokrati och rättsstatens principer. I december 2023 lanserade G7-länderna ett omfattande policyramverk, som syftar till att skapa en gemensam internationell förståelse för hur avancerad GenAI ska utvecklas och användas på ett sätt som gynnar hela mänskligheten.

Denna utveckling har också varit ett resultat av den accelererade teknologiska framstegen som skett under 2020-talet, där GenAI blivit mer tillgängligt och enklare att använda, både för företag och individer. Genom molntjänster och gratisplattformar har barriärerna för att komma åt och använda dessa avancerade teknologier försvunnit. Resultatet är att vi ser en explosion av nya applikationer och användningsområden för GenAI, både inom stora företag och hos enskilda skapare.

Men den snabbväxande teknologin ställer också nya krav på den internationella samarbetsstrukturen och på hur vi kan säkerställa att dessa teknologier används på ett sätt som inte bara är effektivt och produktivt, utan också etiskt och ansvarsfullt. Den globala regleringen av GenAI har blivit en nödvändighet, och vi ser nu en strävan att skapa internationella samarbetsplattformar, där olika nationer och regioner kan enas om gemensamma riktlinjer och regler.

Ett viktigt steg i detta sammanhang var när Japan i maj 2024 lanserade Hiroshima AI Process Friends Group på OECD:s ministermöte. Denna initiativ, som stöds av 49 länder, främst medlemmar av OECD, har som mål att främja internationellt samarbete för att säkerställa en global tillgång till säker, pålitlig och säker GenAI.

Hiroshima AI Process omfattar fyra huvudsakliga delar: en rapport från OECD om en gemensam förståelse för GenAI, internationella riktlinjer för alla aktörer som utvecklar avancerade AI-system, en internationell uppförandekod för dessa aktörer, samt projektbaserat samarbete mellan länder och regioner. Det handlar inte bara om att skapa regler för hur teknologin ska utvecklas, utan också om att säkerställa att AI-systemen är transparenta, rättvisa och skyddar individers rättigheter.

Trots de teknologiska framstegen och de framgångar som uppnåtts på internationell nivå finns det fortfarande många utmaningar. Reglering av GenAI är en komplex process, där teknologin måste balanseras med värderingar som rättvisa, transparens, mångfald och rättsskydd. Det är också en fråga om hur vi kan utveckla system som inte bara är tekniskt avancerade, utan också etiskt hållbara och respekterar mänskliga rättigheter.

Det är också avgörande att förstå att det inte bara handlar om att skapa regler för själva teknologin, utan också om att hantera den mänskliga och samhälleliga dimensionen av GenAI. AI-system påverkar individer på många sätt, från deras arbete och privatliv till hur de konsumerar information och interagerar med olika system. Reglering av GenAI måste därför inkludera ett holistiskt perspektiv som tar hänsyn till dessa effekter och säkerställer att teknologin utvecklas på ett sätt som gynnar hela samhället.

För att möjliggöra ett effektivt och etiskt internationellt samarbete måste alla parter vara villiga att kompromissa och hitta gemensamma lösningar, samtidigt som de skyddar sina egna intressen och rättigheter. Detta innebär att fortsätta stärka de internationella institutionerna och skapa nya plattformar där länder kan diskutera och enas om hur AI ska styras på global nivå.