Generativ kunstig intelligens representerer en ny æra innen teknologi, hvor systemer som ChatGPT, DALL-E og Stable Diffusion har åpnet opp for revolusjonerende måter å produsere innhold på. Disse teknologiene har evnen til å skape tekst, bilder, lyd, video og kode basert på mønstre fra enorme mengder treningsdata, og de har allerede begynt å endre hvordan vi samhandler med digitalt innhold. Selv om tidligere AI-systemer var begrenset til oppgaver som bildeklassifisering eller talegjenkjenning, kan generative AI-er lage innhold som ofte er vanskelig å skille fra menneskeskapt arbeid. Denne evnen åpner for nye muligheter innen kreativt arbeid, vitenskapelig oppdagelse og sosial innovasjon, men samtidig introduserer den betydelige utfordringer for personvern.

Generativ AI forsterker eksisterende risikoer, samtidig som det skaper nye trusler mot personvernet. En av de mest presserende problemene er den store mengden data som blir hentet uten eksplisitt samtykke fra individene det gjelder. Dette kan føre til alvorlige personvernbrudd, som datalekkasjer og reidentifikasjon av personer, til tross for at dataene ble anonymisert tidligere. I tillegg gir generative AI-er muligheten til å lage syntetiske medier, som dype falske bilder eller videoer, som er så realistiske at de kan brukes til å spre desinformasjon eller manipulere offentligheten.

En annen alvorlig risiko ved generativ AI er inferensbasert profilering. Systemer som analyserer store datamengder kan trekke konklusjoner om enkeltpersoner, for eksempel ved å forutsi deres atferd eller preferanser, uten at individet er klar over dette. Dette kan ha vidtrekkende konsekvenser for personvernet, ettersom slike profiler kan brukes til målrettet reklame, politisk manipulasjon eller til og med sosial kontroll.

I tillegg fører bruken av generative AI-er til at eksisterende algoritmisk skjevhet forsterkes. Modeller som er trent på store datamengder, kan videreføre, eller til og med forsterke, eksisterende diskriminering og bias. Dette skaper ikke bare etiske utfordringer, men kan også føre til juridiske problemer, særlig når AI brukes til beslutningstaking i kritiske områder som ansettelse, kredittvurdering og rettssystemet.

De nåværende personvernreglene, spesielt i USA, er utilstrekkelige for å møte disse utfordringene. Lovgivningen er fragmentert og baserer seg i stor grad på prinsippene om informert samtykke og individuell valgfrihet, som er ineffektive i møte med de utfordringene generativ AI medfører. Å stole på at enkeltpersoner kan ta informerte valg om sin personlige data, når de ikke har oversikt over hvordan dataene deres brukes av avanserte algoritmer, er en tilnærming som ikke lenger er bærekraftig.

Videre finnes det mange unntak i lovverket som gjelder for åpne kildekodemodeller og generative AI-systemer, noe som gjør det vanskelig å sikre personvernet på en konsistent måte. I tillegg er det behov for mer robust regulering for å beskytte individers rettigheter i denne nye teknologiske virkeligheten. I stedet for å stole på de gamle systemene for databeskyttelse, som er designet for et helt annet landskap, må det utvikles en ny tilnærming som tar høyde for både de tekniske egenskapene og de samfunnsmessige konsekvensene av generativ AI.

Personvern bør sees på som et kollektivt gode, og det er nødvendig å utvikle et nytt styringsrammeverk som tar hensyn til de systemiske og kollektive risikoene for personvern. Dette innebærer proaktive tiltak som å skape transparente og ansvarlige systemer for databehandling, samtidig som det settes inn forhåndsregler for å sikre at generativ AI ikke undergraver menneskelig autonomi eller skader samfunnets integritet.

Samtidig som vi ser på de tekniske og lovgivningsmessige aspektene, er det viktig å forstå at utfordringene generativ AI representerer også er dypt politiske og kulturelle. I USA, for eksempel, er det sterke politiske skiller som hindrer en enhetlig nasjonal lovgivning om personvern. Det er en vedvarende ideologi som prioriterer frihet og innovasjon, men som ikke nødvendigvis anerkjenner behovet for regulering av teknologiske fremskritt. Denne kulturen med "tillatt innovasjon" har skapt et miljø der nye teknologier, som generativ AI, kan utvikles uten tilstrekkelig hensyn til etiske eller personvernsrelaterte problemer.

Når vi ser fremover, er det essensielt å utvikle et regulatorisk rammeverk som ikke bare beskytter individets rettigheter, men som også tar hensyn til de kollektive konsekvensene av den raske utviklingen av generativ AI. I denne sammenhengen er det viktig å forstå at personvernspørsmål ikke bare handler om å beskytte individet, men også om å bevare den sosiale strukturen og tilliten som holder samfunnet sammen.

Hvordan Digital Markets Act og Data Act påvikrer AI-økosystemet og konkurranse i det digitale markedet

Digital Markets Act (DMA) har introdusert en rekke regler som har til hensikt å regulere aktørene i det digitale markedet, spesielt de som fungerer som "gatekeepere", det vil si plattformer som har betydelig markedsmakt og kontrollerer tilgang til tjenester og produkter. Blant de mest bemerkelsesverdige kravene finner vi bestemmelser om at gatekeepere ikke kan tvinge brukere til å bruke tilleggstjenester for å få tilgang til de grunnleggende plattformtjenestene (Artikler 5(7) og (8)), samt krav om at de må informere Europakommisjonen om eventuelle fusjoner eller oppkjøp i den digitale sektoren (Artikkel 14). Disse bestemmelsene reflekterer et sterkt fokus på å forhindre markedsdominans og sikre rettferdig konkurranse.

For gatekeepers innebærer dette også en forpliktelse til å tilby rettferdige, rimelige og ikke-diskriminerende tilgangsbetingelser for kommersielle brukere som benytter seg av plattformenes programvareapplikasjonsbutikker, nettlesertjenester og sosiale nettverk (Artikkel 6(12)). Dette tiltaket har som mål å unngå at større aktører misbruker sin markedsposisjon til å pålegge urimelige betingelser på mindre aktører. Dette er viktig for å opprettholde innovasjon og konkurranse på plattformer som ellers kunne blitt dominerte av noen få store aktører.

I tillegg til DMA, trer Data Act i kraft i januar 2024 og vil bli fullt implementert i 2025. Denne lovgivningen er designet for å regulere tilgang til og bruk av data, og er spesielt relevant for AI-økosystemet. Data Act har som mål å fremme rettferdig tilgang til data, og forhindre "data-hoarding", som kan hemme innovasjon og konkurranse. Dette er viktig i konteksten av generativ AI, hvor store datamengder er essensielle for modelltrening og utvikling. Loven pålegger at data generert gjennom tilkoblede produkter og tjenester skal være tilgjengelige for både brukere og tredjeparter, og den legger vekt på å sikre at data deles på rettferdige og ikke-diskriminerende vilkår. Dette skaper muligheter for mindre aktører å få tilgang til data og dermed konkurrere mer effektivt i markedet.

Data Act utvider også kravene til forretningsmessig datadeling, der virksomheter er forpliktet til å dele data med andre på rimelige og ikke-diskriminerende vilkår. Dette bidrar til å øke konkurransen ved å redusere barrierer for nye aktører som ønsker å komme inn på markedet. Videre sikrer lovgivningen at små og mellomstore bedrifter (SMB) og forskningsorganisasjoner kan få tilgang til data på kostnadseffektive vilkår, noe som fremmer innovasjon og utvikling av nye tjenester og produkter.

En annen viktig del av Data Act er dens fokus på å gjøre det lettere for virksomheter å bytte mellom leverandører av databehandlingstjenester, som for eksempel skytjenester, uten å tape data eller funksjonalitet. Dette bidrar til å fremme fleksibilitet og konkurranse i markedet, og fjerner hindringer som ellers kan skape lock-in-effekter for kundene. Det vil også være et insentiv for tjenesteleverandører til å tilby bedre og mer innovative løsninger.

Som et resultat av disse lovgivningene, må gatekeepers og andre store aktører være mer åpne og transparente i måten de samler inn og bruker data. Artiklene i DMA og Data Act pålegger dem å gi offentlig innsikt i hvordan de profilerer brukerne på tvers av deres tjenester, og hvordan de håndterer data generert fra brukernes interaksjoner med tilkoblede produkter og plattformer. Dette gir en økt grad av forbrukerbeskyttelse, samtidig som det åpner for mer rettferdig konkurranse mellom aktørene i markedet.

Når det gjelder generative AI og dens innvirkning på markedet, er det viktig å merke seg at både DMA og Data Act har som mål å forhindre at store aktører utnytter sin markedsposisjon til å hindre innovasjon. Generative AI-modeller, som de som brukes til å lage tekst, bilder eller annen kreativt innhold, kan dra nytte av disse lovene, spesielt i forhold til tilgang til store datasett som er nødvendige for modelltrening. Når store selskaper har dominans på dataene som brukes til å utvikle AI, kan det være vanskelig for nye aktører å konkurrere, og dette kan føre til markedskonsolidering. Begge lovene er et svar på denne problemstillingen, ved å fremme mer rettferdig datadeling og redusere markedsbarrierer.

For både DMA og Data Act er det et underliggende mål om å fremme åpenhet, rettferdighet og konkurranse i det digitale markedet. De prøver å balansere behovet for å beskytte mindre aktører og forbrukere med behovet for at de store plattformene skal kunne operere effektivt. Et hovedpoeng i dette arbeidet er å sikre at data og plattformer ikke blir kontrollert av et begrenset antall store aktører, noe som kunne føre til en kvelende monopolisering av markedet.

For at disse lovene skal fungere effektivt, er det viktig å forstå at de ikke bare handler om å regulere de store aktørene, men også om å fremme et mer åpent og rettferdig marked hvor alle aktører, store og små, kan konkurrere på like vilkår. Den globale konkurransen i det digitale markedet vil kreve at både myndigheter og selskaper tilpasser seg stadig skiftende teknologiske og økonomiske landskap.

Hvordan LLM-teknologi kan endre evalueringen av personvernerklæringer og forbrukeravtaler

Bruken av store språkmodeller (LLM) i evalueringen av forbrukeravtaler og personvernerklæringer kan representere et betydelig skritt fremover i hvordan vi forstår og tolker komplekse juridiske dokumenter. Tradisjonelt har analysen av slike dokumenter vært en tidkrevende og feilsårbar prosess, både for forbrukere og organisasjoner. Mange forbrukere leser ikke personvernerklæringer, og de som gjør det, finner ofte dokumentene for kompliserte eller utilgjengelige. LLM-teknologi gir muligheter til å overkomme disse barrierene ved å tilby presise, leservennlige svar på spørsmål relatert til innholdet i slike dokumenter.

En sentral utfordring som oppstår ved analyse av personvernerklæringer er at de ofte er lange, vage og mangler den nødvendige informasjonen som gjør dem forståelige for vanlige brukere. Spesielt i en verden hvor mennesker alene tolker disse dokumentene, finnes det alltid en avveining mellom grundighet og forståelighet. En personvernerklæring kan være så omfattende at den beskriver all databehandling i detalj, men samtidig kan den bli for kompleks til å være nyttig for en vanlig bruker. LLM-teknologi kan bryte denne barrieren ved å gjøre det mulig å trekke ut relevant informasjon fra et ellers uoversiktlig dokument og presentere det på en måte som er lettfattelig for sluttbrukeren.

I et forsøk knyttet til CLAUDETTE-prosjektet ble det testet i hvilken grad forbrukervendte versjoner av ChatGPT kunne besvare spørsmål om personvernerklæringer. En simulert personvernerklæring ble laget for et hypotetisk matleveringsselskap, hvor all nødvendig informasjon lett kunne hentes ut. Seks spørsmål ble designet for å vurdere LLMs evne til å gi presise svar: Hva er kategoriene av data som behandles? Hvilke formål har behandlingen av e-postadresser og geolokasjon? Hvem mottar geolokasjonsdataene? Hva slags data behandles på grunnlag av samtykke, og til hvilke formål? Hvem deler selskapet dataene med, og deles det med forsikringsselskaper?

Testene viste at LLM-teknologi er et lovende verktøy for å forbedre forbrukerens evne til å forstå personvernerklæringer og identifisere viktige detaljer. Uavhengig av om modellen er trent på et spesifikt sett med dokumenter, kan LLMs gi nøyaktige svar basert på innholdet i dokumentene, noe som kan redusere behovet for at brukerne må lese hele erklæringen. Samtidig er det viktig å merke seg at LLMs, som ChatGPT, kan ha utfordringer med å unngå "hallusinasjoner", der modellen gir informasjon som ikke er forankret i dokumentet, eller genererer irrelevante svar.

En annen viktig anvendelse av LLM-teknologi er i juridisk vurdering av forbrukeravtaler og personvernerklæringer. For at LLMs skal kunne bidra til en juridisk vurdering, må de trenes til å gjenkjenne og kategorisere lovlige og ulovlige klausuler i kontrakter og personvernerklæringer. Dette kan innebære en prosess hvor modellen tilpasses (fine-tuning) for å forstå spesifikke juridiske språkbruk og strukturer i dokumentene. Slike tilpasninger kan omfatte å definere hva som utgjør en lovlig eller ulovlig klausul for forskjellige typer avtaler, som for eksempel ansvarsbegrensning eller valg av jurisdiksjon.

I tillegg kan LLMs være nyttige for å analysere store mengder dokumenter på tvers av ulike markeder og sektorer. Et datasett som CLAUDETTE-korpuset, som inneholder 142 ToS-dokumenter og 100 personvernerklæringer fra ni ulike markedssektorer, kan være et godt utgangspunkt for trening av slike modeller. Denne metoden kan ikke bare bidra til en raskere evaluering, men også til en mer konsistent og objektiv vurdering av kontraktsvilkår, og dermed gi bedre beskyttelse til forbrukerne.

For å oppnå best mulig resultater med LLMs på dette området, er det nødvendig med en grundig tilpasning av modellen, særlig når det gjelder utforming av prompts. En vellykket prompt kan guide modellen til å gi klare og presise svar på spesifikke spørsmål, og sikre at svaret ikke utvides med unødvendig informasjon eller feiltolkninger. Dette kan være avgjørende for å unngå feil i juridiske vurderinger, som kan føre til misforståelser eller feilaktige konklusjoner om kontraktenes lovlighet.

Selv om LLM-teknologi kan gjøre det lettere for forbrukere å forstå deres rettigheter og forpliktelser, er det viktig å erkjenne at teknologien ikke er feilfri. Hallusinasjoner, eller feilsvar som ikke er støttet av kildedokumentene, kan fortsatt være et problem. I tillegg er det viktig at forbrukerne, selv med LLMs hjelp, ikke mister evnen til å kritisk vurdere innholdet i personvernerklæringer og kontrakter. Det vil fortsatt være viktig for forbrukere å ha en grunnleggende forståelse av hva som er relevant informasjon, selv om LLMs kan hjelpe til med å finne svar på spesifikke spørsmål.

LLMs har potensialet til å revolusjonere hvordan vi håndterer komplekse juridiske dokumenter, men som med all ny teknologi, er det avgjørende å være oppmerksom på de potensielle utfordringene og begrensningene. Mens LLMs kan bidra til å gjøre personvernerklæringer og forbrukeravtaler mer tilgjengelige, er det fortsatt et behov for grundig overvåking og evaluering av teknologiens nøyaktighet og pålitelighet.

Hvordan kunstmarkedet kan bli påvirket av kunstig intelligens: En økonomisk utfordring

Kunstig intelligens (AI) har nå fått en stadig mer fremtredende plass i kunstverdenen, og med det oppstår nye spørsmål om hvordan verker som er laget ved hjelp av maskiner skal behandles økonomisk og juridisk. I 2023 valgte den tyske fotografen Boris Eldagsen å avvise sin pris for kreativitet i Sony World Photography Award etter å ha avslørt at hans vinnerbilde var skapt ved hjelp av AI. Hans handling, å bevisst villede juryen, var en provokasjon for å starte en offentlig diskusjon om fremtiden for fotografi og AI i kunstproduksjon. Dette reiser en rekke interessante problemstillinger om eierskap, kvalitet og verdsetting av AI-genererte kunstverk.

Først og fremst må vi forstå at maskinell hjelp i kunstproduksjon ikke nødvendigvis utelukker at verket kan få opphavsrett. Rettspraksis, som Burrow-Giles-dommen fra 1884, har fastslått at et verk kan få opphavsrett dersom det er menneskelig kontroll og kreativitet involvert. På den annen side antyder nyere beslutninger, som USCO-saken om «Zarya of the Dawn», at bruken av kunstig intelligens alene ikke nødvendigvis gir opphav til samme type opphavsrett, da AI ikke kan nå den nødvendige terskelen for kreativt innslag.

En annen viktig innsikt kommer fra det faktum at kunstverk som involverer både menneskelig skapelse og maskinens hjelp kan være vanskelig å skille fra verker laget helt av mennesker. Denne mangelen på gjenkjennelighet mellom maskinbaserte og menneskeskapte verker skaper et økonomisk problem. Kunstmarkedet kan, som et resultat, lide under det som økonomer kaller et "lemons-problem". Begrepet ble først beskrevet av George Akerlof i 1970, hvor han påpekte at når kjøpere ikke kan skille mellom produkter av høy kvalitet (som han kaller «fersken») og produkter av lav kvalitet (som han kaller «sitroner»), vil de ende opp med å betale gjennomsnittsprisen for begge typer, uavhengig av kvalitet. Dette kan føre til at de beste produktene forsvinner fra markedet, ettersom selgere av høy kvalitet ikke vil selge til den samme prisen som lavkvalitetsprodukter.

I kunstmarkedet kan dette problemet være enda mer problematisk, spesielt når det gjelder AI-genererte kunstverk. Kunstnere som skaper maskinbaserte verk kan ha insentiver til å skjule bruken av AI for å oppnå en høyere markedsverdi. Siden kjøpere ikke kan skille mellom menneskeskapte kunstverk og maskinbaserte, vil de anta at prisen på verket gjenspeiler en menneskelig skapelsesprosess, og betale mer enn det er verdt. Som et resultat vil kunstnere som kun skaper verk med egne ferdigheter og kreativitet, få mindre for sitt arbeid, ettersom markedsprisen er påvirket av det faktum at kunstverker laget med AI kan selges billigere, uten at det nødvendigvis avsløres.

Den økonomiske effekten av dette på kunstmarkedet kan sammenlignes med et biologisk «urimelig» utvalg, ettersom AI-genererte kunstverk kan utkonkurrere menneskeskapte verker ved å dra nytte av asymmetrisk informasjon. På samme måte som Darwin beskriver at de sterkeste artene i naturen vil overleve, kan man forestille seg at maskinbaserte kunstverk, som er billigere å produsere og vanskeligere å identifisere, vil dominere kunstmarkedet. Dette er ikke et resultat av «naturlig utvalg» – der konkurransen skjer på kvalitet – men heller et resultat av at kunstnerne som benytter AI kan utnytte informasjon som kunstkjøperne ikke har tilgang til.

For å løse dette problemet og sørge for at både menneskeskapte og maskinbaserte kunstverk har sin plass på markedet, kan det være nyttig å innføre et regelverk som kan sikre åpenhet om opprinnelsen til et kunstverk. Dette kan være inspirert av autentiseringsteknikker brukt i kunstverdenen, samt reguleringer i EU-lovgivningen om opprinnelsesmerking, som brukes til å kontrollere handel med varer. Ved å innføre en slik «opprinnelsesregel» kan kjøpere få innsyn i hvorvidt et kunstverk er laget av menneskehender, eller om kunstig intelligens har vært involvert i skapelsesprosessen. Denne klarheten vil bidra til å bevare markedets integritet og gi kunstnerne et mer rettferdig utgangspunkt, uavhengig av om de bruker AI eller ikke.

Videre bør vi forstå at selv om AI kan utfordre de tradisjonelle grensene for hva som er menneskeskapt kunst, betyr ikke dette nødvendigvis at menneskelige kunstnere vil forsvinne fra markedet. Kunstens verdi er ikke kun basert på objektets fysiske eller visuelle kvalitet, men også på konteksten, intensjonen og den kreative prosessen bak verket. Det er viktig at kjøpere og samlere fortsetter å verdsette de menneskelige ferdighetene og perspektivene som ligger til grunn for ekte kunstproduksjon, og ikke lar seg forlede av det kunstige presset som kommer med asymmetrisk informasjon.