Utviklingen av fundamentmodeller (FMs) har satt i gang en ny æra av teknologisk fremdrift hvor balansen mellom åpen kildekode og proprietære modeller er i konstant bevegelse. Tidligere var det åpen kildekode som drev frem innovasjon, bygget på deling av data og innsikt innenfor rammer etablert av fellesskapsdrevne praksiser. I dag ser vi imidlertid en tiltagende forskyvning mot lukkede, kommersielle modeller, særlig drevet av de høye kostnadene forbundet med utvikling og drift av slike systemer.
Kostnadsnivået forbundet med å bygge og drifte FMs gjør at økonomien favoriserer aktører med monopolistiske trekk. Det er ikke bare fordi modellene krever enorm regnekraft, men også fordi de gir økt avkastning ved økt bruk: jo flere brukere, jo bedre tilbakemeldingsdata, og dermed høyere verdi for modellen. Dette skaper naturlige nettverkseffekter og fører til konsolidering rundt noen få dominante modeller. Utviklere prioriterer dermed kompatibilitet og interoperabilitet fremfor mangfold, noe som igjen forsterker den monopollignende dynamikken.
Åpen kildekode-modeller, derimot, fremmer konkurranse gjennom transparens og muligheten for forgrening (forking) – utviklere kan fritt kopiere og tilpasse modellen, noe som stimulerer innovasjon og reduserer inngangsbarrierer. Likevel gjør det økonomiske landskapet dette til en utfordrende strategi, spesielt siden investorer krever eksklusivitet for å sikre avkastning. Dermed presses utviklingen mot lukkede systemer med høy lisenskostnad og begrenset åpenhet.
Konkurransemyndigheter og lovgivere står derfor overfor et komplekst dilemma. På den ene siden må man motvirke antikonkurrerende adferd i proprietære modeller, som ofte er vanskelig å regulere gjennom tradisjonelle patent- eller kapitalkrav. På den andre siden bør man tilrettelegge for at åpne modeller ikke kveles av de samme regulatoriske byrdene som kommersielle aktører kan håndtere. Forslag om regulatoriske unntak for åpen kildekode – kombinert med økonomiske tiltak som skatteincentiver – representerer et forsøk på å gjenopprette balansen i innovasjonsøkosystemet.
Modellenes juridiske status kompliseres ytterligere av immaterielle rettigheter. Treningen av modeller på både åpne og lukkede datasett reiser spørsmål om rettigheter og tilgang. Særlig har bruken av opphavsrettsbeskyttet materiale – ofte uten eksplisitt samtykke – utløst søksmål i flere jurisdiksjoner. Dette skaper en uforutsigbar juridisk ramme for både utvikling og anvendelse av AI. For mindre aktører kan krav om lisensiering av data bli en betydelig hindring, og gir store teknologiselskaper med tilgang til eksklusive datasett en klar konkurransefordel.
Usikkerheten gjelder ikke bare data brukt i treningen, men også AI-genererte utdata. Hvem eier resultatet av en generativ modell? Og hvilken rettslig status har innholdet den skaper? Disse spørsmålene er foreløpig uavklarte, men de vil i økende grad forme hvilke modeller som dominerer og hvilke som dør ut.
På applikasjonsnivå er dynamikken tilsvarende kompleks. GenAI forandrer markedet gjennom tjenester som kontorassistenter og automatisert innholdsproduksjon, hvor sluttbrukeren ikke nødvendigvis har innsikt i modellen bak. Modellene kjøres oftest gjennom skyplattformer som setter tekniske og kommersielle begrensninger, og dermed påvirker hvilke applikasjoner som kan eksistere. Lukket kildekode integreres sømløst i eksisterende produkter eller tilbys som tjeneste via API-er, og modeller med stor brukerbase genererer mer data og større inntekter – som igjen gir tilgang til bedre treningsgrunnlag og videre vekst.
Åpen kildekode-modeller distribueres oftest gjennom laboratorier, modellnav, eller ikke-kommersielle utgivelser. De muliggjør bredere innovasjon, men har svakere inntjeningsmodeller og begrenset markedskraft. Samtidig krever de ofte en høyere teknisk kompetanse for implementering og vedlikehold, noe som begrenser deres anvendelighet for mindre tekniske aktører.
En fremtidig regulatorisk strategi bør derfor differensiere mellom modelltyper. Ved å legge hovedvekten av regulering på lukkede systemer og samtidig frita åpne modeller for visse regulatoriske krav, kan man styrke både innovasjon, konkurranse og samfunnsnytte. For å gjøre dette effektivt, må politikkutforming baseres på modellens tilgangsstruktur, ikke bare bruksformål eller teknisk arkitektur.
I tillegg til juridiske og økonomiske hensyn, er det avgjørende å forstå modellers rolle som infrastruktur. Akkurat som veier og strømnett legger grunnlaget for annen økonomisk aktivitet, fungerer AI-modeller som fundament for fremtidens digitale tjenester. Hvis infrastrukturen monopoliseres, kan det lamme hele økosystemet. Ved å styrke åpne modeller – både gjennom lovgivning og økonomisk støtte – kan man motvirke denne trusselen og sikre et mer mangfoldig og bærekraftig teknologilandskap.
Hvordan Globale Regler og Samarbeid Kan Styre Utviklingen av Generativ Kunstig Intelligens
Generativ kunstig intelligens (GenAI) og fundamentale AI-modeller har introdusert nye utfordringer for lovgivning og risikostyring. Mens tradisjonell kunstig intelligens har hatt sine egne utfordringer, som for eksempel mangel på forklarbarhet og raske teknologiske fremskritt, har GenAI forverret disse problemene på flere måter. Spesielt har det vært en økning i internasjonale initiativer for å utvikle felles rammeverk for å regulere denne teknologien, som er svært tilgjengelig og anvendbar på en rekke områder. Et viktig aspekt ved disse nye generative modellene er deres evne til å være lett tilgjengelige og operere av et bredt publikum, noe som skaper et mer komplekst risikomiljø.
Først og fremst er det viktig å merke seg at flere ledende økonomier i verden har begynt å utvikle nasjonale reguleringer og strategier for å møte utfordringene som kommer med GenAI. For eksempel, EU introduserte det foreslåtte AI Act i 2021, som ble godkjent av Europaparlamentet i mars 2024. Denne lovgivningen har som mål å fokusere på høy-risiko AI-applikasjoner og til og med forby visse bruksområder for AI dersom de utgjør uakseptable risikoer. Canada fulgte etter med sitt eget lovforslag, Artificial Intelligence and Data Act (AIDA), i 2022, og USA har også hatt en økning i lovgivning som spesifikt adresserer risikohåndtering i AI-applikasjoner, med over 105 lovforslag som ble introdusert.
En del av de internasjonale anstrengelsene for å håndtere risikoen ved GenAI har vært rettet mot samarbeid på tvers av grenser. EU har for eksempel inkludert spesifikke bestemmelser relatert til generelle AI-systemer som grunnlag for det foreslåtte AI Act. Kina har på sin side implementert "Interim Measures for the Administration of Generative Artificial Intelligence Services" i august 2023. Slike tiltak markerer et økende globalt engasjement for å utvikle regulatoriske tilnærminger som kan håndtere de utfordringene som følger med den raske utviklingen av generativ kunstig intelligens.
Gjennom hele denne utviklingen har et sentralt tema vært balansen mellom innovasjon og regulering. AI-teknologi utvikler seg i et raskt tempo, og dermed er det nødvendig med kontinuerlige justeringer av eksisterende lovverk. Samtidig må regulatorene ta hensyn til et mangfold av interesser fra ulike aktører som teknologiindustrien, den generelle befolkningen og offentlige myndigheter. Spesielt i G7-landene har det vært en økende enighet om å grunnlegge deres tilnærming på felles verdier som menneskerettigheter, demokrati, transparens og rettferdighet, noe som kan danne grunnlaget for ansvarlig utvikling og implementering av generativ AI.
Det er også verdt å merke seg de store internasjonale samarbeidsinitiativene som søker å etablere felles rammer for AI-styring. Et eksempel er G7s Hiroshima AI Process (HAIP), som ble etablert i 2023 for å fremme samarbeid om utvikling og implementering av politikk for GenAI. HAIP-rammeverket legger vekt på proaktiv risikohåndtering, transparens og ansvarlighet i AI-livs syklusen, samtidig som det vektlegger viktigheten av å forankre utviklingen i menneskerettigheter og demokratiske verdier. På samme måte har Bletchley Declaration, som kom ut av AI Safety Summit i Storbritannia i november 2023, blitt en annen milepæl for internasjonalt samarbeid på AI-sikkerhet og ansvar.
Det er også viktig å understreke at samarbeid på internasjonalt nivå ikke bare handler om regulering, men også om å finne felles løsninger på globale utfordringer. GenAI har potensial til å bidra til viktige globale mål, som å bekjempe klimaendringer, forbedre helsevesenet og revolusjonere utdanningssektoren. Men for at dette potensialet skal realiseres på en ansvarlig måte, er det avgjørende at reguleringene omfavner både risikoene og mulighetene som teknologien gir.
Sammenfattende er det klart at den globale reguleringen av GenAI er på vei til å bli et mer strukturert og samarbeidende system. AI-lovgivning vil trolig utvikle seg gjennom en kombinasjon av nasjonale initiativer og internasjonale rammeverk, som sikrer at teknologien brukes til det beste for samfunnet samtidig som den kontrolleres på en ansvarlig måte. Det vil være viktig å følge utviklingen på dette området nøye, ettersom det kan ha vidtrekkende konsekvenser for både teknologibransjen og for samfunnet som helhet.
Det er viktig å forstå at disse reguleringene, selv om de kan gi et rammeverk for ansvarlig bruk av generativ AI, fortsatt er i en tidlig fase av utviklingen. Utviklingen av AI vil trolig fortsette å utfordre eksisterende lovgivning og regulering, og derfor vil det være viktig å ha fleksible og dynamiske rammer som kan tilpasses teknologiske endringer.
Reglement for det vitenskapelige samfunnet for elever ved MBOU «Sekundær skole nr. 19 med fordypning i enkelte fag»
Veiledning for barn i ulike aldersgrupper om bruk av Internett
Arbeidsprogram i kjemi for 11. trinn ved kommunal videregående skole «Lycée nr. 4» i Tsjeboksary, Tsjuvasjiske republikk
Hvorfor trenger vi et omfattende nasjonalt utdanningsprosjekt?

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский