Den første generasjonen av nettsteder og sosiale medier på nettet, også kjent som Web 1.0, var i mange henseender ikke bærekraftig når man ser på begrensningene som eksisterte for mediepublikummene, innholdsleverandørene og annonsørene. Det er viktig å merke seg at aggregasjonen av publikum – det vil si samlingen av store grupper brukere – var langt viktigere for innholdsleverandører og annonsører enn de sosiale funksjonene som tilknytning og interaktivitet. Dette var en funksjon som ofte ikke ble inkludert i de første planene for hvordan disse plattformene skulle utvikles.
Et godt eksempel på dette er Twitter, som berømt og offentlig erklærte at de ikke hadde noen klar forretningsmodell i de tidlige årene etter at plattformen ble lansert. Den dominerende strategien for mange av de første plattformene var å tiltrekke seg et stort antall brukere først, og først deretter begynne å tenke på hvordan plattformen skulle tjene penger. Når en plattform har klart å tiltrekke et stort nok publikum, blir det nærmest uunngåelig at forretningsmodellen vil fokusere på å koble innholdsleverandører, annonsører og publikum sammen. Dette ble en del av forretningsmodellen, men ofte først etter at plattformene hadde vokst i størrelse.
Det er store forskjeller mellom de første generasjonene av innholdsaggregatorer som Netflix og iTunes, og de andre plattformene som Facebook og YouTube. De tradisjonelle aggregatorene eide eller lisensierte innholdet som de distribuerte, mens sosiale medier ikke gjorde dette. Plattformene som Facebook og YouTube var ikke redaktører i den tradisjonelle forstand; de var ikke involvert i å gjøre beslutninger om hvilket innhold som skulle gjøres tilgjengelig. Den største forskjellen er at de ikke foretok den samme typen seleksjon som tidligere medieaktører, og dette var et resultat av skalaen og rekkevidden plattformene opererte på.
Sociale medier er i stor grad udiskriminerende når det gjelder innhold. De gjør noen forsøk på å filtrere ut skadelig innhold som vold, hatprat og pornografi, men i motsetning til tidligere medieplattformer er deres beslutning om hvilket innhold som er interessant for brukerne langt mer individualisert og basert på algoritmer som vurderer brukerinteraksjoner på individuell basis. Grensen for hvilket innhold som kan distribueres via sosiale medier er dermed mye lavere enn på tidligere plattformer, som hadde mer strenge kriterier for innhold og lisensiering.
Dette har ført til en fundamental endring i måten innhold blir kuratert på nettet. Tidligere ble beslutningen om hva som skulle distribueres gjennom mediekanaler basert på redaktørens vurdering, men i de algoritme-drevne plattformene som dominerer i dag, er det algoritmene som styrer hvilke innholdselementer som vises til brukeren. Denne endringen representerer et fundamentalt skifte i hvordan innhold blir vurdert og distribuert.
Lovgivning har også hatt en betydelig rolle i å fremme utviklingen av disse massive, udiskriminerte plattformene. En av de mest kritiske lovene i denne utviklingen er Communications Decency Act (CDA) fra 1996, spesielt seksjon 230, som ga internettplattformer en form for beskyttelse fra ansvar for innhold generert av brukerne. Denne bestemmelsen har vært avgjørende for utviklingen av sosiale medieplattformer, som i stor grad har operert uten juridisk ansvar for innhold som publiseres av brukerne, samtidig som de har fått rett til å fjerne innhold de anser som skadelig. Dette ga plattformene en enorm grad av beskyttelse, samtidig som de fikk myndighet til å regulere innholdet på sine plattformer, uten at de ble ansett som ansvarlige for innholdet. Denne dualiteten – beskyttelse fra ansvar samtidig som de kan regulere innhold – er fortsatt et sentralt tema i diskusjonen om hvordan disse plattformene bør reguleres.
For å kunne håndtere den enorme mengden innhold som ble produsert og distribuert på disse plattformene, ble det nødvendig å automatisere mange av funksjonene deres. Dette førte til at algoritmene som i dag er fundamentet for mange plattformer, som Facebooks nyhetsfeed, ble utviklet. Opprinnelig presenterte Facebook innhold i omvendt kronologisk rekkefølge, men i 2009 begynte plattformen å bruke algoritmer for å kuratere innhold basert på brukerens interaksjon og engasjement. Dette ble raskt mer sofistikert og ledet til utviklingen av EdgeRank-algoritmen, som bestemte hvilke innlegg som skulle vises i nyhetsfeeden basert på flere faktorer.
Denne algoritmiske kureringen har blitt selve ryggraden i hvordan informasjon blir presentert til brukerne, og har også blitt en sentral del av plattformenes forretningsmodeller. Jo mer engasjement innholdet genererer, desto mer synlig blir det for brukeren, noe som gir plattformene mer mulighet til å koble annonsører med et engasjert publikum. Dette skaper en dynamikk der algoritmer ikke bare avgjør hva vi ser, men også hvordan vi interagerer med informasjon.
Sosiale medieplattformer, gjennom deres algoritmiske systemer, har dermed skapt en helt ny form for medieforbruk – en hvor tilstedeværelsen og synligheten av innhold er drevet av algoritmer, i stedet for redaksjonelle vurderinger. Dette skaper både nye muligheter og utfordringer for både brukere og annonsører, og stiller spørsmål ved hvordan vi bør forstå rollefordelingen mellom menneskelig kuratering og algoritmisk automatisering i fremtidens digitale landskap.
Hvordan Algoritmisk Kuring Påvirker Nyhetsstrømmer og Demokratisk Prosess
De to stadiene av algoritmisk kurering introduserer et komplekst samspill mellom de direkte og indirekte nyhetskonsumentene, og hvordan disse interagerer med informasjon som deles på sosiale medieplattformer. Dette forholdet kan sammenlignes med den tradisjonelle teorien om de to-trinns strømningene, der en sosial mediebruker først møter en nyhetspostet av en nyhetsorganisasjon i sitt feed og deretter bestemmer seg for å dele denne med sitt nettverk. På denne måten kan man se på den direkte nyhetskonsumenten som en «opinionsleder» som videreformidler informasjon til sine følgere, men i en kontekst hvor algoritmer medierer både tilgjengeligheten og prioriteringen av nyheter.
Den indirekte nyhetskonsumenten mottar dermed en kurert versjon av den delte nyheten, ettersom algoritmer styrer hvilke innhold som vises i nyhetsfeeden deres. Dette har skapt et forstørret gatekeeping-system, hvor den tradisjonelle to-trinns strømningen nå er blitt utvidet til en fem-trinns strømning. Denne utvidelsen introduserer flere lag av gatekeeping i prosessen, der både nyhetsorganisasjoner og algoritmiske mekanismer spiller viktige roller i å bestemme hvilke nyheter som faktisk når sluttbrukeren.
I en tid hvor sosial medier i stor grad har formet nyhetsøkologien, har vi sett en merkbar endring i hvordan brukere konsumerer nyheter. For eksempel har Facebooks trafikk til nyhetssider falt med hele 40 % siden 2017, ifølge en analyse fra Chartbeat. Denne nedgangen har blitt kompensert med økt trafikk fra søkemotorer og direktebesøk via nettsider eller mobilapper. Dataene viser også at det ikke har vært noen økning i andelen amerikanere som oppgir å stole på sosiale medier for nyheter fra 2017 til 2018. Dette kan tyde på at rollen til sosiale medier som nyhetsportaler er i ferd med å avta, selv om spørsmålet om dette er en midlertidig trend eller en langsiktig reversering gjenstår å se.
I denne konteksten er det viktig å forstå hvordan posisjonen til sosiale medieplattformer som gatekeepere fortsatt er uforutsigbar og volatil. Denne usikkerheten understreker viktigheten av å vurdere de politiske og lovgivningsmessige konsekvensene for hvordan vi forstår grunnleggende prinsipper som førsteamendementet, markedet for ideer og det offentlige interesse.
Det finnes flere andre elementer som må vurderes i forståelsen av hvordan algoritmisk kurering påvirker nyhetsøkosystemet. Den største utfordringen er kanskje hvordan algoritmene er utformet for å fremme informasjon som engasjerer, snarere enn for å informere objektivt. Dette kan skape et miljø hvor feilaktig informasjon og filterbobler får større plass til å spre seg, noe som kan ha alvorlige konsekvenser for både offentlig debatt og demokratisk prosess. Mens enkelte land, som Tyskland, har vært proaktive i å regulere disse fenomenene, har USA ennå ikke sett betydelig politisk handling, til tross for advarsler og rapporter fra forskjellige kongresshøringer.
Den amerikanske tradisjonen med å favorisere motinnlegg, som beskrevet i Whitney v. California (1927), har vært en av hovedårsakene til den relative handlingslammelsen i USA. I stedet for å regulere direkte, har lovgiverne satset på at økt tale og «motinnlegg» vil være et effektivt middel mot falsk informasjon. Dette synet er imidlertid utfordret av de konkrete effektene av filterbobler og feilinformasjon, som ikke lett kan motvirkes gjennom en enkel økning i motsvar.
Den pågående utviklingen av sosiale medieplattformer som gatekeepere stiller spørsmål ved hvordan vi skal forstå det moderne medielandskapet. Algoritmer er ikke bare verktøy som fremmer informasjon; de har blitt den primære mekanismen som former hva som blir sett og delt på tvers av den globale befolkningen. Når algoritmene prioriterer informasjon på en måte som favoriserer sensationalisme og polariserte synspunkter, kan dette føre til at nyheter mister sin objektive kjerne og at publikum blir mer sårbart for manipulasjon. Videre øker dette også de etiske og juridiske dilemmaene rundt plattformenes ansvar som formidlere av offentlig informasjon.
Er Facebook "for stor til å mislykkes"?
Konseptet "for stor til å mislykkes" ble introdusert etter den finansielle krisen på slutten av 2000-tallet, og har nylig fått fornyet relevans i diskusjoner om Facebooks dominerende posisjon. Facebook har vokst til et punkt hvor størrelsen i seg selv kan opprettholde selskapets eksistens i all evighet. Sosiale medier, som mange andre kommunikasjonsplattformer, er preget av nettverkseffekter: Tjenestene de tilbyr blir mer verdifulle jo flere brukere som er tilknyttet. Derfor kan det at så mange mennesker bruker Facebook skape en "låseffekt", som tvinger folk til å forbli på plattformen selv om alternativer finnes, og dermed beskytte plattformen mot konkurranse.
I konteksten av den finansielle krisen ble uttrykket "for stor til å mislykkes" brukt om finansinstitusjoner som var så store og viktige at deres kollaps ville få katastrofale konsekvenser for økonomien, og derfor måtte forhindres for enhver pris. På samme måte kan man hevde at Facebook har nådd et punkt hvor de brede konsekvensene av et eventuelt sammenbrudd ville være så vidtrekkende og alvorlige, at det å hindre et slikt sammenbrudd er helt nødvendig. Dette gjelder ikke bare for selskapets økonomi, men også for den digitale distribusjonen av informasjon. Facebook har fått en så stor grad av kontroll over hvordan nyheter og informasjon formidles, at en feil i å håndtere dette (for eksempel ved ikke å håndtere desinformasjon på en effektiv måte) kan få katastrofale konsekvenser for det algoritmiske markedet av ideer.
På den andre siden av spekteret fra monopoler, kan markedsfeil også oppstå i et marked som er for konkurranseutsatt. Økonomer beskriver dette som "ruinøs konkurranse" – en situasjon hvor det er så mange konkurrenter i markedet at de til slutt driver hverandre ut av virksomhet. Resultatet kan være enten slutten på bransjen eller overlevelsen av en enkelt monopolist, noe som tar oss tilbake til markedsfeil. Underveis kan produktkvaliteten lide fordi selskapene, som lider under økonomiske vanskeligheter i dette svært konkurransepregede miljøet, ikke har midler til å investere i kvalitetsprodukter.
Når det gjelder markedet for ideer, kan konkurranse også være ruinøs uten at bransjen kollapser eller en monopolist fremstår. I dette markedet er ikke deltakelsen utelukkende økonomisk motivert. Politikk spiller ofte en stor rolle. I journalistenes tidlige historie ble mange amerikanske aviser drevet av politiske partier og ble brukt som verktøy for å spre partiske synspunkter. Økonomisk gevinst var ikke nødvendigvis i fokus; politisk innflytelse var den primære drivkraften. I dag, derimot, har økonomiske utfordringer for mediebransjen ført til at politiske motivasjoner har blitt mer fremtredende igjen.
Når økonomiske incentiver for å produsere journalistikk svekkes, kan politiske motivasjoner ta større plass og opprettholde journalistisk virksomhet selv om den er ulønnsom. Dette reiser spørsmål om kvaliteten på den journalistikken som produseres, spesielt når partiskhet kan påvirke nøyaktigheten. Et eksempel på dette er fusjonen mellom Sinclair Broadcasting og Tribune, som skulle skape et mediekonglomerat med kontroll over 80 prosent av de amerikanske TV-husene. Mange mente at fusjonen i stor grad ble motivert av ønske om å utvide et konservativt synspunkt til et større publikum. På samme måte har oppkjøpene av Time Inc. av Meredith Corporation blitt støttet av politiske aktører som Koch-brødrene, som har blitt kritisert for å bruke medieeiendommer til å spre konservative synspunkter.
I et marked for ideer kan ruinøs konkurranse føre til dramatisk lavere kvalitet på innholdet. Når konkurransen mellom mediekanaler er høy, kan kvaliteten på det produserte innholdet forringes, da mediehusene, i et forsøk på å tiltrekke seg lesere og visninger, kan ty til sensasjonell og trivial journalistikk. Dette kan føre til et informasjonsmiljø der den nyhetene og informasjonen som produseres ikke er av tilstrekkelig høy kvalitet til å støtte et informert beslutningstagingsprosessen.
Analysene av hvordan konkurranse påvirker kvaliteten på journalistikk viser at høyere konkurranse kan føre til økt sensasjonalisme og trivialitet i nyhetsinnholdet, samtidig som det reduseres både mangfoldet og den lokale orienteringen i nyhetsrapporteringen. I et digitalt landskap der tusenvis av nyhetskanaler er tilgjengelige for alle, har konkurransen blitt enda mer intens. Internett har fjernet geografiske barrierer for innholdsdistribusjon og senket inngangsbarrierene, noe som gjør at alle kan konkurrere på tvers av markedene. Dette har ført til et mediemarked der konkurransen er mer utbredt, men også mer fragmentert, enn det som var tilfelle i tradisjonelle medier.
Dette får oss til å spørre om denne intense konkurransen, sammen med den stadig mer partisanske og økonomisk drevne medieproduksjonen, kan svekke kvaliteten på informasjonen som formidles. Når journalistiske ressurser er begrensede, og økonomiske insentiver for kvalitet synker, kan det resultere i en markedssituasjon der informasjonskvaliteten ikke lengre er tilstrekkelig for å støtte en demokratisk og informert samfunnsdebatt.
Hvordan Algoritmer Former Nyhetsmedier og Beslutninger i Journalistikken
I de siste årene har digitale plattformer og deres algoritmer fått en stadig mer dominerende rolle i nyhetsmedienes beslutningsprosesser. Den tradisjonelle metoden for utvalg og publisering av nyheter har blitt utfordret av nye krav og teknologiske løsninger, som har endret hvordan journalistikk blir produsert, distribuert og forbrukt.
En av de viktigste drivkreftene bak disse endringene er optimalisering for søkemotorer (SEO). I begynnelsen ble SEO sett på som et middel til å forbedre synligheten på nettet, men etter hvert har det utviklet seg til et sentralt verktøy i redaksjonelle beslutningsprosesser. Journalister og redaktører er nå mer opptatt av å tilpasse innholdet sitt til de algoritmiske kravene som dominerer plattformene som Google og Facebook. Dette har ført til en økt vektlegging av hva som blir populært, i stedet for hva som nødvendigvis er viktig eller relevant. Eksempler på dette kan sees i hvordan mediehus reagerte på Facebooks endringer i algoritmene for å prioritere innhold fra venner og familie fremfor nyhetsorganisasjoner.
En slik tilpasning til algoritmer fører til en potensiell forflatning av nyhetsinnhold, hvor mediene søker å tiltrekke seg klikk gjennom overskrifter og emner som kan virke sensationalistiske eller lett fordøyelige. Dette har ført til at dyptgående, undersøkende journalistikk ofte må vike for mer umiddelbare og kommersielt levedyktige historier. Mediene har blitt stadig mer avhengige av digitale plattformer, og dette gir plattformene en stor grad av makt over hva som blir sett og delt.
For eksempel har New York Times utviklet bots og anbefalingssystemer for å bestemme hvilke historier som bør postes på sosiale medier, noe som er et direkte resultat av deres forsøk på å tilpasse seg algoritmiske krav. Slike verktøy er et forsøk på å balansere redaksjonell kontroll med behovet for å nå et bredt publikum i et marked dominert av algoritmisk gatekeeping. På denne måten kan teknologien virke som både en mulighet og en begrensning for hvordan nyheter blir formidlet.
Samtidig har plattformer som Facebook og Google, som i mange år har vært de dominerende kildene for trafikk til nyhetsmedier, endret sine algoritmer, noe som har ført til en betydelig nedgang i trafikken til nyhetsnettsteder. Denne utviklingen har hatt dramatiske konsekvenser for økonomien til mange mediehus, spesielt de som er avhengige av annonseinntekter. Mediehusene har blitt tvunget til å tilpasse seg de stadig skiftende reglene, og de har måttet revurdere sine strategier for innholdsskaping og distribusjon. Enkelte har tapt et stort antall lesere, mens andre har vært i stand til å tilpasse seg raskt, noe som illustrerer hvordan disse plattformene kan kontrollere medienes synlighet og økonomiske bærekraft.
En annen utfordring som har oppstått i kjølvannet av plattformenes dominans, er det som kan beskrives som "infrastrukturell fangst". Dette konseptet, utviklet av Efrat Nechushtai, refererer til hvordan medieorganisasjoner kan bli fanget av de plattformene de er avhengige av. Når mediehusene er helt avhengige av Facebook eller Google for trafikk, kan deres dekning og innhold påvirkes av hva som appellerer til disse plattformenes algoritmer. Dette kan føre til en type redaksjonell bias der mediehus prioriterer innhold som er i tråd med algoritmenes preferanser, på bekostning av kvalitet og objektivitet.
Et annet aspekt av denne utviklingen er økningen av automatisering og kunstig intelligens i nyhetsproduksjon. Bruken av algoritmer for å sortere og rangere innhold fører til at medieorganisasjoner nå kan bruke data og analyser for å forutsi hva som vil appellere til leserne. Denne prosessen kan imidlertid redusere journalistikkens dybde og kritiske rolle, da algoritmene er utformet for å fremme innhold som er lett tilgjengelig og lettfordøyelig for et bredt publikum. Dette kan bety at mindre viktige, men mer komplekse emner får mindre oppmerksomhet.
På den andre siden, som vist gjennom eksemplene fra både Facebook og New York Times, kan teknologiske løsninger også tilby muligheter for forbedret brukerengasjement og mer målrettet distribusjon. Ved å bruke data om hva leserne faktisk er interessert i, kan medier potensielt tilby mer relevant innhold. Dette kan føre til en mer skreddersydd opplevelse for publikum, men det medfører også en risiko for ekkokamre, der publikum kun blir eksponert for informasjon som allerede samsvarer med deres eksisterende holdninger og interesser.
I lys av disse utfordringene, er det viktig å forstå hvordan algoritmene ikke bare former hva vi ser og hører, men også hvordan de endrer journalistikkens natur. Mediehusene står overfor en kompleks balansegang mellom økonomiske behov, redaksjonell frihet, og de teknologiske realitetene som kontrollerer hvordan innholdet deres blir distribuert. Denne dynamikken er avgjørende å forstå for å kunne vurdere medienes rolle i dagens digitale landskap.
Hvordan klassiske biler påvirket moderne bildesign og markedsføring: Jaguar, Ferrari og Wanderer som eksempler
Hvordan acrylamid dannes i matproduksjon, risikohåndtering og sikkerhet
Hvordan en nøkkel kan endre alt: En utforskning av sannhet, sorg og handling

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский