Vår tilnærming har vist seg å være særdeles effektiv i ulike oppgaver, som for eksempel tekstdreven syntese uten forutgående trening, invers tone-mapping og fotorealistisk HDR panorama-generering. Denne metoden oppnår banebrytende resultater både i kvantitative og kvalitative evalueringer. Vi har demonstrert flere applikasjoner av vårt rammeverk, fra å muliggjøre fotorealistisk gjengivelse i moderne grafikkpipelines, til å skape oppslukende virtuelle virkeligheter og tekstbasert scene-redigering, som fremhever allsidigheten og robustheten til tilnærmingen. Ved å adressere de sentrale utfordringene som panorama-generering og HDR-syntese, tilbyr modellen vår en kraftfull og skalerbar løsning som bygger bro mellom naturlig språk og høykvalitets 3D-sceneopprettelse. Dette baner vei for mer intuitive og kreative verktøy i genereringen av virtuell innhold.
Rammeverket vårt er på mange måter et gjennombrudd, men det er ikke uten sine begrensninger. En av hovedutfordringene er tekstbias. Siden vi ikke bruker parret data for tekstdreven syntese, er ytelsen sterkt avhengig av CLIP-modellen. Interessant nok har vi observert at CLIP kan være partisk når det gjelder enkelte ord-bilde-par i vårt rammeverk. Videre viser det seg at modellen vår ikke kan generere scenebaserte innhold som er uvanlig i treningssettet. For eksempel, hvis vi gir setningen “tre og aurora stråler,” vil modellen vår kun fokusere på termen “tre,” noe vi tror skyldes bruken av KNN (K nærmeste naboer) under trening av tekst-aligner. En mulig løsning på dette kan være videre utforskning av det felles bilde-tekst rommet i CLIP, eller å bruke diffusjonspriors, som er et åpent og utfordrende problem i tekstdreven syntese uten forutgående trening.
Problemet med sjeldne landskap og scenarier kan forbedres ved å bruke mer kraftfulle generative priors eller store tekst-bilde parrede datasett. Dette er et område for videre forskning og utvikling, ettersom løsningen på slike utfordringer vil ha stor betydning for effektiviteten og anvendelsen av tekstdrevne genereringsmodeller i praktiske applikasjoner.
Det er også viktig å forstå at tekstdreven syntese i 3D-modellering og panoramagenerering ikke bare handler om å oversette tekst til visuelle representasjoner. Det krever en dyptgående forståelse av både semantisk og visuell kohærens. Dette innebærer å sikre at de visuelle elementene som genereres fra tekstbeskrivelser er i samsvar med både de grunnleggende fysiske lovene for lys og skygge, samt de mer subtile visuelle kvaliteter som gir et naturlig uttrykk i 3D-miljøer.
Når det gjelder HDR-generering og relighting, har utviklingen innen dyp læring vist seg å være en nøkkelkomponent i å skape realistiske opplevelser. Tidligere metoder har hatt problemer med å oppnå tilstrekkelig dynamisk område fra en enkelt bildeeksponering, men med ny forskning har det vært mulig å rekonstruere bilder med høy dynamisk rekkevidde (HDR) fra lav dynamisk rekkevidde (LDR) bilder. Dette gjør det mulig å bevare detaljer i både mørke og lyse områder av et bilde, og tilføre et nivå av realisme som tidligere ikke var mulig med tradisjonelle teknikker.
Videre har det vært et gjennombrudd med metoder som Masked Generative Image Transformer (MaskGIT), som kan brukes til å generere bilder basert på tekstbeskrivelser. Denne typen transformatorbaserte modeller gir et imponerende nivå av detaljrikdom og semantisk konsistens i de genererte bildene. Modellen vår er et eksempel på hvordan transformerbaserte nettverk kan overvinne utfordringene som tidligere har hindret tekst-til-bilde syntese, og kan bidra til å skape mer presise og visuelle representasjoner av scenarier som er beskrevet med tekst.
Det er også verdt å merke seg at selv om den teknologiske utviklingen har gjort det mulig å skape svært realistiske bilder og 3D-scener, er det fortsatt mange tekniske og kreative utfordringer som må overvinnes. Å forbedre tekstforståelse i genereringsmodeller, samt å redusere bias og øke mangfoldet i scenene som kan genereres, er nødvendige skritt mot mer fleksible og dynamiske systemer.
Endelig må leseren forstå at de metodene vi har diskutert for tekst-til-bilde og HDR syntese representerer en del av en større bevegelse mot mer integrerte, intuitive verktøy for kreativt innhold. Dette går hånd i hånd med utviklingen innenfor virtuelle virkeligheter, der grensesnittene mellom kunstig generert innhold og virkelige opplevelser blir stadig mer uskarpe. Når tekst-drevne modeller kan skape 3D-verdener, virtuelle personer og oppslukende omgivelser på en intuitiv måte, åpnes det opp for en ny æra av digitale opplevelser.
Hvordan tilpasse store visjon-språkmodeller for bildeklassifisering gjennom kontekstoptimalisering
Storskala, forhåndstrente visjon-språkmodeller som CLIP har vist seg å være svært effektive for å lære representasjoner som kan anvendes på et bredt spekter av oppgaver. I motsetning til tradisjonell representasjonslæring, som i stor grad er avhengig av merket data, gjør visjon-språk pretrening det mulig å koble bilder og tekst i et delt funksjonsrom. Denne koblingen åpner for overføring av læring til ulike oppgaver uten behov for spesifikke tilpasninger, gjennom en prosess kjent som prompting. I denne sammenhengen kan klassifiseringsvektene genereres utelukkende ved hjelp av naturlige språkbeskrivelser av målklassene, hvilket gjør det mulig å tilpasse modellen til nye oppgaver uten omfattende omtrening.
Likevel, et av de største hinderne ved bruk av slike modeller, er prosessen med prompt-engineering. Denne prosessen er både tidkrevende og krever betydelig domeneekspertise, ettersom små endringer i formuleringen kan ha stor innvirkning på ytelsen. Dette gjør tilpasning til spesifikke oppgaver utfordrende, spesielt når det ikke er tilgjengelig nok ekspertkunnskap for å justere ordene i promptene på en optimal måte.
En løsning på dette problemet er kontekstoptimalisering, eller CoOp, en tilnærming som har vist seg å være både enkel og effektiv når det gjelder å tilpasse CLIP-lignende visjon-språkmodeller til bildeklassifiseringsoppgaver. CoOp fungerer ved å bruke lærefunksjonsvektorer til å modellere konteksten i promptene, samtidig som de forhåndstrente modellparametrene holdes uendret. Denne metoden lar modellen lære hvilke kontekstord som er mest effektive for den spesifikke oppgaven, uten at det kreves omfattende manuelt arbeid.
CoOp er spesielt nyttig når man jobber med visjon-språkmodeller på tvers av flere oppgaver og datasett. For eksempel har den vist seg å gi bedre resultater enn håndlagde promptbeskrivelser på 11 forskjellige benchmark-datasett. Dette skyldes at CoOp kan lære en optimal kontekst for hver spesifikk oppgave, noe som kan være langt mer effektivt enn å stole på manuell prompt-tuning.
Denne metoden bidrar til å redusere arbeidsmengden som kreves for prompt-engineering, og den kan være nyttig i mange praktiske scenarier der hastighet og effektivitet er avgjørende. CoOp åpner derfor opp for en mer dynamisk tilpasning av modeller til forskjellige typer visjon-språk oppgaver, uten at man trenger å gå dypt inn i hver enkelt oppgave for å finjustere promptene.
I tillegg til effektivisering av tilpasningen, er CoOp en tilnærming som gjør det mulig å bruke modeller på en mer fleksibel måte, spesielt i miljøer der kontinuerlig justering og tilpasning er nødvendige for å oppnå ønsket ytelse. Dette kan inkludere alt fra objektgjenkjenning til bildetekstgenerering, der en dynamisk tilpasning av prompts kan gjøre store forskjeller i resultatene.
Det er også viktig å merke seg at visjon-språkmodeller ikke nødvendigvis er ferdigtrente for å kunne håndtere alle typer data eller oppgaver på en optimal måte. Selv om CoOp kan forenkle prosessen, er det fortsatt nødvendig å forstå modellens grunnleggende begrensninger og hvordan man kan tilpasse den ytterligere for spesifikke bruksområder. Dette innebærer at det fortsatt kan være situasjoner der man må ty til mer spesifikke teknikker eller tilpasninger for å oppnå den ønskede nøyaktigheten.
Endtext
Hvordan forbedre null-skudd generalisering ved hjelp av Test-Tid Prompt Tuning for Visuelle Språkmodeller
Bruken av grunnleggende modeller (foundation models) har fått økt oppmerksomhet på grunn av deres evne til å overføre kunnskap til forskjellige nedstrømsoppgaver uten spesifikk trening for hver oppgave. En av de mest effektive metodene for å utnytte grunnleggende modeller i slike oppgaver er ved hjelp av "prompting", der en forhåndsbestemt tekstbeskrivelse instruerer modellen til å utføre en bestemt oppgave. I standard null-skudd-applikasjoner er imidlertid effektiviteten av slike prompts sterkt avhengig av designet av prompten, og de kan være suboptimale. En tilnærming som har blitt foreslått for å overvinne dette problemet, er prompt tuning, som lærer å tilpasse prompts basert på nedstrømmsoppgavene ved hjelp av treningsdata. Men denne metoden krever annoterte treningsdata, som kan være kostbare og ofte utilgjengelige for null-skudd-oppgaver.
For å forbedre null-skudd generaliseringen i forhåndstrente visuelle språkmodeller (VLM-er), har vi introdusert en metode kalt "Test-Time Prompt Tuning" (TPT). Denne metoden gjør det mulig å tilpasse prompten på stedet ved å bruke kun ett test-eksempel uten behov for ekstra treningsdata eller annotasjoner. Dette gjør det mulig for modellen å tilpasse seg spesifikke oppgaver, samtidig som null-skudd-innstillingene opprettholdes. TPT kan bidra til en mer robust generalisering for oppgaver som bildeklassifisering og kontekstavhengig visuell resonnering, uten å være begrenset av distribusjonsavvik eller spesifikke datasett.
Når det gjelder bildeklassifisering, benytter vi en fremgangsmåte der en testprøve behandles som en enkelt inngangsbilde. Flere tilfeldig augmenterte versjoner av bildet genereres, og prompten justeres slik at modellen gir konsistente prediksjoner på tvers av disse augmenterte visningene. Dette oppnås ved å minimere marginal entropi mellom de forskjellige utslagene fra de augmenterte visningene. Imidlertid kan noen av augmentasjonene føre til forstyrrende prediksjoner, derfor benytter vi en "confidence selection"-teknikk for å filtrere ut støyende augmentasjoner, slik at bare de med høy prediksjonssikkerhet inkluderes i optimaliseringen. Ved å bruke denne tilnærmingen kan vi forbedre generalisering over ulike datasettskipninger og naturalle variasjoner i data.
For kontekstavhengig visuell resonnering, som i Bongard-HOI, består en testprøve av to sett med støttebilder og ett spørsmålbilde. Hvert støttebilde representerer enten tilstedeværelsen eller fraværet av en menneske-objekt-interaksjon (HOI). Modellen er deretter utfordret med å avgjøre om spørsmålet inneholder det underliggende konseptet. Ved hjelp av TPT justeres promptene slik at modellen lettere kan skille mellom de to støttebildesettene, og dermed bedre klassifisere spørsmålet. Selv om støttebilder brukes, anses tilnærmingen fortsatt som null-skudd for visuell resonnering, da vi ikke benytter verken treningsoppgaver fra andre konsepter eller annotasjoner av spørsmålsbildet på testtidspunktet.
Test-Tid Prompt Tuning (TPT) representerer et betydelig steg fremover i effektiv utnyttelse av grunnleggende modeller for null-skudd-applikasjoner. Metoden gjør det mulig å oppnå god generalisering under distribusjonsendringer, og kan anvendes på tvers av ulike typer oppgaver uten behov for oppgave-spesifikke treningsdata. Den viktigste fordelen er at modellen kan justere seg dynamisk til nye testprøver, uten behov for store mengder treningsdata eller spesifikke annotasjoner.
Det er viktig å merke seg at selv om TPT forbedrer generalisering i null-skudd-scenarioer, er det fortsatt begrensninger knyttet til hvordan denne metoden kan anvendes i praktiske settinger. For eksempel, i komplekse visuelle resonneringsoppgaver, kan modellen fortsatt være følsom for feilaktige augmentasjoner eller uklarheter i dataene. Videre kan metoden være begrenset i hvordan den håndterer dyptgående og svært spesifikke kontekster som krever en mer sofistikert forståelse av både visuelle og språklige elementer.
Hvordan Test-Time Prompt Tuning Forbedrer Vision-Language Modeller
Test-Time Prompt Tuning (TPT) er en metode som gir en mulighet til å tilpasse tekstprompter for å forbedre ytelsen til en visuell-språklig modell under testingen. TPT er spesielt viktig i kontekster der man ønsker å forbedre generaliseringsevnen til modeller som CLIP, uten behov for ytterligere trening eller annotasjoner. Dette gjør det til et effektivt verktøy i applikasjoner der man står overfor utfordringer som naturlige skift i datasett eller behov for generalisering på tvers av ulike domener.
En kritisk komponent i TPT er den såkalte prompt tuning, som skjer under testtiden, hvor modellen lærer å tilpasse tekstprompter i sanntid for å håndtere ulike utfordringer som kan oppstå i et gitt datasett. I denne sammenhengen gjennomførte vi en ablasjonsstudie for å evaluere effekten av ulike komponenter i TPT, og spesielt hvordan forskjellige parametergrupper i CLIP påvirker ytelsen.
En sentral observasjon var at justering av tekstprompten var den mest effektive parametergruppen for å oppnå høyere nøyaktighet. På den andre siden viste det seg at justering av den visuelle koderen førte til de dårligste resultatene. Denne observasjonen er i tråd med tidligere forskning, som antyder at finjustering av bildeenkoderen kan forvrenge forhåndstrente funksjoner og dermed svekke modellens ytelse. I vår studie, hvor vi brukte AugMix som dataforbedring, fant vi at tekstprompten ga den største forbedringen i nøyaktighet, noe som understøtter viktigheten av å justere tekstprompten fremfor de andre komponentene.
En annen viktig komponent i TPT er utvalg av tillit, som fungerer som et filter for å eliminere "støyaktige" forstørrede visninger som ikke gir betydelig informasjon. Vår studie viste at dette tillitsutvalget førte til en betydelig ytelsesforbedring, med en topp-10% tillit som ga den høyeste gjennomsnittlige nøyaktigheten. Dette understreker at selv om ikke alle augmented visninger er like verdifulle, kan valg av de mest pålitelige prøvene sterkt forbedre modellen. Tillitsvalget viste seg å ha en generell effekt på andre testtidsoptimaliseringsmetoder basert på entropi, og denne strategien kan potensielt anvendes på andre typer modeller.
I tillegg ble det gjennomført eksperimenter som analyserte forholdet mellom effektivitet og nøyaktighet i TPT. Det ble funnet at antallet forstørrede visninger og antallet optimaliseringstrinn har en betydelig innvirkning på både ytelse og kjøretid. Økningen i nøyaktighet var markant med flere forstørrede visninger, men nådde et platå etter omtrent 64 visninger. Når det gjelder antall optimaliseringstrinn, førte flere trinn til en minimal forbedring, og etter to trinn ble det ikke registrert betydelig ytterligere gevinst. Dette peker på en praktisk tilnærming der ett trinn kan gi betydelig forbedring uten å påføre store kostnader i form av tid eller beregningsressurser.
Det er også viktig å merke seg at test-time prompt tuning er et fleksibelt verktøy som kan tilpasses forskjellige typer grunnmodeller, inkludert både visuelle og språklige modeller. For å fullt ut utnytte potensialet i TPT, er det nødvendig å finne de riktige test-tidsmålene som passer til den spesifikke modellen og oppgaven. Denne tilnærmingen kan også overføres til andre typer modeller, som generative visuelle-språklige modeller (VLM) eller store språkmodeller (LLM), og kan bidra til å forbedre deres evne til å lære fra testprøver uten ekstra trening.
En viktig del av forskningen videre er å forstå hvordan testtidsoptimalisering kan gjøres mer effektiv ved å redusere inferenshastigheten samtidig som ytelsen opprettholdes eller forbedres. I fremtidige studier kan det være nyttig å undersøke ytterligere metoder for å akselerere testtidsoptimaliseringen, og samtidig evaluere hvordan forskjellige designvalg påvirker både effektivitet og nøyaktighet.
TPT-metoden har allerede vist seg å ha en betydelig effekt på robustheten til CLIP-modellen mot naturlige distribusjonsforskyvninger og dens evne til å generalisere på tvers av ulike datasett. Dette åpner døren for videre forskning på hvordan TPT kan forbedre ytelsen til flere modeller, og gir et viktig grunnlag for å utvikle mer effektive og tilpasningsdyktige AI-systemer.
Hvordan MaskCLIP og MaskCLIP+ Revolusjonerer Segmentering uten Annotasjoner
MaskCLIP representerer et betydelig fremskritt innenfor det som ofte er et svært krevende felt: null-shot segmentering av bilder. Basert på den velkjente CLIP-modellen, som kobler visuelle og språklige representasjoner, gjør MaskCLIP det mulig å utføre bilde-segmentering uten behov for annoterte data, noe som kan være tidkrevende og dyrt å skaffe. Denne tilnærmingen er spesiell fordi den gjør det mulig å segmentere bilder som inneholder både kjente og ukjente konsepter, uten at modellen har blitt spesifikt trent på de aktuelle kategoriene.
MaskCLIP fungerer gjennom en to-trinns prosess som starter med at en tekstlig beskrivelse eller prompt genereres for hvert bilde. CLIP-modellen, som har blitt trent på et enormt korpus av tekst-bilde-par, oversetter denne teksten til et felles representasjonsrom hvor både visuelle og språklige data er kombinert. Ved å bruke denne felles representasjonen, kan MaskCLIP utføre segmentering basert på de semantiske relasjonene mellom tekst og bilde.
Etter dette første steget kan flere teknikker benyttes for å forbedre ytelsen ytterligere. For eksempel er to maskerefineringsteknikker introdusert for å finjustere resultatene: nøkkelsmoothing og prompt-støyreduksjon. Nøkkelsmoothing innebærer at man beregner likheten mellom nøkkelfunksjonene til ulike bildepatcher fra den siste oppmerksomhetslaget i CLIP. Dette gjør det mulig å glatte ut forutsigelsene, og dermed forbedre segmenteringen. Prompt-støyreduksjon, på den annen side, fjerner "støyende" tekstprompter som representerer klasser som ikke finnes i bildet, noe som reduserer antallet distraksjoner og gjør forutsigelsene mer presise.
Imidlertid er det viktig å merke seg at MaskCLIP, til tross for sine fremskritt, fortsatt er begrenset av den opprinnelige CLIP-bildetekst-koderen. Denne avhengigheten medfører arkitektoniske begrensninger som kan hemme dens segmenteringsevne, spesielt når det gjelder mer komplekse eller fine detaljer i bildene.
For å adressere disse begrensningene har MaskCLIP+ blitt introdusert. MaskCLIP+ bygger videre på MaskCLIP ved å bruke den som en generator for pseudolabels under trening. Dette muliggjør bruk av mer avanserte segmenteringsarkitekturer, som PSPNet eller DeepLab, som er bedre rustet til å håndtere mer krevende segmenteringsoppgaver. I tillegg benytter MaskCLIP+ en selvtreningsteknikk hvor pseudolabels fra den opprinnelige MaskCLIP-modellen kontinuerlig brukes til å forbedre seg selv, og dermed oppnå bedre resultater over tid. Denne iterasjonen gjør at MaskCLIP+ kan håndtere ikke bare vanlige segmenteringsoppgaver, men også mer utfordrende scenarier hvor nye, ukjente kategorier er inkludert i bildet.
MaskCLIP+ er spesielt nyttig for transduktiv null-shot segmentering, hvor maskinen ikke bare må håndtere kategorier som den aldri har sett før, men også segmentere disse kategoriene på en presis måte. Ved å bruke pseudolabels generert av MaskCLIP kan systemet begynne å lage nøyaktige segmenteringskart for helt nye konsepter, som for eksempel filmkarakterer eller fine-grained kategorier som “hvit bil” eller “rød buss”. Dette gjør det mulig for modellen å håndtere langt mer dynamiske og varierte datasett enn tradisjonelle segmenteringsmetoder som er avhengige av forhåndsdefinerte kategorier og omfattende annoterte treningssett.
En av de største utfordringene innen semantisk segmentering er avhengigheten av store mengder merkede treningsdata. I de siste årene har flere metoder blitt utviklet for å unngå denne nødvendigheten, som ved å bruke svakere etiketter som bildetekster, rammebokser eller enkle skisser. I vårt arbeid viser vi at funksjoner som er lært gjennom stor-skala visuell-språklig forhåndstrening, som det som er gjort med CLIP, kan brukes direkte for å fremme åpen-vokabular tetthetsforutsigelser. Dette gir mulighet til å implementere semantisk segmentering på en mye mer fleksibel og skalerbar måte, som kan tilpasses flere applikasjoner uten behov for store mengder merket data.
Selv om MaskCLIP+ viser seg å være svært effektivt, er det også viktig å forstå at denne tilnærmingen ikke er en universell løsning for alle typer segmentering. Modellen fungerer best i situasjoner der det er en tilstrekkelig mengde data som kan utnyttes via CLIP’s forhåndstrente funksjoner, og der fine-grained semantikk er nødvendig. Den er også nyttig i kontekster der tilgjengeligheten av annotert treningsdata er begrenset eller hvor nye konsepter ofte dukker opp.
Samtidig har selvtrening vist seg å være et kraftig verktøy for å forbedre maskinlæringsmodeller, spesielt i semi-superviserte og null-shot segmentering. MaskCLIP+ benytter denne teknikken på en måte som lar modellen forbedre seg selv over tid, og dermed takle mer komplekse segmenteringsoppgaver uten konstant ekstern veiledning.
Den generelle robustheten og overførbarheten av CLIP-funksjoner gjør MaskCLIP+ til et verdifullt verktøy i mange anvendelser, spesielt når det gjelder segmentering av ukjente eller uvanlige konsepter. Dette kan inkludere applikasjoner innenfor medieproduksjon, robotikk, og andre felt der det er behov for å gjenkjenne og segmentere objekter i dynamiske, ukjente miljøer.
Hvordan ekstreme bølgekræfter kan påvirke strukturell integritet til OWC-enheter under ekstreme værforhold
Hva gjør en god kaffemaskin for kapsler til en leder?
Hvordan Kosthold, Trening, Søvn og Mental Velvære Påvirker Livskvalitet
Hvordan skaper man dybde og atmosfære i kulltegning?

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский