Maksimal Likelihood Estimering (MLE) og Empirisk Risiko Minimisering (ERM) er to fundamentalt viktige metoder i maskinlæring som ofte fører til lignende løsninger, og til og med identiske løsninger under visse betingelser. Begge metodene har som mål å lære en funksjon som predikerer et ukjent mål basert på observasjoner av , der er uavhengig og identisk distribuert (i.i.d.) fra treningsdataene.
I MLE tilnærmingen, starter vi med å anta en form for den betingede sannsynlighetsfordelingen til gitt . Eksempler på slike fordeler kan være en Gaussisk eller Bernoulli fordeling, som fører til henholdsvis minst kvadraters regresjon og logistisk regresjon. Et sentralt poeng i MLE-tilnærmingen er at vi bruker modeller fra den eksponentielle familien av sannsynlighetsfordelinger, som inkluderer mange kjente distribusjoner som Gaussian og Bernoulli. Når vi bruker en fordeling fra den eksponentielle familien, får vi et MLE-optimaliseringsproblem som er konveks i prediksjonsfunksjonen . Dette gjør at eventuelle lokale minima også er globale, og sikrer at løsningen vi finner er optimal.
Når tilhører den eksponentielle familien, kan sannsynligheten skrives som:
Her er en tapsfunksjon, og er en funksjon som tar input og produserer en prediksjon for . Maksimal Likelihood Estimering (MLE) kan da formulere seg som:
Ved å bruke den relevante funksjonen , finner vi den beste funksjonen som minimerer feilen mellom prediksjonene og de faktiske etikettene i treningssettet.
På den andre siden har vi Empirisk Risiko Minimisering (ERM), en vanlig tilnærming i maskinlæring, som også er designet for å minimere feilen mellom prediksjoner og faktiske etiketter. ERM er basert på en tapsfunksjon som måler uoverensstemmelsen mellom en etiket og en prediksjon . Den empiriske risikoen er et gjennomsnitt av tapsfunksjonen over treningsdataene, og målet er å finne den funksjonen som minimerer denne risikoen:
Så, til tross for at MLE og ERM ser ut til å komme fra forskjellige teoretiske rammeverk, har de mange likheter. Når vi tilpasser en tapsfunksjon i ERM til en fordeling fra den eksponentielle familien, får vi et MLE-problem. Begge metodene fører dermed til et problem som kan løses ved konveks optimalisering, der er den beste funksjonen som minimerer den gjennomsnittlige feilen.
For å forstå forskjellene mellom disse metodene, er det nyttig å tenke på hvordan vi velger tapsfunksjoner og hva slags modell vi ønsker å bruke for å beskrive dataene våre. For eksempel, i minst kvadraters regresjon, antar vi at feilen mellom prediksjoner og virkelige verdier følger en Gaussisk fordeling, mens i logistisk regresjon antar vi at følger en binomisk fordeling, som er passende for klassifikasjonsproblemer.
Som et konkret eksempel, kan vi vurdere et problem med lineær regresjon, der vi antar at etikettene er uavhengige og følger en Gaussisk fordeling betinget av , det vil si at . I dette tilfellet er log-likelihooden for gitt ved:
Dette er en vanlig minst kvadrater problem, og MLE gir oss den optimale løsningen ved å minimere kvadratiske feil.
Generaliseringer av lineær regresjon til andre typer distribusjoner, som binomial, multinomial, Poisson, og andre, er vanlige i maskinlæring og kalles generelle lineære modeller (GLM). I slike tilfeller kan vi bruke en tapsfunksjon som er tilpasset fordelingene, men prinsippet forblir det samme.
Når det gjelder eksponentielle familier, er det verdt å merke seg at mange vanlige distribusjoner tilhører denne familien, som den Gaussiske, Poisson, binomiske og Bernoulli distribusjonen. Den generelle formen for sannsynlighetsfunksjonen i den eksponentielle familien er:
Her er den naturlige parameteren, den tilstrekkelige statistikken, og er en normaliseringskonstant som sikrer at sannsynligheten summerer seg til 1. Det som er bemerkelsesverdig med denne familien, er at den resulterende log-likelihooden er konveks, noe som gjør at optimaliseringen blir lettere og kan løses effektivt.
Når vi anvender GLM på dataene våre, kan vi velge som en funksjon av , som i lineær regresjon, hvor . Den tilhørende log-likelihooden kan derfor skrives som:
Dette er en konveks funksjon, og optimaliseringen av denne funksjonen kan derfor gjøres ved hjelp av metoder for konveks optimering, som gjør at vi kan finne den beste løsningen raskt og effektivt.
Det er viktig å merke seg at valget av tapsfunksjon og modell er sentralt i hvordan vi bygger våre maskinlæringsmodeller. Dette valget påvirker hvordan vi estimerer parametrene, hvordan vi beregner risiko, og hvilke metoder vi bruker for optimalisering. I mange tilfeller kan MLE og ERM gi identiske løsninger, men forskjellen ligger i den underliggende teoretiske tilnærmingen og hvordan vi forstår og tolker dataene.
Hvordan oppnå minimal feilrate i klassifikasjon ved hjelp av Bayes-klasser og estimatorer
For å oppnå minimal feilrate i klassifikasjon, er det viktig å forstå hvordan feilen kan uttrykkes matematisk og hvordan man kan estimere de nødvendige parametrene for å bygge en optimal klassifikator. I dette tilfellet bruker vi et Bayesiansk rammeverk hvor målet er å finne en klassifikator som minimerer sannsynligheten for feilklassifikasjon.
Feilens sannsynlighet kan skrives som:
Dette uttrykket kan forenkles ved å bruke symmetrien i problemet, ettersom de to typene feil er like, og derfor kan vi redusere dette til:
Forutsetningen her er at , noe som betyr at feilsannsynligheten er lik sannsynligheten for at en normalfordelt variabel med middelverdi 0 og varians overskrider . Denne feilen kan øvre grenses med Markovs ulikhet, som gir oss:
Det betyr at vi har en øvre grense for feilklassifikasjonen:
Denne grensen gir mening, da feilen vil reduseres når avstanden mellom middelverdiene øker. Den eksakte avstanden mellom middelverdiene er , og som et resultat bør feilen avta når øker.
Estimering av fra treningsdata
I praktisk anvendelse har vi ofte ikke den sanne verdien av , men bare et sett med treningsdata . Her antar vi at , som betyr at gitt er normalfordelt med middelverdi og enhetlig varians. Estimatet for kan dermed beregnes som gjennomsnittet av over treningssettet:
Dette gir oss en estimator for , som vi kan bruke til å klassifisere nye observasjoner med Bayes-kriteriet. Klassifikasjonsregelen blir dermed:

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский