I dagens digitale verden, der IoT-enheter stadig er mer utbredt, er det viktig å utvikle metoder som både oppdager uregelmessigheter i nettverk og beskytter personvernet. Denne tilnærmingen benytter avanserte krypteringsmetoder og statistiske teknikker for å sikre at selv om data samles og behandles på tvers av flere noder i et nettverk, kan ikke sensitive individuelle data avsløres. Dette gjør det mulig å oppdage anomalier på en sikker og effektiv måte.

For å forstå hvordan dette kan gjøres, må man først se på hvordan data fra ulike noder i et nettverk blir aggregert. Hver node i nettverket samler inn statistiske data, som deretter sendes til et sentralt nettverksoperasjonssenter. Denne dataen består av både "verdi-data" og "nøkkel-data", som blir bearbeidet før de sendes videre. For å beskytte informasjonen, brukes et ekstra mellomledd, en hjelpenode, som spiller en kritisk rolle i krypteringen av disse dataene. Når de krypterte dataene overføres til nettverksoperatøren, kan bare gjennomsnittlige aggregater analyseres uten at operatøren får tilgang til detaljerte data om individuelle noder.

En essensiell teknikk som brukes i denne sammenhengen er distribuert differensial-personvern (DP). Dette er en metode som sikrer at det kun er aggregert statistikk som kan læres fra nettverket, og ikke detaljer om individuelle noder. Dette kan oppnås gjennom spesifikke kryptografiske protokoller, som har blitt grundig beskrevet i tidligere arbeider (f.eks. Leontiadis et al., 2014). En viktig fordel med slike protokoller er at de tillater anonymisert informasjonsdeling, slik at personvern ivaretas, samtidig som anomalier i nettverket kan oppdages.

Anomalier i nettverket oppdages ved å analysere dataenes distribusjon, spesielt den aggregerte statistikken yt. Før en anomali skjer, er dataene jevnt fordelt med et kjent gjennomsnitt og varians, som kan modelleres som en normalfordeling. Når en anomali inntreffer, endres distribusjonen på en måte som gjør det lettere å oppdage. Dette skjer ved at et eller flere noder begynner å sende uregelmessige data, noe som fører til en nedgang i gjennomsnittet av yt. Dette kan oppdages ved å analysere tidsserier og beregne avvikene fra den normale distribusjonen. Det er viktig å merke seg at selv om en node sender feilaktige data, er det fortsatt en risiko for å oppdage anomalien uten å måtte analysere eller avsløre dataene fra hver node individuelt.

Når anomalier oppstår, kan datadistribusjonen ikke lenger beskrives ved en enkel normalfordeling. Dette gjør at metoden for oppdagelse av anomalier må tilpasses. Her kommer teorien om sentralgrenseforskriften (CLT) til nytte. Denne teorien viser hvordan man kan tilnærme seg en løsning på problemet ved å anta at dataene fra noder i et stort nettverk, tross sine ulikheter, kan betraktes som uavhengige og nesten identisk fordelte. Dette gjør det mulig å benytte verktøy som den generaliserte CUSUM-algoritmen for å oppdage tidlige tegn på anomalier basert på endringer i gjennomsnittet av de aggregerte dataene.

Den generaliserte CUSUM-algoritmen brukes til å detektere endringer i distribusjonen av dataene, og dens styrke ligger i evnen til å analysere tidspunkter der dataene avviker fra normen. Når anomalier oppstår, endres ikke bare gjennomsnittet, men også hvordan dataene fordeler seg. Den generaliserte log-likelihood-ratio (GLLR)-statistikken og den resulterende beslutningsstatistikken kan brukes for å gjøre en tidlig vurdering av om en anomali har funnet sted, og på den måten bidra til å beskytte nettverket mot potensielle trusler.

I praksis vil denne tilnærmingen være svært nyttig for store IoT-nettverk, der datamengden er enorm, og det er umulig å analysere individuelle data uten å sette personvernet på spill. Eksperimenter med ekte data, som N-BaIoT-datasettet, har vist at metoden er effektiv for å oppdage anomalier i et sanntidsmiljø, samtidig som den ivaretar personvernet ved å beskytte individuelle data.

Det er også viktig å merke seg at det finnes forskjellige tilnærminger til kryptering og databehandling. En metode som er nevnt er bruken av hemmelige nøkkeldelingsteknikker uten behov for en hjelpenode. Selv om denne tilnærmingen kan være mer effektiv i visse situasjoner, kan den være mindre robust når noder legges til eller fjernes fra nettverket, noe som krever redesign og kan føre til potensielle sikkerhetsproblemer.

Når man tar i bruk slike systemer, er det essensielt å forstå både de tekniske aspektene og de praktiske utfordringene som oppstår i dynamiske og store nettverk. Spesielt bør man være oppmerksom på at denne metoden for oppdagelse av anomalier er avhengig av at dataene kan behandles effektivt og at det finnes tilstrekkelig koordinering mellom nodene i nettverket.

Hvordan analyse av angrep i CEOT-baserte systemer kan forbedre beslutningstaking i energieffektive nettverk

I CEOT-baserte systemer som benytter Bayesiansk beslutningstaking for overvåkning og deteksjon, kan det oppstå alvorlige sikkerhetstrusler, spesielt fra såkalte Byzantine-angrep. Denne typen angrep kan endre både de individuelle sensorbeslutningene og rekkefølgen på beslutningene som sendes til kontrollenheten (FC). Slike angrep utfordrer systemets evne til å foreta riktige beslutninger under angrep og kan alvorlig svekke påliteligheten til det samlede systemet.

En viktig del av analysen av disse systemene er hvordan man kan håndtere sannsynligheten for at sensorer er utsatt for Byzantinske angrep, spesielt når det gjelder DF-Byzantine angrep, der sensorer kun manipulerer sine beslutninger ved å snu dem (flipping). I slike situasjoner kan systemet fortsatt beholde en relativt god deteksjonsprestasjon, så lenge det er riktig konfigurert og dersom det er mulig å utnytte CEOT-teknikker effektivt.

Monte Carlo-metode for beregning under angrep

For å evaluere ytelsen til et CEOT-basert system under angrep, benyttes ofte Monte Carlo-metoder for numerisk evaluering. Dette innebærer at man bruker simuleringer for å beregne sannsynligheten for at en hendelse inntreffer, gitt et stort antall tilfeldig genererte prøver. Når antall sensorer (N) øker, vil imidlertid Monte Carlo-metoden kreve et betydelig høyere antall prøver for å oppnå pålitelige resultater. Dette kan føre til en stor beregningsmessig kostnad, spesielt i store nettverk med mange sensorer. I slike tilfeller kan det være mer effektivt å benytte øvre og nedre grenser for estimater av hva som kan skje, basert på teoretiske modeller.

Estimering av antall besparelser under angrep

For å bestemme effektiviteten til beslutningstakingen i et CEOT-basert system under DF-Byzantine angrep, er det nødvendig å evaluere antallet reduserte overføringer (ANT) som kan oppnås. Dette betyr at man vurderer hvor mange beslutninger som faktisk må sendes til FC før et endelig valg kan gjøres, gitt at sensorene kan være manipulerte. Ifølge teorien kan man formulere estimater for dette antallet, og analysere hvordan de ulike angrepene påvirker nettverkets ytelse.

Deteksjonsprestasjon under DF-Byzantine angrep

Når sensorer er utsatt for DF-Byzantine angrep, kan det være vanskelig å skille mellom falske alarmer og riktige beslutninger. Imidlertid har forskning vist at CEOT-baserte systemer fortsatt kan opprettholde god deteksjonsprestasjon, selv i nærvær av slike angrep. Dette skyldes at CEOT-systemet kan bruke Bayesiansk beslutningstaking for å kompensere for manipulerte beslutninger og fortsatt komme frem til de riktige konklusjonene. Deteksjonsprestasjonen kan uttrykkes ved hjelp av sannsynligheten for korrekt deteksjon og falsk alarm, og disse kan sammenlignes med et standard system for å vurdere effektiviteten til CEOT-metoden.

Sikkerhetsmodeller for angrep

Det er to primære typer Byzantinske angrep som vanligvis vurderes i slike systemer: DF-Byzantine angrep og OA-Byzantine angrep. I et DF-Byzantine angrep endrer sensoren kun sin beslutning, mens i et OA-Byzantine angrep manipuleres både beslutningene og rekkefølgen på beslutningene som sendes. Begge angrepene kan føre til alvorlige problemer for beslutningstakingen i nettverket. I begge tilfeller forutsettes det at sensorene har perfekt kunnskap om den sanne hypotesen, og dermed kan manipulere sine beslutninger for å påvirke den samlede beslutningen.

For DF-Byzantine angrep kan man modellere sensorenes manipulasjoner ved å bruke en sannsynlighet for at beslutningen blir omvendt, avhengig av angrepstype og sensorens status. Dette kan uttrykkes som en sannsynlighet for at den lokale beslutningen sendes til FC i en endret form, som påvirker den totale deteksjonsprestasjonen.

Analyse av antall overføringer sparte under DF-Byzantine angrep

For å få et fullstendig bilde av hvordan CEOT-systemet presterer under angrep, er det viktig å analysere ikke bare deteksjonsprestasjonen, men også hvor mange overføringer som kan spares. Dette innebærer at man vurderer hvor mange beslutninger som faktisk må sendes til FC før et valg kan gjøres. Spesielt under DF-Byzantine angrep, hvor enkelte sensorer manipulerer sine beslutninger, kan det være behov for å sende flere beslutninger før et klart valg kan tas.

I analysen brukes begreper som minimum antall overføringer som kreves for å beslutte en bestemt hypotese, og dette kan uttrykkes som en sannsynlighet for at de nødvendige overføringene faktisk vil bli gjort, gitt at et bestemt antall beslutninger allerede er sendt. Denne analysen gir innsikt i hvor mye kommunikasjon som kan spares i systemet, og hvordan angrepene påvirker det samlede energiforbruket i nettverket.

Viktige betraktninger for leseren

For å virkelig forstå og implementere CEOT-baserte systemer i praksis, er det viktig å ha en god forståelse av de forskjellige angrepene som kan finne sted, og hvordan de påvirker systemets ytelse. DF-Byzantine angrep representerer en utfordring, men det er mulig å beskytte systemet ved å benytte riktige analysemetoder og beslutningsregler. Monte Carlo-simuleringer og teoretiske øvre og nedre grenser er viktige verktøy for å håndtere de komplekse beregningene som kan oppstå i store systemer.

Når man utvikler slike systemer, bør man også vurdere hvordan deteksjonsfeil og falske alarmer kan påvirke den totale påliteligheten til nettverket. Effektiv beslutningstaking i energieffektive nettverk under angrep krever en nøye balanse mellom datainnsamling, beregning av sannsynligheter og implementering av robuste beslutningsregler.

Hvordan oppnå konsensus i desentraliserte robuste sporing av mål i sensor-nettverk med målefeil

I desentraliserte systemer for robust målsporing, spesielt de som benytter flere sensorer, er det ofte nødvendig å håndtere målefeil, spesielt når noen av sensorene kan ha uteliggere i dataene de samler. Et viktig aspekt ved slike systemer er hvordan man oppnår konsensus om sannsynligheter, som er essensielt for å estimere tilstanden til målet i et slikt sensor-nettverk.

En grunnleggende utfordring er å håndtere de sensorene som ikke nødvendigvis måler nøyaktig, men kan gi verdifulle data under visse betingelser. I tilfeller hvor vi jobber med sannsynlighet, og der vi antar at sannsynligheten for sensorens måling er avhengig av en indikatorvariabel, er sannsynligheten for en gitt måling ofte ikke en enkel Gaussisk fordeling. Dette skaper vanskeligheter for å oppnå konsensus på den sannsynligheten som representerer et mål i et desentralisert system.

Ved å ta hensyn til indikatorvariabelen, kan vi forenkle problemet, ettersom den sannsynligheten av sensorens måling blir en Gaussisk fordeling. Dette muliggjør en enklere håndtering av den sannsynligheten for hver sensor i systemet, men utfordringen ligger i det faktum at konsensus på sannsynligheten i denne konteksten vanligvis ikke har en lukket form løsning. For å takle dette, er det vanligvis nødvendig å bruke iterative tilnærminger som kombinerer konsensus på sannsynlighet med iterasjoner av variasjonell bayesiansk (VB) metoder.

I et desentralisert system for robust målsporing, spesielt i tilfeller der sensornodene må være autonome og ikke kan stole på en sentral prosessor, må hver sensor node lokalt identifisere og håndtere uteliggere i målingene. Dette gjøres på en måte som ligner på metoder brukt i sentraliserte systemer, men uten at dataene nødvendigvis sendes til en sentral server. Hver sensor beregner sin egen tilstand og bidrar til den kollektive estimaten av målets posisjon ved å kommunisere med sine naboer i nettverket.

Et annet viktig aspekt er hvordan man fletter konsensus om både sannsynlighet og fordeling i et felles estimat. I tradisjonelle Kalman-filtre forblir innovasjonen ubearbeidet, men i desentraliserte systemer for robust målsporing er det nødvendig å bruke en vektingsparameter, som hjelper til med å kontrollere hvordan innovasjoner fra forskjellige sensorer integreres. Denne vektingen, ofte betegnet som 𝛿t,n, brukes til å unngå at én sensor dominerer estimeringen av målet. Verdien av 𝛿t,n er viktig fordi den skal forhindre at noen sensorer, spesielt de med stor usikkerhet eller uteliggere, får for stor innflytelse på det totale estimatet.

I en typisk desentralisert robust CIF (dRCIF) for målsporing, består prosessen av tre hoveddeler: oppnåelse av konsensus om prior, oppnåelse av konsensus om sannsynlighet, og VB-iterasjoner. Disse tre komponentene er nært knyttet sammen, og iterasjonene for å oppnå konsensus på sannsynligheten blir en integrert del av VB-iterasjonen. Den kombinerte prosessen gir et robust rammeverk for målsporing, men det er viktig å merke seg at den beregningsmessige kompleksiteten til denne metoden kan være betydelig, avhengig av størrelsen på nettverket og antall iterasjoner som kreves.

I praktiske systemer med desentraliserte sensorer er det ofte nødvendig å balansere mellom nøyaktighet og de beregningsmessige kravene. Begrensninger i energiforsyning og kommunikasjonsevner for hvert node setter grenser for hvor mye beregning som kan utføres lokalt, og hvor ofte konsensusprosesser kan gjennomføres. Dette kan føre til at man må gjøre kompromisser når det gjelder hvor presist konsensus om sannsynlighet kan oppnås.

En annen utfordring i slike systemer er håndteringen av sensorfeil og usikkerhet. Ved å bruke en Gaussisk blandingsmodell for å beskrive sensorens målefeil, kan man modellere både normale målefeil og uteliggere. Dette gir en måte å skille mellom "normale" feil og feil som er store nok til å bli ansett som uteliggere, og derfor ikke skal påvirke det totale målet for mye. I slike tilfeller kan sannsynligheten for uteliggere styres ved en parameter 𝜆, som bestemmer sannsynligheten for at en gitt måling er et uteligger.

I simuleringene som brukes for å teste slike desentraliserte sporingssystemer, benyttes forskjellige typer sensorer, som aktive sensorer som gir både avstand og retning, og passive sensorer som kun gir retning. Dette gir et realistisk bilde av hvordan forskjellige typer sensorer kan bidra til et robust målsporing i et nettverk der både pålitelighet og feil i målinger er viktige faktorer.

Det er også viktig å merke seg at mens de teoretiske rammeverkene for desentralisert målsporing med robuste metoder kan være velutviklede, er det mange praktiske aspekter som må vurderes i implementeringen. For eksempel vil strømforsyning, kommunikasjonens rekkevidde og hastighet, samt dataintegritet ha stor innvirkning på systemets ytelse i sanntid. Effektiv håndtering av disse faktorene kan føre til mer pålitelige og robuste sporingsevner i nettverk med mange sensorer og høy usikkerhet.

Hvordan oppdage koordinering i UAV-nettverk ved hjelp av statistisk deteksjon

I et UAV-nettverk (ubemannede luftfartøyer) der flere enheter opererer samtidig, kan det være viktig å avdekke om koordineringen mellom disse enhetene skjer på en måte som kan relateres til flere måloptimalisering. Denne prosessen er kompleks, spesielt når det er støy eller usikkerhet i de radarresponsene som benyttes for å overvåke slike systemer. I dette kapittelet introduseres en metode for å detektere koordinering ved å bruke statistiske verktøy som tar hensyn til støy i radarresponsene. Målet er å fastslå om det eksisterer en konsistens med Pareto-optimalitet, en tilstand hvor ingen enhet kan forbedre sitt resultat uten å forverre en annen enhets resultat.

En grunnleggende utfordring er å bestemme om de observerte radarresponsene kommer fra et optimaliseringsproblem som kan beskrives gjennom multi-mål optimalisering. For å gjøre dette, introduseres en statistisk detektor som gir teoretiske garantier for feiltyper, inkludert Type-I feil, som oppstår når nullhypotesen forkastes selv om den er sann. Dette er en viktig utfordring i systemer som opererer under usikkerhet.

Når radarresponsene observeres under støy, kan dataene beskrives som et sett med par (𝛼t, 𝛽t) hvor 𝛽t er et mål for responsen under støy og 𝜖t representerer den tilfeldige støyen som følger en bestemt fordeling. Vi foreslår en statistisk detektor som undersøker om de observerte dataene kan være resultatet av et multi-mål optimaliseringsproblem.

Formuleringen av hypotesene er som følger:

  • H0 representerer nullhypotesen, som antyder at dataene er konsistente med optimaliseringen for alle t ∈ [T].

  • H1 er den alternative hypotesen, som antar at dataene ikke følger dette mønsteret.

Det finnes to hovedfeiltyper i denne tilnærmingen:

  • Type-I feil: Når H0 forkastes, til tross for at H0 er sann.

  • Type-II feil: Når H0 aksepteres, til tross for at H0 er falsk.

En viktig del av denne prosessen er bruken av en teststatistikk, Φ∗(𝜷), som defineres som maksimumet av Φ̂i(𝜷) for alle enheter i nettverket. Testen krever at enhetene kan løse en optimalisering, og for dette benyttes en ikke-lineær tilnærming som kan håndtere støyen i dataene. Dette innebærer å maksimere et uttrykk som involverer støyforskjellen mellom tidspunktene t og s, og å bruke denne informasjonen til å vurdere om dataene støtter nullhypotesen.

En videre utfordring er at det er vanskelig å kjenne den nøyaktige sannsynlighetsfordelingen fΨ(⋅) for støyen. Derfor benyttes tilnærmingen med en kumulativ distribusjonsfunksjon (CDF) FΨ, som gir et mål på hvor sannsynlig det er at en gitt observasjon stammer fra et koordinert system. Det er vanlig å anta at støyen følger en kjent distribusjon, for eksempel en normalfordeling (Gaussisk støy), noe som gjør det mulig å estimere den nødvendige CDF-en.

En praktisk implementering av detektoren er beskrevet i en algoritme som utfører simuleringer for å generere støydata, beregner det statistiske mål Ψl for hver simulering, og deretter bruker denne informasjonen til å løse for Φ∗(𝜷). Den statistiske detektoren gjør deretter en beslutning om hypotesen basert på en valgt terskelverdi 𝛾, som kan tilpasses avhengig av applikasjonens krav.

Det er også viktig å merke seg at mens denne tilnærmingen har stor teoretisk kraft, forutsetter den at man har tilgang til radarresponsene og at støymodellen kan beskrives på en rimelig måte. Den praktiske implementeringen avhenger sterkt av kvaliteten på støyestimatene og modellens evne til å fange opp koordinering på tvers av flere enheter.

Denne metoden for deteksjon av koordinering i UAV-nettverk representerer et skritt videre fra tradisjonelle metoder for elektronisk krigføring, ved å benytte seg av mikroøkonomiske prinsipper for å analysere og gjenkjenne mønstre i flere-mål optimalisering. Bruken av avanserte statistiske metoder gir en mer presis og robust måte å identifisere koordinering på, selv når radarresponsene er utsatt for betydelig støy.

For leseren er det viktig å forstå at teknikken som presenteres her ikke bare gjelder radarbaserte systemer, men kan også tilpasses andre typer sensornettverk. Den samme tilnærmingen kan brukes til å analysere samspill og koordinering i autonome kjøretøy, droner, eller til og med i roboter som arbeider i et kollektivt miljø. Tenk på hvordan multi-mål optimalisering kan være til nytte i disse sammenhengene: for eksempel, når flere autonome enheter må samarbeide for å oppnå et felles mål, samtidig som de tar hensyn til ulike individuelle begrensninger.

Endtext