I OntoAgent-arkitekturen organiseras agentens kunskap på ett sätt som skiljer sig från traditionella kognitiva arkitekturer. Istället för att vara enbart fokus på agentens processer och beräkningar, är OntoAgent en innehållscentrerad arkitektur där kunskapsorganisationen spelar en integrerad roll i designen. Denna organisation stödjer agenter med metakognitiva förmågor, vilket innebär att de inte bara bearbetar information utan också reflekterar över sina egna processer, gör bedömningar av tidigare och framtida val, förklarar orsaker till sina beslut och utvecklar sina kommunikativa och lärande förmågor.

I OntoAgent finns tre huvudsakliga typer av kunskapsresurser: situationmodellen, långtidssemantiskt minne och episodiskt minne. Dessa resurser lagrar olika typer av information som alla stödjer agentens operationella och metakognitiva processer.

Situationmodellen, som fungerar som agentens arbetsminne, innehåller en rad element som är avgörande för att förstå och interagera med omvärlden. Dessa element kan vara specifika objekt eller händelser i agentens nuvarande situation, deras rumsliga och tidsmässiga parametrar, samt pågående interaktioner med andra agenter. Modellen inkluderar även agentens aktuella mål, delmål och planer, samt bedömningar av andra agenters mål och planer. Dessutom speglar situationmodellen agentens egna fysiska och mentala tillstånd, som till exempel nivåer av smärta eller rädsla, vilket är avgörande för att förstå hur agenten påverkas av sin omgivning och vilka resurser den behöver för att fatta beslut.

Det långsiktiga semantiska minnet lagrar mer generell kunskap om världen och agenter. Här finns bland annat en ontologisk världsmodell som definierar objekt, händelser och deras egenskaper, samt en samling av mål, delmål och planer som agenten kan använda för att förstå och förutsäga handlingar. För att agenten ska kunna förstå och generera språk, stödjer detta minne också ett lexikon. Dessutom finns funktioner för att tolka sensorisk input, inklusive en modell för fysiologiska reaktioner, som kan hjälpa agenten att tolka sin egen kroppsliga känslomässiga och fysiska status.

Det episodiska minnet består av minnen från tidigare händelser, inklusive deras rumsliga och tidsmässiga detaljer, samt information om andra agenter, inklusive deras mål, tillstånd och tidigare interaktioner. Det är särskilt viktigt att notera att denna information inte alltid är helt tillförlitlig – det återspeglar den osäkerhet som finns i mänskliga relationer och bedömningar. Detta minne inkluderar även profiler av andra agenter, inklusive deras personlighet, känslomässiga och fysiska tillstånd, vilket gör det möjligt för agenten att skapa en mer nyanserad bild av världen och de andra agenterna i den.

När man ser på OntoAgent-ontologin ser man en detaljerad beskrivning av objekt och händelser i världen. Ontologin använder specifika egenskaper för att beskriva objekt och deras relationer, och här används en hierarkisk struktur där begrepp är organiserade i en acyklisk graf. Detta möjliggör en rikare och mer flexibel beskrivning av världen och hur objekt och händelser relaterar till varandra. För att förstå världen på ett ännu djupare plan, används också lexikonet och optikon – kunskapsresurser som hjälper agenten att tolka och förstå språk, bilder och andra sensoriska input.

Det är viktigt att förstå att OntoAgent, genom denna komplexa och noggrant strukturerade kunskapsorganisation, möjliggör en mer mänsklig och dynamisk interaktion mellan agenten och världen. Genom att bygga på en kombination av både semantisk och episodisk kunskap kan agenten inte bara fatta beslut utan också reflektera över sina val och lära sig av sina erfarenheter. Detta gör den till ett kraftfullt verktyg inom områden som artificiell intelligens och kognitionsvetenskap.

För att förstå hur OntoAgent kan användas i praktiken är det avgörande att inte bara fokusera på de tekniska detaljerna i dess arkitektur utan också på hur denna arkitektur möjliggör en mer adaptiv och intelligent agent. För att utveckla dessa system vidare måste vi fortsätta att utmana och förbättra agenternas förmåga att tolka, förstå och interagera med världen, både genom att stärka deras kunskapsresurser och genom att förbättra deras förmåga att använda dessa resurser i metakognitiva sammanhang.

Hur kan osäkerhet hanteras och utnyttjas i robotikens värld?

Inom robotik är hantering av osäkerhet en central utmaning som påverkar allt från perception till kontroll. Traditionellt har osäkerheten modellerats med hjälp av standardmetoder såsom bayesianska tekniker, men i modern forskning har avancerade metoder som djupa neurala nätverk blivit alltmer framträdande för att fånga icke-linjära mönster i data. Kernelbaserade metoder har länge varit uppskattade inom olika områden, inklusive robotik, där de möjliggör att fånga komplexa samband utan att behöva stora neurala nätverk som kan vara beräkningsmässigt kostsamma. Particle filtering, eller sekventiell Monte Carlo (SMC), är en annan etablerad teknik som bevarar mångfald i lösningar och är vanligt förekommande i robotik. Dessa metoder baseras på sannolikhetslära och erbjuder en grund för att uttrycka osäkerhet, men det finns även alternativa modeller som belief functions inom Dempster-Shafer teori, p-boxar i teknisk analys och fuzzy-set metoder som kompletterar och breddar hur osäkerhet kan specificeras och tolkas.

En avgörande aspekt är kalibrering av osäkerheten — hur vet vi att våra uppskattade sannolikheter verkligen är korrekta? Felaktiga sannolikheter kan leda till felaktiga bedömningar av säkerhet, vilket är kritiskt i autonoma system. Metoder som Expected Calibration Error (ECE) används ofta för att kvantifiera hur väl en modell är kalibrerad, genom att jämföra förutsagd sannolikhet och faktisk noggrannhet inom olika intervall. Förbättringar av ECE, såsom Adaptive Calibration Error (ACE), har utvecklats för att ge mer robusta mått. Studier visar att osäkerhetsbedömningens kvalitet ofta försämras vid dataförskjutningar, men metoder som djupa ensembles och stokastisk variational inferens visar lovande resultat. Om en modell är misskalibrerad kan post-hoc tekniker som temperaturskalning och histogrambinning justera sannolikheterna för att bättre överensstämma med verkligheten.

I praktiken måste robotar kunna agera i en komplex och osäker värld med begränsad och ibland tvetydig information. Att skapa en pålitlig miljökarta är grundläggande. Traditionella kartläggningstekniker som ockupansrutnätskartor har sina begränsningar, särskilt när det gäller att kvantifiera epistemisk osäkerhet, alltså osäkerhet på grund av bristande kunskap eller dolda områden. För detta har metoder baserade på Gaussiska processer och Bayesian Hilbert Mapping (BHM) utvecklats. Dessa tillåter en probabilistisk beskrivning av kartan där både aleatorisk (slumpmässig) och epistemisk osäkerhet kan uppskattas. Eftersom beräkningskostnaden ofta är hög, har skalbara approximationer och variational inferens blivit viktiga verktyg.

Lokaliserings- och spårningsproblem i robotik illustrerar ytterligare behovet av osäkerhetshantering. Sensorers begränsningar och miljöförändringar gör det svårt att exakt bestämma position och rörelse. Kalmanfilter, partikelfilter och deras varianter är väl etablerade metoder för att uppskatta position med osäkerhet. Men dessa tekniker fokuserar främst på aleatorisk osäkerhet, och nyare metoder inkluderar också epistemisk osäkerhet, exempelvis via variational inferens och osäkerhetsmodeller i neurala nätverk.

För robotar som ska interagera med sin omgivning är objektigenkänning och positionsbedömning av objekt centralt. Att kvantifiera osäkerhet i både klassificering av objekt och i deras position och orientering är nödvändigt för säkra beslut. Monte Carlo dropout och konforma prediktioner är några av de metoder som används för att bedöma detta. För position och orientering används sannolikhetsfördelningar som von Mises-Fisher och Bingham för att beskriva riktningar och rotationer med osäkerhet. Detta är särskilt viktigt eftersom enbart objektigenkänning sällan räcker – roboten måste även veta exakt hur objekt är placerade för att agera korrekt.

Vidare är semantisk segmentering ett viktigt område inom robotik, där osäkerhet också behöver modelleras för att säkerställa tillförlitlighet i tolkning av miljön.

Utöver de tekniska metoderna är det viktigt att förstå att osäkerhet i robotik inte bara är ett hinder, utan också en rik informationskälla som kan användas för att förbättra beslutsfattande och säkerhet. Att korrekt kalibrera och representera osäkerheten ger en mer realistisk bild av vad roboten vet och inte vet, vilket möjliggör mer robusta och anpassningsbara system. Osäkerheten kan också användas aktivt för att styra inlärning och utforskning, till exempel genom att fokusera på områden där modellen är osäker för att samla mer data eller vidta försiktighetsåtgärder.

Det är också av vikt att inse att osäkerheten inte enbart härrör från sensordata utan kan inkludera mål och önskningar — själva målet kan vara osäkert eller förändras över tid. Därför måste metoder för osäkerhetsbedömning vara flexibla och integrerade i hela robotens kontroll- och beslutsprocesser.

Hur kan Randomiserad Smoothing förbättra robustheten hos djupa neurala nätverk?

Randomiserad smoothing har på senare år blivit ett kraftfullt verktyg för att certifiera robustheten hos djupa neurala nätverk mot adversariella attacker. Genom att applicera en form av slumptalsbaserad förvrängning på indata kan man skapa en säkerhetscertifiering som gör att nätverken står emot manipulationer med en viss grad av garanti.

Teorin bakom randomiserad smoothing är baserad på idén att om man utför en process där varje indata förvrängs slumpmässigt, så blir det svårare för angripare att generera exempel som framkallar felaktiga klassificeringar. Detta beror på att det randomiserade tillvägagångssättet dämpar effekten av små störningar i indata, vilket gör det svårare för attacker att framgångsrikt påverka modellens utfall. När denna metod tillämpas på träningsdata kan man skapa en robustare modell som är bättre rustad att hantera adversariella exempel.

Flera forskningsstudier har utforskat olika metoder för att förbättra randomiserad smoothing. En sådan metod är att använda förvrängningar med minskad varians, vilket kan förbättra både hastigheten och noggrannheten i certifieringen. Detta gör det möjligt att mer effektivt verifiera nätverkens säkerhet och minska kostnaderna för beräkningsresurser under träning och testning. Andra metoder involverar att kombinera randomiserad smoothing med andra tekniker för att uppnå högre certifierad robusthet, till exempel genom att optimera förväntad prestanda över ett stort antal möjliga förvrängningar eller genom att tillämpa olika former av smidighetsregularisering under träning.

En annan viktig aspekt av randomiserad smoothing är dess förmåga att hantera olika typer av störningar i data, såsom adversariella patchar eller ljudpåverkan. Adversariella attacker kan vara mycket svåra att upptäcka och kan få ett nätverk att klassificera bilder eller andra data felaktigt. Genom att använda randomiserad smoothing kan man få en formell garanti för att nätverket kommer att fortsätta vara robust mot sådana attacker inom en viss säkerhetsgräns.

En annan relevant aspekt som har diskuterats är hur olika nätverksarkitekturer kan påverka effekten av randomiserad smoothing. Nya metoder för att hantera denna fråga involverar djupare analyser av nätverkens inre struktur för att optimera för smidiga och robusta lösningar, samt förbättra precisionen i certifieringsprocessen. Det har också visat sig att för att uppnå bästa resultat krävs att man kombinerar randomiserad smoothing med olika tekniker för optimering och generalisering, för att säkerställa att nätverken kan anpassa sig till nya, icke-sekventiella typer av attacker.

Viktigt att förstå för läsaren är att randomiserad smoothing inte är en universallösning, utan snarare en komponent i ett större verktyg för att bygga robusta AI-system. Eftersom det inte finns någon enskild metod som garanterar fullständig säkerhet, är det avgörande att kombinera randomiserad smoothing med andra säkerhetstekniker, som differential privacy eller striktare säkerhetskontroller för att hantera obehörig manipulation av träningsdata. Det är också viktigt att tänka på att randomiserad smoothing, även om det kan ge certifierad robusthet, inte nödvändigtvis gör en modell immun mot alla möjliga typer av attacker.