Metakognition i kognitiva arkitekturer är inte en vag själviakttagelse, utan en konkret funktionell mekanism som uppstår ur interaktionen mellan olika modulära processer. Det är avgörande att förstå skillnaden mellan information om kunskap och information om processer. Den första är lokal och specifik – exempelvis aktiveringen av ett enskilt kunskapsfragment – medan den senare är global och speglar modulens bredare funktionella tillstånd. Metakognition handlar just om denna andra typ av information: den som fångar upp mönster i hur kognitiva moduler bearbetar data och signalerar något om tillförlitlighet, konkurrensnivå eller sannolikheten för framgång.

Den metakognitiva informationen är inte symbolisk i klassisk mening, utan kvantitativ och graderad. Den uttrycker inte explicita regler, utan sannolikhetsbedömningar, självsäkerhet, framträdande faktorer – information som är oskarp men tillräckligt tydlig för att vara användbar i vidare kognitiv bearbetning. Även om denna information saknar symbolisk struktur, är den ändå tillgänglig för medveten åtkomst och kan påverka beslutsfattande direkt genom arbetsminnet.

Metakognitiv övervakning innebär alltså att dessa signaler lyfts upp från modulnivå till arbetsminnet, där de blir föremål för vidare bearbetning. Det behövs inga särskilda metakognitiva mekanismer för att agera på dessa signaler – det räcker med de generella kognitiva processer som redan existerar i arkitekturen. Slutsatser om den egna kunskapen, eller om andras medvetandetillstånd, kan härledas med samma mekanismer som styr övrigt tänkande och problemlösning.

Den praktiska tillämpningen av dessa antaganden har demonstrerats inom modeller av visuell perception. I ACT-R:s visuella modul sker objektigenkänning via en sekvens av uppmärksamhetsförflyttningar och kodningar i visuella buffertar. Men igenkänningen är rudimentär och anpassad till experimentella miljöer – inte till den tvetydighet som präglar verklig perception. Därför blir det viktigt att uppskatta hur tillförlitlig ett perceptuellt beslut är. Direkt tillgång till en korrekt sannolikhet är ofta orealistisk, men självsäkerhetsmått kan fungera som surrogat.

Genom att integrera ACT-R med en neuralt plausibel visuell modell – baserad på Leabra-arkitekturen – blir det möjligt att extrahera metakognitiva signaler ur det neurala nätverkets interna dynamik. Det handlar exempelvis om genomsnittlig aktivering i ett slutlager (analogt med IT-regionen i människans visuella system) eller om maxaktiviteten i ett "winner-take-all"-lager. Dessa signaler används sedan för att identifiera situationer där självsäkerheten är låg. Vid sådana tillfällen initieras en ny cykel av perception, med ett nytt perspektiv, tills självsäkerheten når över tröskeln eller ett gränsvärde passeras. Systemet kan då acceptera sin kategorisering eller ge upp.

I en alternativ strategi används en mer rik representationsnivå: istället för att bara extrahera numeriska mått, hämtas hela det distribuerade representationsmönstret från det neurala lagret. Detta mönster kopplas sedan till ett objekt i det deklarativa minnet. Om mönstret inte tillräckligt liknar redan lagrade representationer, skapas en ny kategori, och systemet börjar träna på detta nya objekt – helt utan extern återkoppling.

Två aspekter är särskilt viktiga här. För det första möjliggör den hybrida symbolisk-neurala arkitekturen just den typ av metakognitiv övervakning som diskuteras: neurala signaler extraheras och görs tillgängliga för symbolisk kognition. För det andra visar detta att systemet inte behöver nya metakognitiva moduler för att reagera på osäkerhet eller fel – det räcker med standardmekanismer som minneshämtning och mönsterigenkänning för att anpassa sitt beteende.

Inom deklarativt minne spelar liknande principer in. ACT-R gör ingen tydlig uppdelning mellan episodiskt och semantiskt minne, utan behandlar båda som en gemensam lagringsyta för erfarenheter och begrepp. Även här är metakognitiva signaler möjliga att utvinna – exempelvis graden av aktivering vid minneshämtning, antal konkurrerande kandidater, eller tidigare utfall vid liknande frågor. Sådana signaler kan vägleda nästa steg i bearbetningen: om självsäkerheten är låg, kanske ytterligare sökningar görs; om konkurrensen är hög, kanske frågan omformuleras.

Det viktiga är att förstå att metakognition här inte är något mystiskt tillägg, utan en emergent funktion ur systemets interna övervakning. De signaler som uppstår är inte färdiga beslut, utan indikatorer på när något är värt ytterligare bearbetning. Det är just denna princip som gör metakognition till en kraftfull, men naturligt integrerad, del av en kognitiv arkitektur.

Det är också centralt att förstå att metakognition inte är isolerad från övrig kognition – tvärtom. Den utgör ett slags tvärsnitt genom arkitekturens hela struktur, och varje modul kan i princip generera metakognitiva signaler om sitt eget tillstånd. Detta innebär att varje beslut, varje perception, varje minnesaktivering potentiellt är föremål för självgranskning – inte som introspektion, utan som en funktionell återkopplingsloop.

Hur metakognition kan förbättra förtroendet och transparens i AI-system inom militära operationer

Inom militära operationer uppstår ofta komplexa problem där AI-system kan vara en ovärderlig resurs. Dessa system används för att producera data, styra autonoma system eller ge beslutsrekommendationer. Trots deras potential att lösa problem kan AI-system både vara exakta och effektiva, eller i värsta fall innehålla fel, vara ofullständiga eller ge missvisande resultat. För att säkerställa att människor kan lita på AI:s output är metakognition en nyckelfaktor för att kalibrera rätt nivå av förtroende i systemens resultat.

Metakognition i AI-system handlar om systemets förmåga att utvärdera sina egna processer, identifiera osäkerheter och ge en realistisk bedömning av resultatens tillförlitlighet. I militära applikationer, där beslut kan innebära liv eller död, är det avgörande att förstå den osäkerhet som ligger bakom AI:s rekommendationer. Om till exempel ett AI-system rekommenderar en viss handlingsplan men visar en hög grad av osäkerhet, kan en militär operatör välja att vänta på en mer tillförlitlig rekommendation eller agera om situationen kräver omedelbara åtgärder.

I stället för att ge ett enkelt förtroendeintervall baserat på en sannolikhetsbedömning, kan metakognitiva processer hjälpa AI att förstå och förklara de faktorer som påverkar dess egna slutsatser. Genom att utvärdera sin egen inlärningsprocess, sensorernas begränsningar och andra externa faktorer kan AI-system ge mer transparens till användarna. Denna självbedömning gör att användarna inte bara får veta vilket resultat som rekommenderas, utan också varför detta resultat föreslås, samt hur säker AI är på sitt eget beslut.

Metakognition kan också spela en avgörande roll för att skapa transparens i de komplexa beslutsprocesserna som används inom militära operationer. AI-system tenderar att vara svåra att förstå på grund av sin komplexitet, vilket gör att användare har svårt att skapa tillit till deras beslut. Detta kallas ofta för systemens "opacity", och det kan leda till misstro eller förnekelse av AI:s rekommendationer. Genom att tillämpa metakognitiva strategier kan AI förklara hur det har bearbetat data, vilka antaganden det har gjort, och hur dessa processer kan påverka resultatet.

Det är också viktigt att förstå att transparens inte bara handlar om att förklara resultatet av en beslutsprocess. AI måste kunna resonera kring sina egna begränsningar och felkällor, både för att undvika fel och för att kunna rätta till dem. I kritiska beslutssituationer, där tid är en avgörande faktor, kan den insikt som metakognitionen erbjuder vara avgörande för att beslutsfattare ska kunna agera effektivt och rationellt.

För exempelvis militär personal, som måste fatta beslut under tidspress, kan AI:s förmåga att förklara sina rekommendationer vara avgörande. Om AI rekommenderar en specifik åtgärd och anger att det finns stor osäkerhet i data eller analyser, kan människan bedöma om det är rimligt att följa rekommendationen nu eller vänta på ytterligare information. Denna transparens gör det möjligt att fatta beslut med en bättre förståelse för AI-systemets logik och de potentiella riskerna.

För att verkligen förstå AI:s rekommendationer krävs en djupare förståelse av hur fel kan uppstå i systemet, hur dessa fel kan påverka beslut och hur man kan minska risken för negativa konsekvenser. Ett AI-system som kan resonera om sina egna fel och ge en förklaring av sin process kan hjälpa användaren att förstå inte bara vilken åtgärd som rekommenderas, utan även vilka faktorer som kan förändras för att förbättra resultatet. Detta gör att användaren kan ta mer informerade och medvetna beslut.

I framtiden kommer AI:s förmåga att använda metakognition för att förstå sina egna processer och interagera med människor på ett meningsfullt sätt att bli ännu viktigare. I takt med att AI-system blir mer involverade i komplexa och tidkänsliga operationer, kommer metakognition att spela en central roll för att säkerställa både effektivitet och förtroende. En AI som kan resonera om sina egna processer och förstå sin egen roll i beslutsfattandet kan erbjuda ett värdefullt verktyg för att stödja människor i deras kritiska beslut, särskilt när konsekvenserna är enorma.