Neurosymbolische systemen zijn de afgelopen jaren steeds belangrijker geworden in kunstmatige intelligentie, vooral vanwege hun vermogen om symbolische kennis te combineren met de kracht van neurale netwerken. Dit biedt een krachtige benadering voor het oplossen van complexe problemen die zowel probabilistische als logische redenering vereisen, zoals de visual-Sudoku taak en predicaatclassificatie. De kern van dergelijke systemen is de integratie van verschillende componenten die samenwerken om een oplossing te vinden die zowel nauwkeurig als conform bepaalde regels of domeinkennis is.

Bijvoorbeeld, voor de visual-Sudoku taak is de uitdaging om een incompleet Sudoku-bord, gepresenteerd als een afbeelding, om te zetten naar een complete oplossing, waarbij de traditionele Sudoku-regels strikt nageleefd worden. Dit proces begint met het gebruik van een Neuro-Solver, een neuraal netwerk dat een benadering van de oplossing biedt. Deze initiële oplossing wordt vervolgens geanalyseerd door een Mask-Predictor, die de delen van de oplossing identificeert die niet voldoen aan de vastgestelde regels van Sudoku, zoals het niet herhalen van getallen in rijen, kolommen of blokken. Het masker dat door de Mask-Predictor wordt gegenereerd, markeert de foutieve onderdelen van de oplossing, waarna de Symbolic-Solver de resterende "leegtes" vult met een geldige oplossing, die voldoet aan de regels van Sudoku.

Dit proces maakt gebruik van drie belangrijke componenten: de Neuro-Solver, de Mask-Predictor en de Symbolic-Solver. Elk van deze speelt een cruciale rol in het creëren van een oplossing die zowel nauwkeurig als in overeenstemming met de opgelegde beperkingen is. De Neuro-Solver is verantwoordelijk voor het genereren van een oplossing in de vorm van een waarschijnlijkheidsverdeling over mogelijke antwoorden. De Mask-Predictor analyseert deze oplossing en identificeert de foutieve delen, terwijl de Symbolic-Solver vervolgens de ontbrekende of foutieve delen van de oplossing aanpast om de juiste oplossing te verkrijgen, rekening houdend met de regels die door de gebruiker zijn opgelegd.

Het leerproces van dit systeem gebeurt in twee fasen. In de eerste fase worden de componenten van het systeem, zoals de Neuro-Solver en de Mask-Predictor, afzonderlijk getraind met behulp van een traditionele supervised learning aanpak. Daarna worden ze gecombineerd en verfijnd met behulp van reinforcement learning, wat het systeem in staat stelt zich verder te verbeteren door feedback te ontvangen over de nauwkeurigheid van de gegenereerde oplossingen. Dit soort hybride benadering maakt het mogelijk om het beste van zowel neurale netwerken als symbolische redenering te benutten.

Een ander voorbeeld van de toepassing van deze neurosymbolische benadering is de predicaatclassificatie (PredCl). Hierbij bestaat de taak uit het voorspellen van de juiste relatie tussen objecten die in een afbeelding worden gepresenteerd als gelabelde en gelokaliseerde objecten. Het systeem moet de juiste predicaat relateren tussen objectparen, zoals het identificeren van een relatie zoals "rijdt op" of "staat voor". In dit geval is de uitdaging niet alleen het correct classificeren van objecten, maar ook het respecteren van de logische regels die deze relaties beschrijven, zoals de asymmetrie van bepaalde predicaten (bijvoorbeeld "in front of" is niet symmetrisch).

In beide gevallen is de kracht van het neurosymbolische systeem te vinden in de manier waarop het probabilistische en symbolische redenering combineert. De Neuro-Solver biedt een benadering van de oplossing die snel kan worden berekend, maar mogelijk fouten bevat die niet voldoen aan de strikte logische regels. De Mask-Predictor corrigeert deze fouten door de oplossing te markeren en vervolgens past de Symbolic-Solver de oplossing aan om aan de regels te voldoen. Dit proces zorgt ervoor dat de uiteindelijke oplossing zowel praktisch als correct is.

Wat belangrijk is om te begrijpen, is dat het succes van een dergelijk systeem niet alleen afhangt van de kracht van het neurale netwerk, maar ook van de manier waarop het wordt gecombineerd met symbolische redenering. Symbolische redeneermethoden, zoals logische en probabilistische logica, spelen een cruciale rol in het afdwingen van de juiste oplossingen binnen het kader van specifieke regels. Het vermogen om probabilistische en logische benaderingen te integreren opent de deur naar veel meer geavanceerde toepassingen, van complexe puzzels zoals Sudoku tot geavanceerde beeldherkenningstaken.

De training van de Mask-Predictor speelt hierbij een belangrijke rol. Deze wordt getraind met synthetische datasets die ruis bevatten, wat helpt om de robuustheid van het systeem te verbeteren. Het systeem leert de juiste "maskers" te genereren die aangeven welke delen van de voorspelling fouten bevatten en gecorrigeerd moeten worden. Dit kan de kracht van het systeem aanzienlijk verbeteren, vooral bij taken waarbij de regels complexer of meer variabel zijn.

Samenvattend is het gebruik van een neurosymbolisch systeem zoals beschreven in de voorbeelden van visual Sudoku en predicaatclassificatie een krachtig hulpmiddel voor het oplossen van taken die zowel een probabilistische benadering als strikte regeltoepassing vereisen. Door de samenwerking tussen de Neuro-Solver, de Mask-Predictor en de Symbolic-Solver kunnen dergelijke systemen nauwkeurige en regelconforme oplossingen genereren, wat ze uitermate geschikt maakt voor een breed scala aan toepassingen, van logische puzzels tot complexe beeldverwerkingsproblemen.

Hoe kan Meta Modellen bijdragen aan de onzekerheidskwantificatie in regressietaken?

De benadering van onzekerheidskwantificatie in diepe neurale netwerken (DNN) is een gebied dat zich in toenemende mate ontwikkelt, met verschillende methoden om onzekerheden in de voorspellingen van modellen te meten. Traditionele benaderingen, zoals Monte Carlo Dropout en Bayesian Neural Networks, bieden interessante inzichten, maar ze hebben vaak beperkingen als het gaat om het schalen naar verschillende representaties van onzekerheid. Een alternatieve en flexibele benadering is de zogenaamde "evidentiële leren", waarin een prior verdeling wordt gekozen om de onzekerheid over de waarschijnlijkheidsfunctie te representeren. Training monsters worden vervolgens gebruikt om de parameters van de prior verdeling te leren die het beste de “evidence” of samples vertegenwoordigen. Dit maakt de benadering bijzonder geschikt voor diverse taken, van aleatorische tot epistemische onzekerheid, en zelfs voor het detecteren van "out-of-distribution" (OOD) monsters.

Een van de meest interessante toepassingen van deze benadering is het zogenaamde "Meta Modeling", een post-hoc methode ontwikkeld door Shen et al., waarmee bestaande getrainde modellen kunnen worden verrijkt met de mogelijkheid om onzekerheid te voorspellen, zonder dat het volledige netwerk opnieuw getraind hoeft te worden. Dit is bijzonder handig voor toepassingen waarbij modellen online leren of leren van menselijke feedback, en het stelt de agent in staat de onzekerheidsinschatting bij te werken naarmate het nieuwe kennis verwerft. Het belangrijkste voordeel van deze benadering is de flexibiliteit, aangezien het een breed scala aan onzekerheidsdistributies kan toepassen, afhankelijk van de specifieke taak en het type onzekerheid dat gemeten moet worden.

In Meta Modeling wordt een extern netwerk, het "Meta Model", getraind om de parameters van een gewenste distributie te voorspellen, gebruikmakend van de tussenliggende lagen van een basisnetwerk. Deze tussenliggende representaties van het basisnetwerk worden gebruikt om een lager-dimensionale latente ruimte te leren die de belangrijkste parameters voor de voorspelde onzekerheid vertegenwoordigt. Dit proces kan verschillende soorten onzekerheid modelleren, zoals aleatorische onzekerheid, epistemische onzekerheid, en zelfs het detecteren van OOD-monsters, afhankelijk van de gekozen distributie.

Bijvoorbeeld, voor een classificatietaak kan het Meta Model de parameters van een Dirichlet distributie leren, die bijzonder goed werkt voor het detecteren van OOD-monsters door de scherpte van de distributie te thresholden. De flexibiliteit van Meta Modeling komt tot uiting in het feit dat verschillende distributies kunnen worden gekozen, afhankelijk van de taak, zoals de multivariate normale distributie voor regressietaken. In dergelijke gevallen is de keuze van de distributie cruciaal, aangezien een enkele Gaussian distributie vaak onvoldoende is voor complexe, multimodale onzekerheden die kunnen ontstaan in echte sensor data.

Meta Modeling voor regressietaken vereist een zorgvuldige afweging van de gebruikte tussenliggende lagen van het basisnetwerk. In veel gevallen is het voldoende om alle tussenliggende lagen te gebruiken, maar bij grote modellen, zoals grote taalmodellen (LLM's), kan het nodig zijn om slechts een subset van de lagen te selecteren om de rekenefficiëntie te behouden. De Meta Feature Netwerken, die de tussenliggende representaties verwerken, worden typisch geconstrueerd met een enkele lineaire laag gevolgd door een ReLU-activeringsfunctie. De afstemming van de grootte van de invoer en uitvoer van deze netwerken is essentieel voor het behoud van de integriteit van de modelresultaten.

Bij het trainen van het Meta Model worden er doorgaans twee benaderingen gebruikt. De eerste is het gebruik van de Maximum Likelihood Estimator (MLE), die bijzonder handig is voor het trainen van normale distributies, aangezien deze geen kennis van de werkelijke covariantiematrix vereist. Dit maakt de benadering geschikt voor real-world datasets waarin dergelijke gegevens vaak niet beschikbaar zijn. De tweede benadering maakt gebruik van een distributie-naar-distributie maat, zoals Kullback-Leibler (KL) Divergentie of Wasserstein afstand, wat meer generieke en flexibele trainingsmogelijkheden biedt, maar dan moet de werkelijke onzekerheidsrepresentatie van de gegevens wel bekend zijn.

Bij regressietaken moet de Meta Modelarchitectuur ook rekening houden met de specificaties van de covariantiematrix. De validatie van de covariantiematrix is een essentieel onderdeel van de training en voorspelling van het Meta Model. Dit wordt doorgaans bereikt door eerst een LDL-decompositie van de matrix uit te voeren en vervolgens exponentiële activatie toe te passen op de diagonale matrix om positieve waarden te garanderen. Alleen de bovenste driehoekige parameters worden voorspeld en de onderste driehoek wordt automatisch ingevuld om de symmetrie van de covariantiematrix te behouden.

De keuze van de trainingsmethode, zoals het gebruik van Maximum Likelihood of een distributie-naar-distributie maat, is een belangrijke afweging voor de praktische toepasbaarheid van de Meta Modelbenadering. De juiste keuze hangt af van de beschikbare data en de specifieke toepassing waarvoor het model bedoeld is.

Bij het experimenteren met dergelijke modellen is het essentieel dat de resultaten van de Meta Modeling-benadering zorgvuldig worden gevalideerd. Een voorbeeld hiervan is het gebruik van een thermistorproef, waarbij de relatie tussen temperatuur en weerstand gemeten wordt. Dit soort experimenten biedt inzicht in hoe goed Meta Models de onzekerheid kunnen voorspellen en hoe ze zich gedragen in praktische omgevingen. Dit maakt Meta Modeling een krachtige benadering voor het meten van onzekerheid in zowel eenvoudige als complexe taken.

Een belangrijk aspect dat verder verduidelijkt moet worden, is hoe Meta Modeling zich verhoudt tot andere benaderingen van onzekerheidskwantificatie, zoals traditionele Bayesian methoden of Monte Carlo Dropout. Meta Modeling biedt de mogelijkheid om onzekerheid toe te voegen aan een reeds getraind model zonder dat volledige hertraining nodig is, wat aanzienlijke voordelen biedt op het gebied van rekenkracht en tijdsefficiëntie. Bovendien maakt het gebruik van een externe netwerktrainingsmethode het mogelijk om snel te reageren op nieuwe gegevens en aanpassingen in het model aan te brengen op basis van online leren of feedback.

Hoe helpt onzekerheid bij het bouwen van betrouwbare en robuuste robots?

In een wereld die gekenmerkt wordt door onvoorspelbaarheid en incomplete informatie, moeten robots niet enkel kunnen handelen op basis van wat ze weten, maar ook op basis van wat ze niet weten. Onzekerheid is geen beperking, maar een noodzakelijke component in de leer- en besluitvormingsprocessen van belichaamde AI-systemen. Het vermogen om onzekerheid te detecteren, te kwantificeren en ermee om te gaan, maakt het mogelijk om beslissingen te nemen die niet alleen effectief, maar ook robuust en verantwoord zijn.

De wereld waarin robots opereren is complex, dynamisch en vaak niet volledig observeerbaar. Daarom is het onrealistisch om alle mogelijke scenario’s volledig te modelleren of uitputtend te leren. In plaats daarvan moeten robots leren om de waarschijnlijkheid van gebeurtenissen en hun gevolgen te schatten. Het herkennen van wat relevant is en wat niet, stelt het systeem in staat om het leerproces te richten op wat ertoe doet, en zijn eigen beslissingen kritisch te evalueren. Onzekerheid fungeert daarbij als een mechanisme om prioriteit te geven aan bepaalde waarnemingen, acties of scenario’s, afhankelijk van hun impact en waarschijnlijkheid.

Twee fundamentele paradigma’s illustreren de manier waarop onzekerheid en diversiteit binnen AI-systemen benut worden: het evaluatieve paradigma en het generatieve paradigma. In het evaluatieve paradigma leert een robot een model dat zijn eigen onzekerheid over de wereld expliciet representeert. Wanneer bijvoorbeeld een rover een hoogtekaart van Mars samenstelt en daarbij slechts gedeeltelijke visuele data heeft, ontstaat er epistemische onzekerheid over de niet-geobserveerde gebieden. In plaats van één enkele kaart te gebruiken, is het krachtiger om een verzameling kaarten met verschillende waarschijnlijkheden te genereren. Deze meervoudige hypothesen helpen het systeem risico's te evalueren, zoals het vermijden van diepe putten achter obstakels die buiten het zichtveld vallen. Hierdoor kunnen beslissingen genomen worden die zich positioneren langs het spectrum tussen risicomijdend en risicoselectief gedrag, afhankelijk van de taak en de veiligheidsdoelstellingen.

Het generatieve paradigma daarentegen draait om het creëren van hypothetische werelden, scenario’s of gegevens. Denk hierbij aan het genereren van virtuele omgevingen via digitale tweelingen of physics-based simulaties. In de robotica is dit cruciaal, aangezien gesimuleerde data een goedkope en veilige manier bieden om modellen te trainen zonder afhankelijk te zijn van fysieke tests, die duur of potentieel gevaarlijk kunnen zijn. Bovendien laat het genereren van diverse scenario’s toe om robuustheid te vergroten via technieken zoals domeinrandomisatie. Ook worden hiermee zeldzame of extreme randgevallen gecreëerd, die belangrijk zijn voor het identificeren van faalmodi of onverwachte gedragspatronen bij bestaande modellen.

Niet elke toepassing vereist echter een verfijnde modellering van onzekerheid. Het actief modelleren van alle mogelijke vormen van stochastiek is niet alleen computationeel zwaar, maar vaak ook overbodig voor real-time toepassingen. Hier komt het belang van bronidentificatie van onzekerheid naar voren. Onzekerheid kan voortkomen uit zowel interne als externe factoren. Interne bronnen omvatten beperkingen van de sensoren, actuatoren en andere mechanische componenten. Elke sensor levert metingen op die onderhevig zijn aan systematische, willekeurige en grove fouten. Bijvoorbeeld: een zelfrijdend voertuig kan moeite hebben met het nauwkeurig lokaliseren van een voetganger wanneer de LIDAR-systemen onnauwkeurig zijn door weersinvloeden of doordat het GPS-signaal in een stedelijke canyon vervormd wordt. Deze gecombineerde fouten vergroten de onzekerheid van de lokalisatie aanzienlijk. Evenzo kunnen actuatoren zoals stappenmotoren onnauwkeurigheden vertonen bij het uitvoeren van bewegingen, waardoor er discrepantie ontstaat tussen de geplande en werkelijke actie van de robot.

Het herkennen van epistemische onzekerheid – die voortkomt uit gebrek aan kennis of observatie – is van fundamenteel belang. Dit type onzekerheid kan worden gemodelleerd, verminderd of geëxploreerd. Door het expliciet kwantificeren van deze onzekerheid kan een robot gericht aanvullende data verzamelen, of conservatieve beslissingen nemen in onzekere situaties. Daarentegen is aleatorische onzekerheid – die voortkomt uit inherente variabiliteit van het systeem of de omgeving – doorgaans niet reduceerbaar en vereist eerder een robuuste benadering in plaats van informatieverzameling.

Wat verder belangrijk is om te begrijpen, is dat de modellering van onzekerheid hand in hand gaat met schaalbaarheid. Naarmate modellen groter worden – bijvoorbeeld bij het gebruik van diepe neurale netwerken – neemt de rekencomplexiteit van onzekerheidsrepresentatie toe. Dit vormt een uitdaging, zeker in real-time toepassingen. Daarom vereist de integratie van onzekerheidsmodellen een afweging tussen nauwkeurigheid, expressiviteit en efficiëntie. Het vinden van het juiste balanspunt is geen triviale keuze, maar bepaalt in hoge mate de praktische toepasbaarheid en veiligheid van het AI-systeem.

Tot slot moet benadrukt worden dat onzekerheid niet slechts een hulpmiddel is voor betere voorspellingen of veiliger gedrag, maar een structureel onderdeel van betrouwbare AI. In een wereld waarin fouten kostbaar zijn – of het nu om menselijk leven, economische schade of maatschappelijke acceptatie gaat – is het vermogen om niet alleen te weten wat men weet, maar ook te weten wat men niet weet, een cruciaal kenmerk van verantwoorde intelligente systemen.

Hoe kan kennisaccumulatie de robuustheid van machine learning-applicaties verbeteren?

In diverse toepassingen van machine learning (ML) spelen gegevenskwaliteit (DQ) en infrastructuur cruciale rollen voor het succes van het systeem. Van verkeersborddetectie in intelligente transportsystemen tot stemherkenning en transcriptie door virtuele assistenten, ML wordt in real-time toepassingen gebruikt om data te verwerken en beslissingen te nemen. Echter, wanneer ML afhankelijk is van cyberinfrastructuur voor gegevensverzameling, communicatie en verwerking, kan de variabiliteit in gegevenskwaliteit de prestaties van de applicatie aanzienlijk beïnvloeden. Dit vormt een belangrijke uitdaging voor de effectiviteit van ML-systemen.

In deze context hebben we een nieuwe architectuur ontwikkeld voor machine learning in netwerken (MLIN), die verder gaat dan bestaande benaderingen door rekening te houden met de onderlinge relaties tussen verschillende componenten van MLIN. Door deze relaties te analyseren, kan het systeem feedback geven over herschikkingsacties die de prestaties van ML-applicaties verbeteren en de robuustheid tegen degradaties in gegevenskwaliteit vergroten. Dit concept van interrelaties vormt de basis voor een nieuw type MLIN-systeem, dat we "mLINK" (machine learning integration with knowledge) noemen. In deze structuur wordt kennis het kernconcept dat de verschillende componenten van het systeem met elkaar verbindt, waardoor nieuwe functionaliteiten en verbeteringen in prestaties, betrouwbaarheid, beveiliging en robuustheid mogelijk worden, zelfs onder veranderende operationele omstandigheden.

mLINK biedt niet alleen de mogelijkheid om robuustheid te verbeteren, maar ondersteunt ook metacognitie, een proces waarbij het systeem zijn eigen leerproces evalueert en aanpast om betere resultaten te behalen. Net als in natuurlijke cognitieve systemen kan mLINK leren van de onderlinge relaties tussen zijn componenten en deze kennis gebruiken om de prestaties van de applicatie te verbeteren, zelfs wanneer de gegevenskwaliteit varieert. Dit proces van zelfreflectie en aanpassing zorgt ervoor dat ML-systemen dynamischer en efficiënter reageren op veranderende omstandigheden.

Een van de belangrijkste toepassingen van kennis in mLINK is het verbeteren van de robuustheid van ML-applicaties. Robuustheid in deze context betekent het vermogen van de applicatie om zijn prestaties te handhaven, zelfs wanneer de kwaliteit van de ingevoerde gegevens fluctueert. Door de onderlinge relaties tussen de verschillende componenten te begrijpen, kan mLINK strategieën ontwikkelen om de robuustheid te verbeteren, zoals het herstructureren van de infrastructuur voor gegevensverzameling, het aanpassen van netwerkfaciliteiten en het veranderen van de leerparken van ML-applicaties.

mLINK integreert metacognitieve capaciteiten en gebruikt deze kennis om het systeem aan te passen aan veranderende omstandigheden. Het systeem is in staat om kennis te accumuleren over de onderlinge relaties tussen verschillende operationele omstandigheden, de parameters van MLIN-componenten en de prestaties van de applicatie. Door deze kennis te gebruiken, kan mLINK het MLIN-systeem dynamisch aanpassen om de robuustheid te verbeteren, zelfs wanneer de gegevenskwaliteit varieert. Specifieke voorbeelden van deze kennisafleiding en integratie zijn onder andere de herstructurering van dynamische gegevensverzamelingsinfrastructuren, het aanpassen van netwerkcapaciteiten en het verbeteren van transfer learning (TL).

mLINK heeft aangetoond dat het metacognitieve strategieën en technieken zoals gegevensverzamelingoptimalisatie, het waarborgen van gegevenskwaliteit tijdens communicatie, en de verbetering van beveiliging en privacy door middel van federated learning (FL) belangrijke voordelen kunnen opleveren voor diverse intelligente systemen. Deze technieken helpen niet alleen de prestaties te verbeteren, maar ook de robuustheid en veiligheid van de gegevenscommunicatie, wat essentieel is voor de effectiviteit van ML-toepassingen in de praktijk.

In onze onderzoeken hebben we verschillende manieren onderzocht om kennis af te leiden uit verschillende MLIN-componenten, die samen mLINK vormen. Omdat mLINK bestaat uit diverse infrastructuur- en intelligente componenten uit verschillende domeinen, kan de kennis die daaruit wordt afgeleid, bijdragen aan het verbeteren van de robuustheid en prestaties van ML-applicaties. Zo hebben we bijvoorbeeld kennis afgeleid van netwerkcommunicatiekanalen en van de deelname van cliënten aan federated learning-processen. Deze kennis wordt gebruikt om metakennis te genereren, die vervolgens door mLINK wordt ingezet om het systeem aan te passen aan veranderende DQ-omstandigheden en de prestaties te verbeteren.

Een ander aspect dat van cruciaal belang is, is de manier waarop we de DQ binnen de infrastructuur kunnen meten en verbeteren. We hebben eerder methoden ontwikkeld om DQ-scores te berekenen, rekening houdend met factoren zoals sensornauwkeurigheid en platformbeveiliging voor smartphones en andere mobiele apparaten. Met behulp van genetische algoritmen (GA) kunnen we in real-time de optimale combinatie van gegevensbronnen vinden, wat resulteert in een snellere verwerking en een hogere systeemprestatie. Door meerdere gegevensbronnen samen te voegen, kunnen we de DQ verbeteren, zelfs als de gegevens uit verschillende formaten en bronnen afkomstig zijn. Deze benadering maakt het mogelijk om sneller en efficiënter te werken dan met conventionele methoden, terwijl we de gegevenskwaliteit behouden.

Daarnaast hebben we onderzocht hoe de DQ verandert wanneer gegevens uit verschillende bronnen worden gecombineerd en wat de invloed hiervan is op de prestaties van de applicatie. Dit onderzoek benadrukt het belang van een holistische benadering van gegevensverwerking, waarbij zowel de infrastructuur als de intelligentie van het systeem optimaal worden benut.

Door kennis een centrale rol te geven in de mLINK-structuur, realiseren we het concept van metacognitie en stellen we het systeem in staat om beter te leren en robuustere strategieën te ontwikkelen voor het verbeteren van de prestaties van intelligente systemen. Dit maakt het mogelijk om robuuste, efficiënte en veilige ML-toepassingen te ontwikkelen, zelfs onder variabele omstandigheden.

Hoe metacognitie AI-systemen kan helpen bij militaire operaties: Vertrouwen, Transparantie en Menselijke Interactie

In militaire operaties, die vaak uiterst complexe probleemdomeinen zijn, kunnen AI-systemen in veel gevallen een sleutelrol spelen bij het ondersteunen van beslissingen en operaties. AI kan gegevensproducten genereren, autonome systemen besturen of aanbevelingen doen voor beslissingen. De output van dergelijke systemen kan variëren van uiterst nauwkeurig en effectief tot incompleet, vol fouten, of zelfs gewoon foutief. De gevolgen van dergelijke "slechte" producten kunnen verwoestend zijn, vooral in een militaire context, waar slechte data of beslissingen kunnen leiden tot verloren middelen, doden of, in het ergste geval, escalatie naar grotere geopolitieke conflicten. Dit maakt het essentieel om een betrouwbaar mechanisme te hebben voor het kalibreren van het vertrouwen in de AI-output.

Metacognitie, het vermogen van een systeem om zichzelf te begrijpen en zijn eigen denken en functioneren te evalueren, kan hierbij helpen. Door zichzelf te beoordelen en de situatie te analyseren, kan een AI-systeem de mate van vertrouwen in zijn producten of aanbevelingen kalibreren. Dit wordt gedaan door niet alleen een vertrouwensscore te geven, maar ook een uitleg te verschaffen over hoe de beoordeling tot stand kwam. In militaire toepassingen kan bijvoorbeeld een soldaat die een aanbeveling van een AI-systeem ontvangt, het vertrouwen in de aanbeveling beoordelen. Als het AI-systeem veel onzekerheid of foutmarges aangeeft, kan de soldaat besluiten de aanbeveling te negeren of te wachten op een meer betrouwbare versie van de aanbeveling.

Een ander belangrijk aspect van AI-systemen in militaire operaties is transparantie. AI-systemen worden vaak als ondoorzichtig beschouwd vanwege hun complexe werking. Dit gebrek aan transparantie kan het vertrouwen in deze systemen ondermijnen, vooral wanneer ze worden gebruikt voor tijdkritische, levensbedreigende beslissingen. Een voorbeeld hiervan is het programma Explainable AI (XAI), dat tussen 2015 en 2021 werd beheerd door DARPA. Dit programma probeerde een oplossing te vinden voor de ondoorzichtigheid van AI-systemen, zonder expliciet metacognitie te bestuderen. XAI toonde aan dat de meest effectieve AI-methoden, zoals diepe neurale netwerken, ook de meest ondoorzichtige zijn. Het ontwikkelen van metacognitie kan AI-systemen echter in staat stellen om meer transparantie te bieden, bijvoorbeeld door inzicht te geven in hun eigen werking, de bron van fouten en hoe ze tot bepaalde aanbevelingen kwamen.

In militaire contexten is transparantie van cruciaal belang. Bij bijvoorbeeld strategische beslissingen, zoals missies en de verdediging van militaire middelen, kan de tijdsdruk het onmogelijk maken om diep in de werking van een AI-systeem te duiken. Toch kan het nuttig zijn om toegang te hebben tot de informatie over hoe het systeem zijn aanbevelingen heeft opgebouwd, welke onzekerheden erbij betrokken zijn en hoe het niveau van vertrouwen is vastgesteld. Als bijvoorbeeld een aanbeveling gepaard gaat met een laag vertrouwen, kan de militaire planner verder onderzoeken welke factoren deze lage score hebben veroorzaakt en bepalen of de situatie verbetert met meer gegevens.

Naast transparantie kan metacognitie AI-systemen helpen bij het redeneren over zichzelf en het identificeren van potentiële fouten of mislukkingen in hun eigen processen. Dit is niet alleen waardevol voor het verklaren van wat er mis ging, maar ook voor het verbeteren van toekomstige prestaties. Het systeem kan bijvoorbeeld zelfredenering gebruiken om te begrijpen hoe fouten ontstaan en hoe deze zich door het systeem verspreiden. Bovendien kan het AI-systeem, door zich bewust te zijn van zijn eigen proces, het gedrag van de menselijke gebruiker beter integreren en rekening houden met de rol van de mens in de fouten die tijdens de interactie kunnen optreden.

In sommige gevallen kan het ook waardevol zijn om AI-systemen te voorzien van causaliteit en mens-AI-redenering om zo zowel zelfbegrip van het systeem als het begrip van de mens te ondersteunen. Dit kan vooral belangrijk zijn in situaties waar de AI wordt gebruikt om alternatieven voor militaire actie te genereren. In zo'n context moet een soldaat mogelijk snel begrijpen waarom een bepaalde actie wordt aanbevolen en wat de achterliggende denkprocessen zijn. Het vermogen van een AI-systeem om zichzelf en zijn proces uit te leggen, kan hierbij essentieel zijn.

Metacognitie heeft dus veel potentieel in de ontwikkeling van militaire AI-systemen. Het is niet alleen een manier om vertrouwen en transparantie te verbeteren, maar het helpt ook bij het integreren van menselijke input en het verbeteren van de samenwerking tussen mens en machine. Het creëren van systemen die zich bewust zijn van hun eigen functioneren, en deze bewustwording kunnen delen met hun menselijke gebruikers, maakt het mogelijk om AI-systemen te ontwikkelen die niet alleen autonoom werken, maar ook effectief samenwerken met mensen, vooral in kritieke situaties.