In de voortdurende ontwikkeling van metacognitieve kunstmatige intelligentie (AI) is het waarborgen van de betrouwbaarheid en het vertrouwen in de voorspellingen van neurale netwerken van fundamenteel belang. Traditionele deep learning-methoden stuiten op beperkingen wanneer het gaat om het toepassen van harde, symbolische beperkingen binnen specifieke domeinen, vooral bij taken die gestructureerde en interpreteerbare uitkomsten vereisen. Het niet respecteren van domeinspecifieke regels door machine learning-systemen schaadt niet alleen hun prestaties, maar ondermijnt ook het publieke vertrouwen in AI-technologieën.

Om dit probleem te adresseren, wint een neuro-symbolische aanpak steeds meer terrein. Deze methode combineert de efficiëntie van neurale netwerken met de precisie van symbolische redeneerprocessen. Het innovatieve Neural Attention for Symbolic Reasoning (NASR)-model is een voorbeeld hiervan. NASR verbindt een conventionele neurale voorspeller met een symbolische redeneermodule die in staat is om structurele fouten in voorspellingen te corrigeren. Daarnaast bevat het een neurale aandachtmodule die leert waar en wanneer redeneerkracht gericht moet worden om potentiële fouten te identificeren, zonder dat overige voorspellingen onnodig worden aangepast. Zo ontstaat een balans tussen de snelle inferentie van neurale netwerken en de grondigheid van symbolische correcties, zonder onaanvaardbare kosten in rekenkracht.

Het model bestaat uit drie samenwerkende componenten: de Neuro-Solver, die de initiële taakoplossing produceert; de Mask-Predictor, die met harde aandacht bepaalt welke voorspellingen mogelijk foutief zijn en herziening behoeven; en de Symbolic-Solver, die met domeinkennis de geïdentificeerde fouten corrigeert. Dit proces maakt het mogelijk om met minimale overhead te garanderen dat harde beperkingen worden nageleefd tijdens inferentie, wat essentieel is voor vertrouwenwekkende AI.

Deze methode sluit aan bij de duale systeemtheorie, waarbij snelle, intuïtieve processen (neurale voorspelling) worden gecombineerd met langzamere, meer bewuste en regelgebaseerde redenering (symbolische correctie). Het is opmerkelijk dat de efficiëntie van het systeem behouden blijft doordat alleen een klein subset van voorspellingen wordt herzien, hetgeen het kostbare proces van exhaustief redeneren voorkomt.

Voor taken waarbij meerdere interpreteerbare feiten moeten worden voorspeld – zoals het volledig invullen van een Sudoku-puzzel – biedt deze neuro-symbolische integratie een rigoureuze manier om consistente en betrouwbare oplossingen te genereren. De combinatie van neurale netwerken en symbolische systemen laat bovendien toe om domeinkennis expliciet in te voeren, wat de validiteit van voorspellingen versterkt.

Belangrijk is dat vertrouwen in AI-systemen niet slechts een technische uitdaging is, maar ook psychologische en sociale dimensies omvat. Door de voorspelbaarheid en begrijpelijkheid van AI-beslissingen te vergroten, zoals mogelijk gemaakt door het NASR-model, ontstaat een robuustere basis voor mens-machine samenwerking. Dit draagt bij aan een bredere acceptatie en inzet van AI in kritieke toepassingen, van medische diagnostiek tot autonome systemen.

Verder is het essentieel te erkennen dat harde beperkingen niet statisch zijn; domeinkennis kan evolueren en contextafhankelijk zijn. Het ontwikkelen van systemen die flexibel omgaan met veranderende regels en kunnen leren waar en wanneer symbolische correcties noodzakelijk zijn, blijft een cruciale uitdaging. Deze dynamiek vereist een voortdurende afstemming tussen neurale en symbolische componenten, wat het belang van adaptieve en contextbewuste mechanismen onderstreept.

Ook verdient het aandacht dat het expliciet modelleren van onvolledige of inconsistente kennis – en het herkennen van wanneer voorspellingen potentieel onbetrouwbaar zijn – bijdraagt aan het versterken van vertrouwen. Door transparantie in foutcorrectie en een expliciete scheiding van verantwoordelijkheden binnen AI-systemen wordt het mogelijk gebruikers beter te informeren over de beperkingen en mogelijkheden van de technologie.

Het vertrouwen dat neuro-symbolische methoden kunnen bieden, overstijgt de puur technische performance: het gaat om het scheppen van een fundament waarop menselijke gebruikers AI kunnen begrijpen, controleren en, waar nodig, corrigeren. Dit vormt een belangrijke stap richting AI-systemen die niet alleen intelligent zijn, maar ook betrouwbaar en ethisch verantwoord.

Welke vormen van onzekerheid beïnvloeden de werking van embodied AI en robots?

Robots en embodied AI-systemen opereren in een wereld die vol zit met onzekerheden, waardoor perfecte uitvoering van opdrachten onmogelijk wordt. Deze onzekerheid vindt haar oorsprong in meerdere factoren, zowel intern in de systemen als extern in de omgeving waarin zij functioneren. Mechanische slijtage, afwijkingen in de bedrijfsomstandigheden zoals overbelasting of extreme temperaturen, en kalibratiefouten dragen bij aan de onvoorspelbaarheid van robotsystemen. Daarnaast is de manier waarop menselijke kennis wordt omgezet in modellen zelf al een bron van onnauwkeurigheid; voorkennis zoals voorkeuren of Bayesian priors zijn vaak onvolledig en bevatten fouten.

Ondanks de toenemende omvang van machine learning modellen, dwingt de noodzaak voor real-time verwerking op beperkte hardware tot het gebruik van kleinere, eenvoudiger modellen. Dit leidt onvermijdelijk tot grotere fouten en verhoogde onzekerheid in de voorspellingen. Een andere cruciale bron van onzekerheid is gedeeltelijke waarneembaarheid: sensoren kunnen worden gehinderd door occlusies, slecht weer, of duisternis, wat het vermogen van een robot om de omgeving volledig te begrijpen beperkt. Bovendien zijn menselijke intenties en gedragingen vaak slechts gedeeltelijk waarneembaar, wat de besluitvorming complex maakt. Deze gedeeltelijke observaties zijn niet alleen het gevolg van hardwarebeperkingen, maar ook van de beperkingen in de modellen zelf.

De dynamiek van de omgeving speelt eveneens een grote rol. Objecten kunnen zich verplaatsen, mensen en dieren zijn onvoorspelbaar in hun gedrag, en externe omstandigheden veranderen continu. Wanneer robots situaties tegenkomen die niet in hun trainingsdata voorkomen, spreken we van domeinverschuivingen: een autonome auto getraind op droge wegen in Arizona zal moeite hebben met sneeuwrijke straten in Boston, of met dieren die in een heel ander ecosysteem voorkomen.

Toepassingen illustreren deze onzekerheden duidelijk. Bij vision-language-navigatie bijvoorbeeld, moeten robots zoals Amazon Astro of Roomba een kaart maken van een onbekend huis waarbij de muren meestal vaststaan, maar meubels en bewoners constant veranderen. Dit brengt onzekerheid mee over waar obstakels zich bevinden of wat de intenties van bewoners zijn. Ook manipulatie neemt onzekerheden mee: onbekende objectvormen, variabele materialen, onzekere massa’s en wrijving zorgen voor complexiteit in het plannen van bewegingen en grijpen. Sensorfusie van bijvoorbeeld zicht en tast vermindert deze onzekerheden enigszins, maar kan ze nooit volledig elimineren. In veldrobotica, waar robots opereren in ongestructureerde en dynamische buitenomgevingen zoals mijnen, landbouw of de oceaan, verergeren deze onzekerheden door het ontbreken van GPS en turbulente omstandigheden zoals wind en waterstromingen.

Onzekerheid in embodied AI is bovendien niet uniform: er bestaan verschillende typen. Aleatorische onzekerheid betreft de inherente willekeurigheid en ruis in data, die zelfs met onbeperkte data niet verdwijnt. Dit type is vooral relevant bij sensorruis en natuurlijke variabiliteit. Epistemische onzekerheid komt voort uit gebrek aan kennis of data en kan afnemen naarmate het systeem meer leert over zijn omgeving. Dit onderscheid is fundamenteel omdat epistemische onzekerheid de mogelijkheid biedt tot verbetering van het model door verdere data-acquisitie, terwijl aleatorische onzekerheid altijd aanwezig blijft.

Begrip van deze verschillende vormen van onzekerheid is essentieel voor het ontwikkelen van robuuste embodied AI-systemen. De integratie van meerdere sensormodaliteiten, het gebruik van adaptieve modellen die hun onzekerheid kunnen inschatten, en het expliciet modelleren van gedeeltelijke observaties zijn enkele methoden om hiermee om te gaan. Toch blijft het een uitdaging om robots volledig betrouwbaar te maken in de complexe en veranderlijke echte wereld.

Naast het begrip van technische bronnen van onzekerheid is het belangrijk te beseffen dat menselijke interactie en sociale context onvoorspelbare elementen introduceren die moeilijk volledig te modelleren zijn. Daarom moet men ook aandacht besteden aan ethische en sociale implicaties van onvolkomenheid in autonome systemen, vooral wanneer deze direct invloed hebben op mensenlevens en veiligheid. Het besef dat geen enkele technologie absoluut zeker kan zijn, maar wel continu kan leren en aanpassen, is een fundament voor toekomstige innovaties.

Hoe kunnen we de certificering van robuuste modellen verbeteren?

In de zoektocht naar robuuste machine learning-modellen, vooral voor diepgaande netwerken, wordt de rol van certificering steeds belangrijker. Certificering biedt een formele garantie dat een model bestand is tegen specifieke soorten aanvallen, waaronder zowel lokale als globale verstoringen van de invoerdata. Er bestaan verschillende benaderingen die afhankelijk zijn van de aard van de aanval en de gebruikte technieken. Het belangrijkste doel van dergelijke benaderingen is om het model te trainen op een manier die ervoor zorgt dat het niet alleen goed presteert op de standaarddata, maar ook tegen verstoringen die de prestaties zouden kunnen verstoren of manipuleren.

Bijvoorbeeld, in training op basis van relaxatie wordt geprobeerd een bovengrens te berekenen voor de maximale afwijking tussen de voorspellingen van het model en de werkelijke waarden, waarbij gebruik wordt gemaakt van een typische verliesfunctie, zoals de kruis-entropie. De bovengrens kan worden afgeleid uit verschillende methoden zoals IBP, polyhedra-gebaseerde benaderingen, of benaderingen gebaseerd op dualiteit. Door het minimaliseren van deze bovengrens kunnen we modellen trainen die niet alleen nauwkeurig zijn, maar ook robuust tegen bepaalde verstoringen. Dit type training is echter niet altijd eenvoudig, omdat een striktere relaxatie niet noodzakelijkerwijs leidt tot een grotere gecertificeerde robuustheid. Dit komt doordat te strikte relaxaties kunnen leiden tot een verlies van de soepelheid in het verlieslandschap, wat het gradient-gebaseerde trainen bemoeilijkt.

Er zijn ook bepaalde trainingsstrategieën die gericht zijn op het verbeteren van zowel de nauwkeurigheid als de gecertificeerde robuustheid. Een daarvan is het combineren van relaxatie-gebaseerde verliezen met standaard verliezen, wat kan helpen bij het verbeteren van de zogenaamde 'benign accuracy' zonder afbreuk te doen aan de robuustheid. Dit kan met name nuttig zijn in toepassingen waar zowel de prestaties op ongestoorde data als de robuustheid tegen verstoringen belangrijk zijn. Evenzo kan het toepassen van relaxatie op specifieke lagen van het netwerk helpen om een balans te vinden tussen deze twee doelen.

Augmentatie-gebaseerde training is een andere benadering die wordt gebruikt om modellen robuuster te maken. Het idee hier is om modellen te trainen met gegevens die al ruis bevatten, wat kan helpen om de prestaties onder verschillende soorten verstoringen te verbeteren. Dit wordt vaak gecombineerd met regularisatietechnieken die helpen om de stabiliteit en consistentie van de voorspellingen te waarborgen, zelfs wanneer er ruis aan de invoer wordt toegevoegd. Recent onderzoek heeft aangetoond dat het combineren van augmentatie met ensemblemethoden bijzonder effectief kan zijn voor het verbeteren van de gecertificeerde robuustheid, vooral tegen zogenaamde 12-vormige aanvallen. Het gebruik van diffusiemodellen voor gerandomiseerde smoothing is een nieuwere aanpak die opmerkelijke resultaten laat zien, hoewel dit vaak gepaard gaat met grotere modelgroottes en bijbehorende rekenkundige overhead.

Naast de gebruikelijke benaderingen voor het verhogen van de robuustheid van modellen, zijn er ook uitbreidingen van certificeringsmethoden die gericht zijn op andere betrouwbare eigenschappen van modellen. Een voorbeeld hiervan is de robuustheid tegen lokale evasieve aanvallen. Lokale evasieve aanvallen proberen de invoergegevens binnen een beperkte ruimte te verstoren, zodat het model ten onrechte een foutieve voorspelling maakt. Voor dergelijke aanvallen kunnen technieken zoals smoothing-gebaseerde benaderingen en lineaire relaxatie effectief worden ingezet. Bovendien zijn er speciale methoden ontwikkeld om te reageren op geavanceerdere soorten lokale aanvallen, zoals generative adversarial networks (GANs) die zijn ontworpen om subtiele verstoringen te genereren, of patch-aanvallen waarbij slechts een beperkt aantal pixels wordt aangepast.

Verder zijn er aanvallen die gericht zijn op het verschuiven van de gehele distributie van de testdata. Dit type aanval, bekend als distributie-evasie, kan de generalisatie van een model naar nieuwe, onbekende data in gevaar brengen. Certificering tegen dit soort aanvallen richt zich vaak op het bieden van een bovengrens voor het verwachte verlies van het model, waarbij gebruik wordt gemaakt van technieken zoals dualiteit en smoothening.

De toekomst van gecertificeerde robuustheid zal waarschijnlijk steeds verder uitbreiden naar andere machine learning-modellen, zoals recurrente netwerken en generatieve modellen. Er wordt al gewerkt aan het generaliseren van certificeringsbenaderingen voor deze verschillende modellen, bijvoorbeeld door lineaire grenzen voor activatiefuncties of aandachtmechanismen te herleiden voor andere netwerkarchitecturen. Dit kan helpen om de robuustheid van diverse netwerken te verbeteren, hoewel er nog steeds technische uitdagingen zijn bij het toepassen van dergelijke certificeringen op meer complexe modelarchitecturen.

Het is belangrijk om te begrijpen dat certificering niet alleen gaat over het verdedigen tegen aanvallen, maar ook over het begrijpen van de onderliggende eigenschappen van het model zelf. Robuuste modellen moeten niet alleen in staat zijn om aanvallen te weerstaan, maar moeten ook zorgen voor eerlijke en betrouwbare voorspellingen onder diverse omstandigheden. De zoektocht naar robuustheid is dan ook een dynamisch proces waarbij technieken voortdurend worden aangepast en uitgebreid om de nieuwste bedreigingen aan te pakken en tegelijkertijd de prestaties van het model te waarborgen.