In recente jaren heeft de ontwikkeling van 3D LiDAR-technologieën belangrijke vooruitgangen geboekt in de wereld van robotperceptie, vooral in de context van menselijke detectie en tracking. LiDAR (Light Detection and Ranging) maakt gebruik van laserstralen om de omgeving in 3D in kaart te brengen, wat het mogelijk maakt om objecten met hoge precisie te detecteren en te volgen. Het stelt robots in staat om op een betrouwbare manier mensen te herkennen en hun bewegingen in complexe omgevingen te volgen, een essentiële eigenschap voor autonome voertuigen en mobiele robots.

De belangrijkste uitdaging bij het gebruik van 3D LiDAR in menselijke detectie ligt in de aard van de gegenereerde gegevens, namelijk de zogenaamde puntenwolk. Deze puntenwolk is vaak dun, vooral bij grotere afstanden, en het kan moeilijk zijn om kenmerken te extraheren voor kleinere of verder gelegen objecten. Het gebruik van "adaptive clustering" methoden biedt een oplossing door de puntenwolk te segmenteren en objecten efficiënt te classificeren. De “LiDAR Point Cloud Clustering Benchmark Suite” is hierbij een nuttig hulpmiddel, omdat het eerlijke vergelijkingen tussen verschillende detectiemethoden mogelijk maakt.

Voor de classificatie van menselijke objecten is het belangrijk om handgemaakte kenmerken te gebruiken, zoals geometrische en textuurelementen die specifiek zijn voor menselijke vormen. In deze benadering wordt vaak een machine learning-model zoals Support Vector Machines (SVM) of Random Forests (RF) ingezet om te differentiëren tussen mensen, voertuigen en andere objecten. Dit biedt robuuste resultaten, maar de nauwkeurigheid kan verder verbeteren door gebruik te maken van geavanceerdere technieken, zoals deep learning.

De multidimensionale gegevensverwerking binnen een multi-target tracking-systeem is cruciaal voor het opvolgen van meerdere mensen tegelijk. In deze systemen speelt de fase van toestandschattingsmodellen een sleutelrol, vooral bij het voorspellen van de bewegingen van individuele mensen op basis van de ontvangen puntenwolk. Dit maakt het mogelijk om nauwkeurig en in realtime mensen te volgen, zelfs wanneer ze zich snel of chaotisch bewegen.

Toch zijn er nog verschillende uitdagingen die moeten worden opgelost. Ten eerste zijn de kosten van high-performance 3D LiDAR-systemen momenteel relatief hoog, wat de brede toepassing ervan belemmert, vooral in industriële en consumentgerichte markten. Hoewel er al veel datasets beschikbaar zijn voor het trainen en testen van deze systemen, is er een groeiende vraag naar meer gediversifieerde en hoogwaardige datasets die verschillende scenario’s en omgevingen dekken, inclusief die gebaseerd op multi-sensor systemen die LiDAR combineren met bijvoorbeeld camera’s.

Daarnaast blijft het een uitdaging om betrouwbare kenmerken te extraheren van kleinere objecten of die verder weg liggen. De gegevens uit 3D LiDAR zijn vaak niet dichte genoeg, wat betekent dat de verwerking en classificatie van kleinere objecten moeilijker zijn. Dit benadrukt de noodzaak voor het verder ontwikkelen van de hardwarecapaciteit van LiDAR-apparaten, evenals het combineren van LiDAR met andere modaliteiten zoals camera’s om nauwkeuriger en robuuster te kunnen detecteren.

Er is ook de vraag van de prestaties van LiDAR bij slechte weersomstandigheden. Regen, mist en sneeuw kunnen de nauwkeurigheid van LiDAR-detectie aanzienlijk verminderen, omdat waterdruppels in de lucht de laserstralen verstrooien, wat resulteert in ruis in de gegenereerde puntenwolk. De invloed van weersomstandigheden vormt een belangrijk onderzoeksgebied voor het verbeteren van de prestaties van deze technologieën in dynamische en onvoorspelbare omgevingen.

Bovendien, met de vooruitgang in kunstmatige intelligentie en de integratie van meerdere sensoren, is het belangrijk dat de technologieën niet alleen nauwkeurig zijn, maar ook snel en efficiënt kunnen reageren in real-time om zo adaptief en dynamisch te functioneren in onzekere omstandigheden.

Hoe kan het vergeten van eerder verworven kennis worden voorkomen bij het leren van nieuwe gegevens in robotica?

In de context van robotleren zijn er verschillende benaderingen om het vergeten van eerder verworven kennis te beperken tijdens het leren van nieuwe gegevens. Traditionele benaderingen van machine learning, die afhankelijk zijn van statische datasets, kunnen niet eenvoudig omgaan met nieuwe informatie zonder eerdere kennis te verliezen. Om dit probleem aan te pakken, worden er methoden gebruikt die expliciet gericht zijn op het behoud van eerder verworven kennis terwijl robots leren om met nieuwe situaties om te gaan.

Een van de veelbelovende methoden is het gebruik van zorgvuldig ontworpen regularisatieverliesfuncties. Deze methoden beperken de mate van vergeten door het modelleren van verlies bij het leren van nieuwe gegevens, zodat oude kennis wordt behouden en nieuwe kennis zonder verlies kan worden toegevoegd. Dit kan bijzonder nuttig zijn in scenario's waarbij een robot meerdere taken moet uitvoeren zonder het vermogen om eerdere ervaringen te vergeten.

Een andere benadering is het gebruik van een groot model, waarbij verschillende delen van het model aan specifieke taken worden toegewezen. Dit kan worden bereikt door een gedeelde basis van het model te bevriezen en afzonderlijke takken toe te voegen voor elke taak. Het nadeel van deze strategie is echter dat de omvang van het model snel toeneemt, wat kan leiden tot een verhoogde vraag naar rekenkracht en geheugen.

Replay-gebaseerde benaderingen zijn een andere manier om vergeten tegen te gaan. In deze benaderingen wordt opgeslagen of gecomprimeerde data van eerdere taken hergeïntroduceerd tijdens het leren van nieuwe taken. Door deze herhaalde voorbeelden opnieuw te trainen, kunnen robots hun kennis consolideren en het risico van vergeten minimaliseren. Dit proces kan worden geoptimaliseerd door het herintroduceren van representatieve voorbeelden van eerder uitgevoerde taken tijdens het trainen op nieuwe data.

Langzaam evoluerende leermechanismen, zoals Long Short-Term Online Learning (LSTOL), bieden een andere oplossing. Deze benadering bestaat uit een set korte-termijnleerlingen die snel kunnen itereren zonder leerdata op te slaan, en een langetermijncontrolemechanisme dat bepaalt wanneer een leerling moet worden bijgewerkt, behouden of verwijderd. Dit systeem werkt in dynamische, real-time omgevingen en richt zich op de leerstrategie in plaats van op de netwerkarchitectuur, wat het flexibeler maakt voor verschillende soorten robots en hun interactie met mensen.

Wat betreft de prestatie van sociale navigatie in robots, zijn er door de vooruitgang in deep learning aanzienlijke verbeteringen behaald. Deze technieken maken het mogelijk voor robots om beter en efficiënter te navigeren in sociale omgevingen, met name in scenarios waarin ze moeten samenwerken of communiceren met mensen. Echter, het implementeren van online bijwerkbare deep learning-modellen op platforms met beperkte middelen blijft een grote uitdaging. Deep learning-modellen vereisen veel rekenkracht en geheugen, wat voor ingebedde apparaten een obstakel kan vormen. Om deze uitdaging aan te gaan, wordt er gefocust op modeloptimalisatie, waarbij diepe leerarchitecturen worden ontworpen die geschikt zijn voor online leren. Een belangrijk voorstel in dit opzicht is het gebruik van een hiërarchische structuur, waarbij een zwaar netwerk wordt gecombineerd met een lichtgewicht netwerk, waardoor robots zich autonoom kunnen aanpassen aan nieuwe sociale omgevingen. Het zware netwerk blijft statisch en biedt robuuste navigatiecontrole, terwijl het lichte netwerk het output van het zware netwerk evalueert en aanpast voor sociale conformiteit.

Daarnaast wordt er gewerkt aan het autonomisch genereren van leersamples, wat robots in staat stelt om zonder menselijke tussenkomst nieuwe kennis te vergaren. Dit kan bijvoorbeeld door middel van P–N leren (Positive-Negative leren), waarin een clusterdetectiemodule en een multi-target tracker samenwerken om gegevens te verzamelen en de robot in staat te stellen zichzelf te corrigeren bij fouten zoals valse positieven en valse negatieven. Deze methode maakt gebruik van twee experts: de positieve expert corrigeert fout-negatieve samples door ze als positieve voorbeelden toe te voegen, terwijl de negatieve expert fout-positieve samples identificeert en deze als negatieve voorbeelden toevoegt.

De uitdaging in dit proces ligt in het feit dat robotleren zonder menselijke supervisie altijd vatbaar is voor fouten. Het gebruik van P–N leren biedt een efficiënte manier om deze fouten te corrigeren en het systeem zelflerend te maken. De kracht van deze benadering ligt in de eenvoud en de effectiviteit van de gebruikte regels en algoritmes. Het nadeel is echter dat deze methode mogelijk minder robuust is bij het omgaan met onvolledige of onzekere gegevens, wat in dynamische omgevingen problematisch kan zijn.

Voor de lezer is het belangrijk om te begrijpen dat, hoewel de technieken voor het behoud van kennis tijdens het leren van nieuwe gegevens veelbelovend zijn, er altijd een afweging is tussen de mate van complexiteit van het model en de rekenkracht die nodig is voor de implementatie. Het ontwerp van een robot die efficiënt kan leren en zich kan aanpassen aan veranderende omgevingen vereist voortdurende innovaties in zowel de hardware als de software, waarbij balans wordt gevonden tussen prestatie en haalbaarheid op beperkte platforms.