In langetermijn robot leren (ROL) kunnen zich twee belangrijke scenario’s voordoen waarin catastrofale vergeten optreedt: ten eerste wanneer het aantal te leren klassen of taken toeneemt, en ten tweede wanneer er een verschuiving plaatsvindt in de kennisdomeinen. Dit laatste scenario is vaak problematisch, vooral wanneer het systeem moet blijven leren zonder eerdere kennis te verliezen. De uitdaging van het effectief omgaan met nieuwe data-distributies, zonder bestaande kennis te verliezen, is de kern van het LSTOL-framework (Long-term Short-term Online Learning), dat specifiek is ontwikkeld om dit probleem te adresseren.
Het LSTOL-framework bestaat uit een set van kortetermijn-leerders en een langetermijn-controller. Elke kortetermijn-leerder kan worden geïmplementeerd als een model, bijvoorbeeld een Support Vector Machine (SVM), Random Forest (RF) of Deep Neural Network (DNN). Deze leerders leren van stromen data, zoals afbeeldingen en point clouds, die op verschillende tijdstippen worden verzameld. De langetermijn-controller heeft de taak om het leerproces van deze leerders te sturen en is verantwoordelijk voor drie essentiële functies: informatieverzameling, poortbesturing en gewichtsinschatting.
De functie voor informatieverzameling verzamelt gegevens over de kortetermijn-leerders, zoals de huidige outputvertrouwen, nauwkeurigheid en activiteitsniveau bij downstream-taken. Dit vormt de basis voor het nemen van beslissingen over kennisbehoud en de acquisitie van nieuwe kennis. Poortbesturing bepaalt, op basis van de verzamelde informatie en de voorspelde waarschijnlijkheden van de kortetermijn-leerders, welke acties moeten worden ondernomen: behouden, bijwerken, verwijderen of nieuwe leerders creëren. De functie voor gewichtsinschatting past dynamisch de gewichten van de kortetermijn-leerders aan, afhankelijk van hun prestaties. Een leerder met hoge nauwkeurigheid krijgt een hogere invloed op het resultaat, terwijl leerders met een hoge voorspellingvertrouwen fungeren als ‘experts’, die voornamelijk het uiteindelijke resultaat bepalen.
Het LSTOL-framework werkt in een "learn-as-you-go"-modus, wat betekent dat de output van de langetermijn-controller direct kan worden gebruikt voor downstream-taken, zoals objectdetectie. Dit biedt een flexibele en dynamische aanpak voor het trainen van robotsystemen die moeten omgaan met zowel bestaande als nieuwe gegevensstromen.
Bijvoorbeeld, in het geval van het detecteren van weggebruikers in point clouds van een zelfrijdende auto, kunnen objecten zoals auto's, voetgangers of fietsen worden gedetecteerd door verschillende detectors die elk hun eigen vertrouwen en nauwkeurigheid hebben. Door het vertrouwen van verschillende detectors samen te voegen, kan het systeem de juiste classificatie maken, zelfs wanneer een van de detectors, zoals de point cloud-detector, mogelijk fouten maakt door de complexiteit van de taak. Dit resulteert in een robuuster systeem dat zowel in staat is om nieuwe kennis te verwerven als eerdere kennis te behouden.
Het LSTOL-framework maakt gebruik van zogenaamde ‘short-term learning modules’, die real-time kunnen worden ingezet om multimodale leerprocessen aan te sturen. Deze modules maken gebruik van Online Random Forests (ORF), wat een efficiënte methode is voor het snel trainen van modellen in een streaming-omgeving. Het idee is dat deze kortetermijn-leerders snel kunnen worden getraind en ingezet zonder dat het systeem volledig stil komt te staan, wat essentieel is voor robots die continu in een dynamische omgeving werken.
Binnen dit systeem worden leersamples verzameld en geclassificeerd op basis van verschillende detectoren. De detecties kunnen variëren in nauwkeurigheid, maar door ze te combineren en de vertrouwensscores te evalueren, kan het systeem een beslissing nemen over de juiste classificatie. Dit stelt het systeem in staat om te leren van de detecties die juist zijn, terwijl het leert omgaan met de onzekerheden die inherent zijn aan de verschillende bronnen van gegevens.
Naast het LSTOL-framework zelf is het ook belangrijk te begrijpen dat de stabiliteit van een kennisoverdrachtsysteem cruciaal is. De stabiliteit wordt op een macro-niveau geanalyseerd door het aantal correct voorspelde labels over meerdere iteraties te evalueren. Dit biedt inzicht in hoe goed het systeem zich stabiliseert naarmate het leert van nieuwe gegevens, wat essentieel is voor langdurige leerprocessen in robotsystemen. Volgens de Lyapunov-stabiliteitstheorie stabiliseert een iteratief systeem wanneer de stabiliteit na een aantal iteraties neigt naar nul.
Het belangrijkst voor de lezer is te begrijpen dat het LSTOL-framework niet alleen gericht is op het leren van nieuwe data, maar ook op het behouden van eerder verworven kennis, wat cruciaal is voor de robuustheid van een robotsysteem in een dynamische en steeds veranderende omgeving. Dit maakt het systeem bijzonder waardevol in toepassingen waarbij de omgeving en de taken die een robot moet uitvoeren continu evolueren. Het stelt robots in staat om effectief te blijven leren zonder terug te vallen op eerdere kennis, zelfs wanneer de aard van de taken aanzienlijk verandert.
Waarom hebben robots belichaamde intelligentie nodig?
De vraag waarom robots belichaamde intelligentie nodig hebben, is niet eenvoudig te beantwoorden. Het is echter essentieel om te begrijpen dat een robot, net als een mens, fysiek moet kunnen interageren met de echte wereld. Dit is een fundamenteel aspect dat de basis vormt voor de perceptie en het leren van de robot. Vanuit filosofisch oogpunt kunnen we stellen dat individuen zonder belichaamde cognitie een gebrek aan werkelijke existentie vertonen, wat een tegengestelde benadering is van Descartes’ beroemde uitspraak "Ik denk, dus ik ben" in vergelijking met Heideggers "Ik ben, dus ik denk". Het idee dat het bestaan van een entiteit niet volledig kan worden begrepen zonder fysieke interactie met de wereld, vormt de basis voor het concept van belichaamde intelligentie.
In de fysieke wereld speelt context een cruciale rol in de semantische betekenisgeving. Robots die niet over belichaamde intelligentie beschikken, zullen moeite hebben om geïnformeerde beslissingen te nemen op basis van hun situatie. Een robot die niet in staat is om de context van zijn omgeving te begrijpen, kan bijvoorbeeld niet adequaat reageren op veranderingen in de fysieke wereld, zoals een plotselinge wijziging van de omgeving of de aanwezigheid van nieuwe objecten of mensen.
Daarnaast veranderen de fysieke omgevingen waarin robots opereren, zowel langzaam, zoals de seizoenen, als snel, zoals de beweging van een voetganger. Het ontbreken van belichaamde intelligentie maakt het voor robots moeilijk om effectief met dergelijke veranderingen om te gaan. Robots moeten niet alleen kunnen waarnemen, maar ook kunnen leren van de veranderingen die zich voordoen, en zich daarop kunnen aanpassen.
Het doel van dit boek is om te onderzoeken hoe robots belichaamde intelligentie kunnen verwerven door middel van perceptie en leren, zodat ze in staat zijn om zichzelf zelfstandig en langdurig te ontwikkelen in dynamische en complexe omgevingen. Het boek richt zich op twee hoofddoelen: ten eerste, hoe een robot zich bewust kan worden van objecten in de omgeving, zoals mensen, door middel van belichaamde perceptie, en ten tweede, hoe een robot zichzelf autonoom en spontaan kan laten leren van sensorische gegevens om zijn omgeving te begrijpen.
Wat betreft de eerste kwestie, richt dit boek zich op het gebruik van belichaamde niet-visuele sensoren, zoals 3D lidar, om een grootschalige en langeafstandshumanenperceptie te realiseren. 3D lidar-sensoren bieden afstandsinformatie die essentieel is voor robots om zich zonder botsingen te verplaatsen. In tegenstelling tot traditionele 2D laserafstandsmeter kunnen deze sensoren meetpunten op meerdere vlakken verstrekken, wat het mogelijk maakt om objecten te detecteren aan de hand van een set van 3D-punten die de omgeving vertegenwoordigen, ook wel een puntwolk genoemd. Deze gegevens kunnen vervolgens worden geanalyseerd om te bepalen welke punten mensen vertegenwoordigen, door gebruik te maken van methoden zoals Support Vector Machines (SVM). Met behulp van technieken zoals Global Nearest Neighbor (GNN) kunnen de segmenten van verschillende mensen in verschillende frames van de puntwolk worden gekoppeld en gevolgd door een Unscented Kalman Filter (UKF).
Wat betreft de tweede kwestie, gaat het boek dieper in op een methode die de robot in staat stelt om Online Learning (OL) toe te passen. Dit stelt de robot in staat om “ter plekke” kennis te verwerven door sensorgegevens te analyseren en nieuwe kennis kortetermijn op te nemen, wat essentieel is voor langdurige autonomie van robots. Robot Online Learning (ROL) is gericht op het creëren van een leersysteem dat kan omgaan met onvoorziene en niet-geannoteerde gegevens, wat een uitdaging vormt in vergelijking met traditionele machine learning methoden. Het doel is om een leerframework te ontwikkelen dat dynamische representaties van de omgeving ondersteunt, wat robots in staat stelt zich aan te passen aan nieuwe situaties en te leren van hun ervaringen.
Het proces van robotleren wordt verder versterkt door statistische methoden, die niet alleen worden gebruikt voor menselijke detectie en tracking, maar ook voor het voorspellen van menselijke bewegingen door middel van modellen zoals Long Short-Term Memory (LSTM). Deze voorspellende modellen stellen robots in staat om toekomstige interacties te anticiperen en zich effectief voor te bereiden op veranderingen in de omgeving.
Naast het ontwikkelen van methoden voor belichaamde intelligentie, biedt dit boek ook inzichten in de beoordeling en evaluatie van deze methoden. Het implementeren van snelle iteraties en het gebruik van benchmarks is een belangrijke stap in het verfijnen van robotsystemen. Dit sluit aan bij de agile ontwikkelingsmethoden uit de software-engineering, die het mogelijk maken om voortdurend nieuwe methoden te testen en te verbeteren op basis van realtime gegevens en feedback.
Het is ook belangrijk te begrijpen dat de manier waarop robots de wereld leren niet alleen afhankelijk is van de sensoren die ze gebruiken, maar ook van de manier waarop ze de verzamelde gegevens interpreteren en gebruiken. Dit vereist een diepgaand begrip van zowel de technologische als de cognitieve processen die ten grondslag liggen aan belichaamde intelligentie. Een robot die effectief leert, moet niet alleen sensorische informatie kunnen verwerken, maar ook in staat zijn om verbanden te leggen tussen de gegevens en de context waarin ze zich bevinden. Zonder deze integratie van waarneming en leren zal de robot moeite hebben met het maken van weloverwogen beslissingen, wat zijn effectiviteit als autonoom systeem zou beperken.
Hoe de Goddelijke Wet in de Filosofie van Richard Hooker en Thomas van Aquino wordt Begrepen
Hoe heeft de persvrijheid de moderne journalistiek beïnvloed?
Hoe spintronica de toekomst van elektronica verandert
Wat maakt de Oregon Coast zo uniek voor natuurliefhebbers?

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский