Alexander Pil
15 January 2019

Robotica is een snel groeiend en breed aandachtsgebied op de Technische Universiteit Eindhoven. Het onderzoek loopt van autonome auto’s en butlerachtige oplossingen tot robotjes die kinderen met autisme leren om menselijke emoties te herkennen. Luie robots, sociale robots of robots om in te wonen: je kunt het zo gek niet bedenken of onderzoekers binnen het High Tech Systems Center van de TUE proberen ze te realiseren.

De ontwikkeling van een robotsysteem is per definitie een multidisciplinair proces. Mechanica, elektronica, software en vaak ook natuurkunde, wiskunde en sociale wetenschappen moeten eraan te pas komen om de ideale robot voor de toepassing te bouwen. Het High Tech Systems Center (HTSC) speelt een belangrijke rol in het samenbrengen van al deze onderzoeksgroepen op de TU Eindhoven. ‘Robotica als de bindende factor’, omschrijft HTSC-projectmanager Jesse Scholtes de benadering.

De aandacht voor robotica is nodig. Door een vergrijzende wereldbevolking en een dalend percentage werkenden wordt het steeds uitdagender om voldoende arbeidskrachten te vinden. Gevolg is dat we steeds meer taken moeten automatiseren, ook taken die tot nu toe nog buiten bereik lagen. Dat vraagt om een nieuwe generatie van robots die begrijpen wat er om hen heen gebeurt. In een vaste en gestructureerde setting is dat relatief eenvoudig, maar mobiele robots zoals agv’s en zelfrijdende auto’s moeten ook hun weg kunnen vinden in onbekende en steeds variërende omgevingen.

‘Voor die categorie van robots kun je niet alles van tevoren uitprogrammeren’, weet Gijs Dubbelman, hoofd van de researchafdeling Mobile Perception Systems aan de TUE. ‘Mobiele robots hebben de flexibiliteit en perceptie nodig zodat ze zich kunnen aanpassen. Met al hun sensoren moeten ze hun omgeving niet alleen kunnen waarnemen en alle objecten kunnen classificeren, ze hebben ook de intelligentie nodig om dat op een betekenisvolle manier te doen. Semantiek noemen we dat.’

Dubbelman verwijst naar de radartechnologie waarmee sommige auto’s zijn uitgerust. ‘Daarmee kun je al onderscheid maken tussen een auto, een vrachtwagen of een fiets. Met camerabeelden kun je echter nog veel verder gaan omdat die veel meer data bevatten. Met patroonherkenning en artificial intelligence willen we die informatie eruit halen.’

HTSC FCNN results 1_web
Bij normale condities kunnen TUE-onderzoekers voor elke pixel de juiste klasse bepalen.

Neurale netwerken

De afgelopen jaren hebben wetenschappers een omslag gemaakt. ‘Vroeger werd alles voorgekookt’, aldus Dubbelman. ‘Dat ging in twee stappen. Eerst had je de feature extractor, die de ruwe data omzette naar een representatie die de essentiële informatie bevatte voor de taak die moest worden uitgevoerd. De features van die representatie werden gevoed aan een classifier. Die werd met gelabelde data getraind zodat hij kon bepalen of zo’n feature bij een auto of een fiets hoorde.’

Het concept om van pixels naar betekenisvolle data te komen, is in de basis niet veranderd. Maar de extractors en classifiers zijn volledig vervangen door neurale netwerken. Dat kan omdat dat de processorkracht enorm is toegenomen. Gpu’s zijn – vooral door de almaar groeiende eisen in de gamingindustrie – steeds beter in staat om snel en nauwkeurig beelden door te rekenen en te analyseren.

Een tweede positieve factor is dat er tegenwoordig heel veel materiaal beschikbaar is om die neurale netwerken te trainen. ‘Met goed licht en bij normale weersomstandigheden kunnen we op dit moment voor elke pixel de juiste klasse bepalen’, vertelt Dubbelman. ‘Auto, stoep, zebrapad, allerlei vervoersmiddelen, noem maar op. In totaal ruim honderd klassen. Dat aantal is beperkt door de rekenkracht van de gpu. We kunnen wel meer categorieën invoeren, maar dan wordt het systeem te traag voor in een auto. Daar wil je minstens dertig frames per seconde verwerken. Op hoge snelheden zoals op de snelweg moet het zelfs naar 60 f/s. Wij draaien nu vijftien tot twintig frames per seconde voor honderd klassen.’

De Eindhovense onderzoekers willen uiteindelijk naar een perceptie-ai toe die even slim is als die van een mens. ‘Dat gaan we misschien niet halen, maar zo’n kunstmatig systeem is wel altijd alert. Ook kan ai de wereldkampioen schaken verslaan, maar is autorijden nog te ingewikkeld. Terwijl dat voor mensen redelijk eenvoudig is’, benadrukt Dubbelman de verschillen tussen ai en een mens.

Een ander doel is dat robots straks niet alleen alle objecten in de buurt kunnen herkennen, maar dat ze ook kunnen voorspellen wat die objecten gaan doen. ‘Dan kunnen ze anticiperen. Daar is de mens heel goed in, maar ai niet. Elk jaar maken we daarin stapjes, maar het kan makkelijk nog tien tot vijftien jaar duren voordat een robot echt kan anticiperen en reageren op zijn omgeving zoals een mens dat doet.’

Nieuw paradigma

Het wereldmodellenonderzoek van Dubbelman en zijn groep is een basisingrediënt voor veel andere robotresearchers op de TUE. Bijvoorbeeld voor René van de Molengraft, universitair hoofddocent motioncontrol. Met zijn groep werkt hij aan luie robots. Zijn stelling is dat robots veel te hard nadenken. Als een agv een obstakel tegenkomt, rekent hij zich helemaal suf om een omweg te vinden en die vervolgens op de centimeter nauwkeurig te volgen. ‘Dat is helemaal niet nodig – en zelfs ongewenst’, zegt Van de Molengraft. ‘Er zijn oneindig veel goede paden die de robot kan kiezen. Hij moet naar links sturen, er voorbijrijden en weer terug naar rechts gaan. Dat vereist slechts een beperkt aantal momenten waarop de robot zijn actie checkt. Het is echt niet nodig dat hij elke milliseconde zijn positie bepaalt en bijstuurt.’

Dat kan dus beter, vindt Van de Molengraft, en hij startte een onderzoeksproject rond luie robots. ‘Die doen precies genoeg om hun taak uit te voeren. Dat klinkt heel logisch, maar het is 180 graden anders dan de rest van de robotwereld denkt en doet’, aldus de TUE-docent. ‘Ik denk dat dit paradigma de komende jaren een flinke impact gaat hebben. Het is namelijk een stap die we absoluut moeten zetten om de robots in een meer open wereld te laten functioneren.’

Er zitten een paar grote problemen aan de klassieke aanpak. Om te beginnen, rekent de robot dus veel te veel en aan zaken die helemaal niets te maken hebben met zijn opdracht. Ten tweede schaalt de methode niet. En ten derde is het niet robuust. Als er namelijk iets in de omgeving wijzigt, werkt de lokalisatie niet meer en moet de robot opnieuw gaan rekenen, ook al doet de verandering eigenlijk niet ter zake.

Zo’n luie robot moet natuurlijk kunnen bepalen welke informatie hij wel en welke hij niet nodig heeft. ‘We moeten de robot nuttige informatie voeren. Dat hoeft dus geen geometrisch accurate kaart te zijn, maar liever een topologische kaart waarin met semantische labels is aangegeven wat de robot gaat tegenkomen en welke acties daarbij horen. Een deur, een pilaar, een tafel, een gang, noem maar op.’

HTSC Tech United Amigo_web
Als een robot een object wil oppakken, bepaalt hij elke milliseconde zijn positie. Dat is helemaal niet nodig.

Fast

Onder de vlag van het HTSC hebben de Eindhovense onderzoekers de eerste praktijkdemonstraties al gedaan bij partners in het Fast-project. ‘Langs de productielijnen rijden robots die onderdelen inspecteren’, vertelt Van de Molengraft. ‘Die taak hebben we dusdanig aan de robot uitgelegd dat hij een virtuele weg langs de productielijn volgt, waarbij hij de onderdelen semantisch kan detecteren. Dat betekent dat als we die hele lijn in de ruimte verschuiven of verplaatsen, of als er een nieuwe lijn naast komt, de software daar niets van merkt. De robot is heel robuust voor alles dat verandert in dat deel van de wereld waar hij niks mee te maken heeft.’

In principe kan een robot al zijn acties ‘lui’ doen. Lui betekent immers dat hij niet meer doet dan nodig. Op welke termijn kunnen robots volledig lui zijn? ‘Binnen Fast zijn we pas een jaar onderweg en zitten we in de fase dat we willen aantonen dat het paradigma werkt’, antwoordt Van de Molengraft. ‘Ik verwacht dat we over drie jaar een flinke stap hebben gemaakt richting robotica 2.0.’