Iot-sensoren zijn in de regel te zwak voor zware dataverwerking, maar de cloud is soms te traag en te onbetrouwbaar. Lokale gateways kunnen dienen als onderaannemer.
Wel eens van fog computing gehoord? Netwerkgigant Cisco introduceerde de term twee jaar geleden met veel gevoel voor marketing als woordspeling op cloud computing. En hoewel het als begrip tot nog toe niet bepaald indruk heeft gemaakt, staat het onderwerp op zichzelf volop in de belangstelling.
Het draait allemaal om de vraag: waar verwerk ik mijn data in een gedistribueerd iot-netwerk? De sensoren zijn typisch niet de plek om zware dataverwerkingsalgoritmes te draaien, want ze moeten goedkoop zijn en lang meegaan op een batterijtje waardoor de rekenkracht beperkt is. Een krachtige backendserver is beter geschikt, maar ook weer geen goede oplossing om alle ruwe data direct te streamen over het internet vanwege de netwerkcapaciteit – met het stroomverbruik, de reactiesnelheid en de betrouwbaarheid van de verbinding die daarbij horen.
Er moet dus altijd een afweging worden gemaakt tussen hoeveel de ‘dingen’ in het iot – de edge – zelf doen en wat er in de cloud wordt afgehandeld. Het zoeken is naar het optimale punt waarbij de hoeveelheid data met zo weinig mogelijk moeite zo veel mogelijk wordt gereduceerd, en waarbij de eindpunten hun kritieke functies nog blijven kunnen doen als de verbinding wegvalt.
In het idee van fog computing, of ‘edge computing’ zoals anderen het noemen, wordt een derde element geïntroduceerd: lokale gateways die elk een groepje devices bedienen. Die fungeren een beetje als onderaannemers. Aan de ene kant verzamelen en bewerken ze de gegevens van eindpunten en nemen ze een deel van de beslissingen die normaal uit de cloud komen. Aan de andere kant sturen ze hun bewerkte gegevens door naar de cloud en stemmen daarmee af wat er moet gebeuren met het netwerk.
Door de korte lijntjes tussen de gateways en sensoren over een gescheiden netwerk zijn latency, datahoeveelheden en betrouwbaarheid veel minder problematisch. De gateway is ook gewoon aan het stroomnet gekoppeld en kan dus voldoende rekenkracht tentoonspreiden.

Vijftig leden
De discussie over lokaliteit van dataverwerking is natuurlijk niet nieuw, net zomin als het gebruik van intermediaire knooppunten. Van de draadloze sensornetwerken waaraan werd gewerkt voordat de term iot ingeburgerd raakte tot aan de Lofar-radiotelescoop, die met tienduizenden antennestations terabits per seconde aan data verzamelt, overal komt het idee terug.
Maar door de onstuimige aandacht voor iot-toepassingen is het concept de laatste tijd wel meer in de belangstelling komen te staan en hebben ook leveranciers het concept omarmd. Zo is in 2015 het Openfog-consortium opgericht om te werken aan standaarden om de inzet van lokale servers allemaal wat makkelijker te maken. Naast Cisco waren hier Arm, Dell, Intel, Microsoft en de Princeton-universiteit bij betrokken, en ondertussen telt de groep al meer dan vijftig leden. Het Open Edge Computing-initiatief richt zich meer op mobiele toepassingen, maar wil verder iets vergelijkbaars.
Ook leveranciers zijn zich steeds meer bewust van dit model. Toen NXP eerder deze maand zijn nieuwe Qoriq-processoren onthulde, omschreef het die als ‘speciaal ontworpen voor uitdagende high-performance netwerktoepassingen, netwerk-edge compute en datacenter-offloading’.
De cloud-grootmachten zitten evenmin stil. Amazon en Microsoft hebben de afgelopen jaren allebei pakketten uitgebracht waarmee een lokale gateway is om te toveren tot een instantie van hun cloud-diensten. Een verbonden device zal het verschil niet merken. Vanzelfsprekend heeft ook Cisco producten hiervoor in de aanbieding.
Als de technologieaanbieders erin slagen om de inzet van lokale gateways frictieloos te maken, dan gaan ze hiermee een zonnige business tegemoet. Het is echter maar de vraag of fog ook als naam ingeburgerd zal raken. Maar zelfs de website van Open Edge Computing opent met een plaatje van een toren in de mist, dus wie weet.