Cloud computing is hot in allerlei opzichten: de groei in cloud computing is enorm, datacentra produceren massa’s warmte én de technologie is onderwerp van heftig debat. Over dat laatste aspect gaat deze kolom.
Tegenstanders van alles naar de cloud komen vaak met het beveiligingsargument: lokale dataservers zijn veiliger, want dan weet je tenminste wat er gebeurt met je data. Daar valt iets voor te zeggen. Bij lokale opslag weet je inderdaad waar je data zijn, onder welke wetgeving ze vallen en wat de fysieke barrières zijn om erbij te komen. Maar zowel technisch, economisch als wat beveiliging betreft, heeft lokale opslag vandaag weinig zin meer. De grote serverbedrijven van deze wereld investeren ongelofelijk veel in het veilig houden van hun data. Het is dan ook weinig waarschijnlijk dat elke lokale it-manager de competentie en middelen heeft om de data net zo zwaar te beveiligen.
Maar niet alles kan naar de cloud, nu niet en in de toekomst niet. Daar zijn, los van veiligheidsaspecten, heel goede redenen voor. Kijk bijvoorbeeld naar het internet of things. Het aantal geconnecteerde toestellen neemt nu al exponentieel toe, en tegen 2020 zullen er naar verwachting tussen de vijftig tot vijfenzeventig miljard iot-devices zijn. Maar daar begint het pas; de stijging wordt nog steiler als we tegen 2030 geheel nieuwe paradigma’s als zelfrijdende voertuigen op de kaart willen hebben.
Al deze geconnecteerde toestellen creëren tegen 2020 al 44 ZB per jaar aan data. Zelfs met de explosieve groei van serverparken zal daarvan wereldwijd slechts 6,5 ZB opgeslagen kunnen worden. De kosten groeien veel harder dan de kostenreductie van geheugens kan bijhouden: 44 ZB opslaan kost 4,4 biljoen dollar alleen aan de harde schijven. Ter vergelijking: het Europese bbp in 2014 was ongeveer 15,4 biljoen dollar.
Daarnaast is de bandbreedte een groot probleem. De toename van bandbreedte in het netwerk en de kostenreductie gaan al sinds jaar en dag (veel) langzamer dan de wet van Moore. Ook vanuit het netwerk gezien, geldt dus: zend alleen wijsheid naar de cloud en niet alle data. Doe lokale verwerking (op de node zelf of op de edge) waar dat zinnig is en stuur alleen data naar de cloud die al gecategoriseerd, gecontextualiseerd en gecomprimeerd is.
Behalve bandbreedte vormen ook de beschikbaarheid van het netwerk en de vertraging een potentieel probleem. Zelfs een speciaal netwerk voor m2m-communicatie dat ultrabetrouwbaar is en een ultralage vertraging heeft, zal slechts goed werken voor specifieke en op de juiste manier geprepareerde data.
Wijsheid kun je onder meer genereren door op lokaal niveau sensorgegevens aan elkaar te koppelen. Informatie van de camera op het verkeerslicht bijvoorbeeld, gecombineerd met de gegevens van de camera’s en radars uit je eigen auto, zal veel sneller tot een beslissing leiden dan als al die gegevens eerst naar een datacentrum en dan weer terug moeten. Realtime beslissingen laat je dus best niet over aan de cloud.
Nieuwe informatie over de omgeving kun je daarentegen wel best naar de cloud sturen, zodat de algoritmes en kaarten telkens beter worden en zodat alle andere auto’s morgen weten dat er door bouwwerkzaamheden een dode hoek is op de kruising. Maar daardoor zijn alle toestellen uiteindelijk alsnog aan elkaar gekoppeld en is het originele argument dat je vanwege de veiligheid de gegevens best niet naar de cloud stuurt niet meer geldig. We zullen dus naast machine learning en data analytics ook zwaar moeten investeren in gedistribueerde beveiliging en verwerking en in nieuwe netwerk- en geheugentechnologieën. Alleen zo maken we het iot tot een always connected-realiteit.