Pieter Edelman
11 August 2016

Voor een slordige 350 miljoen dollar neemt Intel de machine learning-specialist Nervana uit San Diego over. De overname moet het aanbod van de halfgeleidermaker rond kunstmatige intelligentie een oppepper geven. Het halfgeleiderbedrijf moet deze markt tot nog toe vooral overlaten aan andere bedrijven. Met name Nvidia, dat met zijn gpu-architectuur veel beter is toegesneden op diepe convolutionele netwerken, de aanjager van het veld.

Met Nervana haalt Intel zowel de software als de hardware en wetware in huis om hiertegen een vuist te kunnen maken. De start-up verhuurt cloud-infrastructuur om de zware trainingsfase van machine learning uit te voeren en werkt aan een eigen asic hiervoor. Voor het schrijven van toepassingen heeft Nervana een eigen Python-gebaseerd opensource softwareplatform ontwikkeld, dat verschillende hardwareback-ends aankan. Ontwikkelaars kunnen op die manier eerst op hun eigen pc werken en eenvoudig rekenkracht bijhuren in de Nervana-cloud wanneer dat nodig is.

Intel belooft op zijn Developer Forum meer informatie te geven over de plannen met zijn aankoop. Voor nu zegt de chipmaker dat de software-expertise ten goede zal komen aan het verbeteren van zijn bedrijfseigen softwarebibliotheek voor wiskundig bewerkingen en meldt nogal cryptisch dat de hardwarekennis ten gunste komt aan de total cost of ownership van de processoren voor servers en datacentra. Het valt te verwachten dat Nervana’s chip of een afgeleide daarvan als hardwareversneller toegevoegd zal worden aan Intels aanbod om de concurrentie aan te gaan met gpu-makers. Een fpga-implementatie is ook mogelijk gezien Intels aankoop van Altera.

Deze Nervana Engine heeft een radicaal andere architectuur dan een cpu of grafische processor. Het huidige ontwerp is een systemchip waarin een asic nauw geïntegreerd wordt met een forse hoeveelheid geheugen via een interposer; vier stapels van acht keer een gigabyte in totaal. De asic is net als een gpu gericht voor matrix-bewerkingen, maar dan geoptimaliseerd voor deep learning-toepassingen. Zo ontbeert de chip een cache-hiërarchie ten gunste van expliciete geheugenoperaties. Bovendien worden getallen met slechts 16 bit gepresenteerd, wat doorgaans afdoende is voor deep learning en transistoren vrijmaakt voor het uitvoeren van parallelle bewerkingen. Bovendien is dit formaat niet gebaseerd op floating point-logica maar op een variant van veel eenvoudigere fixed point-bewerkingen, wat ook weer afdoende is bij deep learning.

 advertorial 

The waves of Agile

Derk-Jan de Grood created a rich source of knowledge for Agile coaches and leaders. With practical tips to create a learning organization that delivers quality solutions with business value. Order The waves of Agile here.