Pieter Edelman
6 April 2016

Nvidia heeft een gpu-gebaseerd platform uitgebracht voor deep learning, de techniek achter het gros van de recente ai-successen. Gpu’s spelen hierin een sleutelrol, aangezien deze sterk parallelle processoren uitermate geschikt zijn voor het versnellen van het leerproces – de grote bottleneck in het ontwikkelen van toepassingen voor bijvoorbeeld beeld- of spraakherkenning.

Het DGX-1-platform is bedoeld als kant-en-klare oplossing, waardoor klanten niet langer zelf hun machines samen hoeven te stellen. De behuizing bevat acht Tesla-gpu’s, Nvidia’s 16 nm-lijn voor wetenschappelijke berekeningen. De instructieset is uitgebreid met floating-point-instructies op halve precisie, wat vaak afdoende is voor neurale netwerken terwijl het aantal bewerkingen toeneemt. Daardoor haalt het systeem een snelheid tot 170 teraflops. De gpu’s zijn met elkaar verbonden via een snel mesh-netwerk en hebben de beschikking over een ssd van 7 TB. Het rekenmonster verstookt 3200 watt.

Belangrijk in het aanbod is de uitgebreide softwareondersteuning. Ontwikkelaars hebben de keuze uit een compleet deep learning-platform van Nvidia, een Cuda-bibliotheek, en versies van de populaire neuralenetwerktoolkits Caffe, Theano en Torch.