Kunstmatige intelligentie is dankzij deep learning helemaal terug van weggeweest, maar sommige experts waarschuwen voor een nieuwe ai-winter waarin het veld tot stilstand komt. Vanwaar dat pessimisme?
Als er ooit een gouden tijd voor kunstmatige intelligentie was, is het nu. Na tientallen jaren rondstommelen zijn computers de afgelopen jaren net zo goed geworden als mensen – soms beter zelfs – in beeldherkenning, kunnen ze gesprekken begrijpen en zelfs een beetje meepraten, en verslaan ze menselijke spelers in de moeilijkste bordspellen en computergames. De ai-renaissance raakt steeds meer aspecten van ons dagelijks leven, bedrijven trekken de beurs om voorop te lopen en beleidsmakers zien investeringen in ai-talent als essentieel om mee te blijven doen in de wereld.
Toch zijn er ook sceptische geluiden te horen over de toekomst van ai. De huidige aanpak met deep learning zou een doodlopende weg zijn. We zouden helemaal opnieuw moeten beginnen. De term ai winter valt veelvuldig: een scenario waarbij nieuwe doorbraken uitblijven, hooggespannen beloftes niet worden ingelost, financiering opdroogt en het onderzoeksveld, opnieuw, tot stilstand komt. Deze situatie heeft zich sinds de jaren zestig al meerdere malen voorgedaan. Bij elke opleving van het veld bereikten de verwachtingen een kookpunt, maar verloor iedereen zijn interesse weer toen die niet waargemaakt konden worden.

Gebrom van enkele sceptische zuurpruimen? Allerminst; de waarschuwingen komen juist van kopstukken in de onderzoekswereld. Yann LeCun bijvoorbeeld, een grondlegger van de deep learning-aanpak, waarschuwt al sinds het begin voor te hooggespannen verwachtingen. En Geoffrey Hinton, een van de weinigen die in de jaren tachtig bleef geloven in de aanpak, denkt niet dat we er nog verder mee komen. Hoe zijn deze uitspraken te verklaren, terwijl we om ons heen overal ai tot bloei zien komen?
Spraakverwarring
De tegenstelling is gedeeltelijk het gevolg van spraakverwarring. Met hun waarschuwingen doelen specialisten meestal op ‘sterke’ of ‘algemene’ ai: daadwerkelijke intelligentie geïmplementeerd in computers. Een sterke ai kan redeneren en allerlei opdrachten uitvoeren, en beschikt misschien zelfs over bewustzijn. Het is de kunstmatige intelligentie die we kennen van Hollywood.
De huidige opleving in de ai is echter volledig gebaseerd op doorbraken in deep learning. En deep learning-systemen zijn het beste te omschrijven als patroonherkenners – veel geavanceerder dan wat voorheen beschikbaar was, maar uiteindelijk doen ze niks meer dan het zoeken van de juiste output bij een combinatie van inputs. Nergens in de netwerken is er begrip van die input; een wereldbeeld ontbreekt. Ze kunnen niet zoals een echt intelligent wezen omgaan met iets anders dan waarvoor ze zijn ontworpen.

Het ai-veld mist nog veel elementen die nodig zijn om tot echte(re) kunstmatige intelligentie te komen. Er wordt nog slecht begrepen wat intelligentie daadwerkelijk is. Deep learning gaat daar niet aan bijdragen, en het is ook nog niet bekend wat de volgende stap is na deze aanpak.
Sommige onderzoekers worden er dan ook wel wat chagrijnig van dat deep learning telkens wordt vergeleken met biologische neurale netwerken. Goed, de methode is er wel door geïnspireerd, maar de gelijkenissen zijn slechts oppervlakkig. Ze missen de belangrijke mechanismes die ten grondslag liggen aan ons brein – die zijn überhaupt nog grotendeels onbekend.
De bredere definitie van ai
Maar de definitie van kunstmatige intelligentie kan ook wat liberaler worden gehanteerd, als systemen die om kunnen gaan met sterk variabele en vage input, of het vermogen om te leren uit de praktijk. En vanuit dat perspectief zit er juist nog heel veel rek in deep learning.
Zo geldt bij de deep learning-aanpak het adagium ‘meer is beter’. Hoe meer trainingsdata, hoe langer er kan worden geleerd, hoe meer neuronen, hoe beter de resultaten worden. De deep learning-revolutie werd in 2012 afgetrapt tijdens de Imagenet-beeldherkenningscompetitie, toen de Alexnet-inzending van de universiteit van Toronto een succes haalde van bijna 85 procent, tien procentpunten meer dan de nummer twee. Dat was te danken aan een neuraal netwerk met drie normale en vijf convolutielagen, goed voor 650 duizend parameters. De jaren erop groeiden de inzendingen echter naar tientallen lagen, soms zelfs meer dan honderd, om de resultaten verder op te krikken. Met navenant meer parameters.
Maar computercapaciteit vormt een bottleneck. De uitdijende netwerken vereisen enorm veel meer rekenkracht en geheugen, met name om ze te trainen. De grootste netwerken vandaag de dag zijn alleen mogelijk dankzij supercomputers of rekencentra.
Als die capaciteitsproblemen kunnen worden opgelost, is er nog een wereld te winnen. Deep learning-netwerken zouden nog beter kunnen worden, of ze zouden op veel meer plekken kunnen worden ingezet. Onderzoek naar methodes om neurale netwerken efficiënter te maken, kan dan ook op warme belangstelling rekenen. Daarnaast wordt er hard gewerkt aan technologische oplossingen. Zo’n beetje alle technologiebedrijven zijn wel bezig met specifieke ic-ontwerpen, terwijl het investeringsgeld rijkelijk vloeit richting chipstartups die dit probleem proberen te kraken.
Rader in het grote geheel
Bovendien wordt deep learning steeds meer ingezet als component in plaats van als totaaloplossing. Op dit moment staat bijvoorbeeld de generative adversarial network-aanpak (gan) sterk in de belangstelling, een methode om deep learning-netwerken te maken die iets kunnen namaken – foto’s van labradors, pianomuziek, willekeurige getallen, noem maar op. Met soms spectaculaire resultaten.
Voor de aanpak wordt die generator gekoppeld aan een tweede netwerk, dat probeert om die gegenereerde namaak te onderscheiden van echte voorbeelden. De twee netwerken worden samen getraind en zorgen er zo voor dat ze allebei steeds beter worden in hun taak. Dat leidt uiteindelijk tot zeer krachtige generatoren.

Ook blijkt deep learning een uitstekende aanvulling op andere, mogelijk traditionelere ai-methodes. Onderzoekers bij Uber onthulden bijvoorbeeld vorige week iets wat op het eerste gezicht vrij banaal lijkt: hun ai was erin geslaagd een highscore te halen in Montezuma’s Revenge, een klassiek Atari-spelletje uit de jaren tachtig.
Dat is lastig om een computer te leren. Om te scoren, moeten er namelijk eerst een heleboel zetten worden gedaan die niet direct iets opleveren. Het is dus niet mogelijk om voor een zet te berekenen hoe fout die is. Deep learning kan er dus niks mee.
Deze tak binnen het ai-onderzoek, waarbij het algoritme geen directe terugkoppeling krijgt, staat bekend als reinforcement learning. Het is een van de taaiste onderwerpen binnen machine learning, en jarentachtigspelletjes vormen er een ideale proeftuin voor. De uitdaging is om de algoritmes geen kennis over het spel mee te geven; ze krijgen alleen beschikking over de pixels en joystickcommando’s, en moeten verder zelf uitzoeken hoe ze een zo hoog mogelijke score kunnen halen.
De Uber-onderzoekers ontwikkelden daarvoor een algoritme waarbij de computer veelbelovende posities onthoudt en weer teruggaat als het huidige pad niks blijkt te zijn. Zo leert het de juiste weg te nemen door een level, maar alleen als het veld nooit verandert.
Maar door een deep learning-gebaseerde methode los te laten op de resultaten, konden ze worden gegeneraliseerd. De ai kan daardoor ook met veranderende omgevingen nog uit de voeten. Dit is een terugkerend thema: deep learning is niet de oplossing, maar wel een onderdeel daarvan.
Winter is coming?
Voorlopig ziet het er nog niet naar uit dat we snel uitgekeken raken op deep learning. Maar de koek kan wel degelijk opraken. Als het nieuwe eraf is, als de technologie gemeengoed wordt dankzij betere programmeertools en krachtigere hardware, zal er een volgende stap moeten volgen in ai.
In tegenstelling tot eerdere oplevingen binnen het onderzoeksveld produceert deep learning echter op grote schaal tastbare resultaten. En er zijn gewoon nog heel veel engineeringproblemen die kunnen profiteren van de veel geavanceerdere patroonherkenning die de aanpak biedt. Hoe realistisch een ai-winterscenario is, is dus lastig te voorspellen. Zelfs met deep learning.