'Oplossing problemen met deep learning komt via zelf-supervisie'
Dat was overigens ook de boodschap van de andere twee, Yoshua Bengio van Canada's MILA institute en Geoffrey Hinton van de University of Toronto. Gisterenavond werden ze gehuldigd door de Association for the Advancement of Artificial Intelligence (AAAI) voor hun Turing Award, die ze kregen voor hun bijdragen aan het onderzoek aan computing. ZDNet deed daar verslag van.
Ze spraken alle drie een half uur, onder meer over de vele tekortkomingen van deep learning, zoals bijvoorbeeld dat het aanbrengen van kleine wijzigingen in plaatje, grote gevolgen kunnen hebben voor de uitkomsten van beeldherkenningssoftware. Het is daarom nodig dat dergelijke systemen robuuster en betrouwbaarder worden.
Daarvoor zijn verschillende hulpmiddelen die nu worden ontwikkeld. Een daarvan is bijvoorbeeld Transformer, een gereedschap twee jaar geleden opgezet door Google. Daarmee is onder meer al de taalverwerking bij Google sterk verbeterd. Het stelt een computer in staat te raden naar ontbrekende gegevens.
Ook andere toepassingen van AI zouden daar hun voordeel mee kunnen doen. Hinton bijvoorbeeld sprak over capsule networks. Dat zijn convolutional neural networks waarbij opzettelijk een deel van de input data zijn gemaskeerd.
Oud zeer komt ter sprake
De bijeenkomst was bijzonder omdat de AAAI tot voor kort vooral bestond uit aanhangers van de klassieke vormen van kunstmatige intelligentie (symbolic) die zijn gebaseerd op door de mens gecodeerde algoritmen. De drie 'peetvaders van de opleving van neurale netwerken - nu doorgaans machine learning genoemd - werden lange tijd weggehoond door de AAAI. Maar de gespreksleider van de avond Leslie Kaebling van MIT, riep op nu toch vooral vriendschap te sluiten. Hoewel de drie aangaven dat het even duurt om die periode te vergeten, zei Hinton dat het wellicht beter was het verleden te vergeten en naar de toekomst te kijken.
Reacties
Om een reactie achter te laten is een account vereist.
Inloggen Word abonnee