AI-chef Meta: taalmodellen worden nooit zo slim als mensen
Volgens het hoofd kunstmatige intelligentie (AI) van Meta, Yann LeCun, kunnen op taal gebaseerde AI-modellen nooit zo slim worden als mensen. Ook stelt LeCun, in een interview met zakenkrant The Financial Times, dat de huidige AI-methoden gebrekkig zijn.
LeCun denkt dat de grote taalmodellen (large language models, LLM's) die generatieve AI-producten zoals ChatGPT aandrijven nooit het vermogen zullen bereiken om te redeneren en plannen als mensen. Hij ziet liever dat Meta, het moederbedrijf van onder meer Facebook en Instagram, zich concentreert op een radicaal alternatieve benadering om "superintelligentie" in machines te creëren, zegt hij in hetzelfde interview.
'Zeer beperkt begrip'
Volgens LeCun hebben taalmodellen "een zeer beperkt begrip van logica". Ook begrijpen ze de fysieke wereld niet en kunnen ze niet redeneren en plannen "op een hiërarchische wijze", aldus de Meta-chef in The Financial Times.
Hij pleit er dan ook voor om niet te vertrouwen op vooruitgang in LLM's voor het streven om computerintelligentie naar menselijk niveau te brengen. LLM's kunnen immers alleen juiste antwoorden geven als ze de juiste trainingsdata ingevoerd hebben gekregen, wat lang niet altijd het geval is. LeCun noemt LLM's dan ook "intrinsiek onveilig".
10 jaar (of langer)
In plaats van werken aan het verbeteren van LLM's richt de AI-wetenschapper zich op een geheel nieuw soort AI-systemen. Die moeten wel intelligentie van menselijk kaliber kunnen halen, stelt hij. Hoewel het realiseren van die visie wel tien jaar in beslag kan nemen.
Reacties
Om een reactie achter te laten is een account vereist.
Inloggen Word abonnee