Hoe intelligent zijn de huidige AI-modellen?
In het huidige tijdperk van kunstmatige intelligentie bevinden we ons in een fascinerende overgangsfase naar wat bekend staat als Artificial General Intelligence (AGI). Cédric Vandelaer, data science-specialist en AI-expert bij Cegeka, werpt licht op dit cruciale vraagstuk.
De opkomst van multimodale AI
De innovatie in modellen zoals ChatGPT ligt in hun veelzijdigheid. Door eenvoudige tekstuele input kunnen ze een breed scala aan taken uitvoeren, variërend van samenvatten en sentimentanalyse tot het converteren van formaten. Wat nog opmerkelijker is, is dat deze modellen zich nu ontwikkelen naar multimodaliteit. Dat betekent dat ze niet langer beperkt zijn tot tekst, maar ook afbeeldingen en audio kunnen verwerken. Dit is een enorme sprong voorwaarts in vergelijking met de vroegere 'narrow AI'-modellen, die zich toespitsten op één specifieke taak, zoals het analyseren van teksten of het toepassen van computer vision, om er maar een paar te noemen.
Intelligentie in perspectief
Maar laten we nu eens de cruciale vraag stellen: hoe intelligent zijn deze AI-modellen in werkelijkheid? Dit blijkt een uiterst complexe vraag te zijn, zoals Cédric benadrukt, voornamelijk omdat er geen sluitende definitie van intelligentie bestaat. De technische en wiskundige aspecten van Large Language Models (LLM's) zoals GPT zijn goed begrepen, maar er heerst voortdurende discussie over de diepte van het begrip van de wereld dat deze modellen vertonen.
Cédric suggereert dat LLM-modellen tot op zekere hoogte inderdaad intelligentie vertonen. Menselijke intelligentie wordt gekenmerkt door complexe interacties tussen inkomende informatie en de gegenereerde output. Hij wijst erop dat modellen zoals GPT werken met hoogdimensionale input, waarbij complexe correlaties worden ontdekt en resulteren in hoogwaardige output. Dit komt, volgens hem, redelijk overeen met het functioneren van menselijke intelligentie.
Bewustzijn in de wereld van AI
Een nog diepgravender vraag betreft het bewustzijn van LLM-modellen. Hier stuiten we op een ander ongrijpbaar terrein. Bewustzijn wordt gezien als een uiterst complex proces, zelfs voor menselijke begrippen. Cédric vergelijkt het met het oude concept van 'levenskracht', waarbij vroeger werd gedacht dat sommige entiteiten het hadden en andere niet. Tegenwoordig begrijpen we dat levenskracht een complex samenspel is van verschillende componenten.
Cédric voorziet dat het begrip bewustzijn geleidelijk aan vager zal worden, en we zullen beginnen te spreken over de afzonderlijke componenten ervan, zoals zintuiglijke waarneming, aandacht, zelfbewustzijn en metacognitie (het vermogen om na te denken over ons eigen denken). Hij wijst erop dat zelfs een robot in een fabriek die objecten verplaatst enig niveau van bewustwording moet ontwikkelen, met name om zijn eigen positie en doelen te begrijpen. Hoewel dit proces wellicht vergelijkbaar is met wat bij mensen en dieren is gebeurd, is het gezien de complexiteit van menselijke doelen en omgevingen nog verre van volledig begrepen.
AI’s toekomstige vermogen
Misschien wel het meest intrigerende vooruitzicht is dat AI-systemen uiteindelijk complexere percepties zouden kunnen ontwikkelen dan mensen. Dit omvat grootschalige perceptie uit diverse bronnen, zoals visuele, auditieve, tekstuele en chemische gegevens. Als AI-systemen in staat zijn om gelijktijdig en continu dit soort data te verwerken, zou dit kunnen resulteren in een gedetailleerder en rijker begrip van de werkelijkheid dan wat wij als mensen kunnen waarnemen.
In de wereld van AI blijven vragen over intelligentie en bewustzijn ons uitdagen en inspireren. Terwijl we vooruitgaan in de richting van AGI en mogelijk ASI, kunnen we alleen maar blijven verkennen en proberen te begrijpen hoe deze kunstmatige intelligentie zich ontwikkelt en welke nieuwe mogelijkheden dit ons kan bieden.
Behoefte aan meer informatie over AI en ChatGPT? Kijk ons on-demand webinar om meer te leren over de concrete toepassingen van ChatGPT in het bedrijfsleven.
Reacties
Om een reactie achter te laten is een account vereist.
Inloggen Word abonneeIk heb diverse intensieve testen met ChatGPT gedaan (geneeskunde, IT, management, HR, klimaat, energietransitie). Het grote risico van dit soort tools, is dat ze uitkomsten genereren op basis van "publieke wetenschappelijke consensus" en niet op basis van nieuwste logica en peer reviewed wetenschappelijke inzichten. Daarmee versterken en bestendigen ze de bestaande belangen en bestaande orde, zoals destijds door T.S. Kuhn is beschreven in "Scientific revolutions". In plaats van dat dit soort tools helpen te komen tot echte innovaties en nieuwe wetenschappelijk inzichten . En dat is m.i. zeer kwalijk.
Een simpel voorbeeld is, dat Maurice de Hond al in april 2020 ontdekte dat verspreiding van Corona nagenoeg uitsluitend via aerosolen verliep en niet via druppels. En dat impliceert dat 1,5 meter afstand houden en slappe zelfgemaakte mondkapjes geen enkele zin hebben; en ventilatie en buitenlucht juist wel.
Maar ChatGPT krijgt het niet over "zijn/haar hart" om toe te geven dat Maurice gelijk had/heeft.
Dat is dus zeer ernstig.
Zo helpt AI onze wereld geen steek verder. Integendeel: dit leidt tot "Sur Place".....