Overslaan en naar de inhoud gaan

Liquid Neural Networks: In AI is groter niet altijd beter

De verbetering van natuurlijke taalmodellen (LLM) zoals GPT (OpenAI), LaMDA (Google) en LLaMA (Meta), werd tot nog toe gezocht in het vergroten van het aantal knooppunten in het netwerk. Dat werkt maar deels en zorgt bovendien voor een enorme toename van het energieverbruik. Less is more, gaat in sommige opzichten ook op voor neurale netwerken.

robotauto raspberry pi
Liquid Neural Networks zijn bij uitstek geschikt in besturing autonome voertuigen
Shutterstock, magda michalska

Lees dit PRO artikel gratis

Maak een gratis account aan en geniet van alle voordelen:

  • Toegang tot 3 PRO artikelen per maand
  • Inclusief CTO interviews, podcasts, digitale specials en whitepapers
  • Blijf up-to-date over de laatste ontwikkelingen in en rond tech

Bevestig jouw e-mailadres

We hebben de bevestigingsmail naar %email% gestuurd.

Geen bevestigingsmail ontvangen? Controleer je spam folder. Niet in de spam, klik dan hier om een account aan te maken.

Er is iets mis gegaan

Helaas konden we op dit moment geen account voor je aanmaken. Probeer het later nog eens.

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in