Overslaan en naar de inhoud gaan

Disbalans in AI Act maakt de weg vrij voor 'open washing'

De veelbesproken AI Act heeft twee belangrijke doelen: reguleren van AI-systemen op basis van hun potentiële risico’s, en bevorderen van transparantie in de sector. Maar ondanks die nobele doelstellingen dreigt het onbedoeld een ongelijk speelveld te creëren tussen closed source (zoals GPT en Claude) en open source AI-modellen (zoals LLaMa). Dit kan negatieve gevolgen hebben voor de sector en het vermarkten van AI-modellen. Michiel van Lerbeirghe, legal counsel bij ML6 vertelt waarom.

Allereerst is het belangrijk om te benoemen dat AI-modellen en AI-systemen twee verschillende concepten zijn. Een AI-systeem is een brede term voor een complete toepassing die AI-technologie gebruikt en een AI-model specifiek verwijst naar het onderliggende algoritme of de structuur die getraind is om bepaalde taken uit te voeren (zoals GPT van OpenAI, Gemini van Google, Claude van Anthropic of LLaMa van Meta).

Lees dit PRO artikel gratis

Maak een gratis account aan en geniet van alle voordelen:

  • Toegang tot 3 PRO artikelen per maand
  • Inclusief CTO interviews, podcasts, digitale specials en whitepapers
  • Blijf up-to-date over de laatste ontwikkelingen in en rond tech

Bevestig jouw e-mailadres

We hebben de bevestigingsmail naar %email% gestuurd.

Geen bevestigingsmail ontvangen? Controleer je spam folder. Niet in de spam, klik dan hier om een account aan te maken.

Er is iets mis gegaan

Helaas konden we op dit moment geen account voor je aanmaken. Probeer het later nog eens.

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in