Overslaan en naar de inhoud gaan

AI-jailbreaking kan vangrails van bekende genAI-modellen doorbreken

Jailbreaking is niet alleen 'weggelegd' voor smartphoneplatformen die bijvoorbeeld bepaalde apps of appstores niet toestaan. Deze hackactiviteit wordt ook toegepast op kunstmatige intelligentie, waarvan de makers bepaalde functionaliteit en output niet toestaan. Omdat ze dat liever niet willen óf vanwege wet- en regelgeving niet mogen. Microsoft heeft recent ontdekt dat kwaadwillenden de ingebouwde vangrails van populaire genAI's kunnen omzeilen met een eenvoudige techniek.

AI-hacker
Shutterstock.com

Microsoft heeft informatie over bedreigingen gepubliceerd waarin gebruikers worden gewaarschuwd voor een nieuwe jailbreak-methode die AI-modellen kan dwingen schadelijke informatie vrij te geven. De techniek is in staat om LLM's (Large Language Models) te dwingen om gedragsrichtlijnen, die door de AI-leverancier in de modellen zijn ingebouwd, volledig te negeren. Deze alles-ontgrendelende methode heeft de naam Skeleton Key gekregen.

Lees dit PRO artikel gratis

Maak een gratis account aan en geniet van alle voordelen:

  • Toegang tot 3 PRO artikelen per maand
  • Inclusief CTO interviews, podcasts, digitale specials en whitepapers
  • Blijf up-to-date over de laatste ontwikkelingen in en rond tech

Bevestig jouw e-mailadres

We hebben de bevestigingsmail naar %email% gestuurd.

Geen bevestigingsmail ontvangen? Controleer je spam folder. Niet in de spam, klik dan hier om een account aan te maken.

Er is iets mis gegaan

Helaas konden we op dit moment geen account voor je aanmaken. Probeer het later nog eens.

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in