AI-jailbreaking kan vangrails van bekende genAI-modellen doorbreken
Jailbreaking is niet alleen 'weggelegd' voor smartphoneplatformen die bijvoorbeeld bepaalde apps of appstores niet toestaan. Deze hackactiviteit wordt ook toegepast op kunstmatige intelligentie, waarvan de makers bepaalde functionaliteit en output niet toestaan. Omdat ze dat liever niet willen óf vanwege wet- en regelgeving niet mogen. Microsoft heeft recent ontdekt dat kwaadwillenden de ingebouwde vangrails van populaire genAI's kunnen omzeilen met een eenvoudige techniek.

Shutterstock.com