Het vergeten risico van AI: toegang tot gevoelige informatie
Heeft u bij het eerste gebruik van Copilot binnen uw organisatie gemerkt dat medewerkers bij informatie kunnen waar ze niet bij mochten? En bent u daarvan geschrokken? Mensen zijn van nature nieuwsgierig en u kunt medewerkers niet verbieden om vragen te stellen als ‘Wat is het salaris van de directeur’? Wat u wel kunt doen, leg ik, Raoul de Weille, Business Manager Microsoft bij PQR, uit in deze blog.
AI biedt geweldige kansen, maar is niet zonder risico’s
De directeur van uw organisatie wil waarschijnlijk niet dat iedereen weet wat zij of hij verdient. Maar er zijn meer risico’s. Stelt u zich eens voor dat informatie die klanten onder NDA met u hebben gedeeld, binnen de organisatie wordt verspreid via AI. Persoonlijke gegevens van collega’s of klanten, of financiële bedrijfsgegevens. Wanneer AI toegang krijgt tot dat soort gevoelige informatie dan ligt het risico op dataverlies, overtreding van privacywetgeving en imagoschade op de loer.
U kunt het AI niet kwalijk nemen
AI staat voluit voor Artificial Intelligence, oftewel kunstmatige intelligentie. AI kan inderdaad ongelofelijk slimme dingen doen, alleen deze oplossingen zijn nog niet zo intelligent dat ze begrijpen welke informatie confidentieel is. Dat komt door de manier waarop AI werkt. Moderne generatieve AI-oplossingen, zoals Microsoft Copilot zijn gebaseerd op Large Language Models (LLM’s). Deze LLM’s worden getraind op grote hoeveelheden data, waardoor ze onder andere verbanden kunnen leggen tussen informatie en ‘prompts’ vertalen naar tekst of afbeeldingen.
Feitelijk is een LLM dus een digitale ‘Rupsje Nooitgenoeg’ die als een soort stofzuiger alle data opzuigt om die in te kunnen zetten voor de AI-toepassing. Aangezien Copilot voor Microsoft 365 werkt in de context van de gebruiker, heeft Copilot dezelfde toegangsrechten als die gebruiker. Dat is belangrijk om in gedachten te houden, want dat is namelijk zowel een groot voordeel als een valkuil. Het voordeel is dat meer data in principe leidt tot een betere kwaliteit van de output. Het grote nadeel echter is dat u dus niet op Copilot kunt rekenen om uw vertrouwelijke informatie te beschermen.
U kunt het uw medewerkers niet kwalijk nemen
U kunt het ook de medewerkers niet kwalijk nemen. Zoals ik al schreef: mensen zijn nieuwsgierig. Dat zien we ook bij de adoptietrajecten die we voor Copilot doen: mensen gaan eerst de meest creatieve (en soms vreemde) vragen stellen. Dat is trouwens één van de redenen waarom de adoptie van AI zo belangrijk is.
Bescherm gevoelige data tegen AI
Wat u wel kunt doen is het inrichten van dataclassificatie en datagovernance. Door data en informatie te classificeren en labelen kunt u voorkomen dat die informatie toegankelijk is voor mensen die daar geen recht op hebben. Op deze manier kunt u uw data ook beschermen tegen de ‘AI stofzuiger’. Maar hoe pakt u dat aan? Wanneer dit handmatig gedaan zou moeten worden, dan wordt het een ongelofelijk complex traject en liggen fouten op de loer. Het goede nieuws: met Microsoft Purview kunt u dit zelf instellen en automatiseren. Daarmee heeft u uw data governance relatief snel en eenvoudig op orde.
Bijkomend voordeel: bescherming tegen datalekken
Het inrichten van datagovernance biedt meer voordelen. Wanneer uw organisatie Microsoft 365 gebruikt, dan kunnen zonder de juiste maatregelen datalekken ontstaan, omdat medewerkers heel eenvoudig bestanden en informatie extern kunnen delen.
Welke functionaliteit biedt Microsoft Purview?
- Identificatie en classificatie van Microsoft 365 gegevens.
- Implementatie en configuratie dataprotection, inclusief vertrouwelijkheidslabels en dataretentieperiodes en Data Loss Prevention (DLP).
- Inzicht en rapportage over gegevensgebruik, -kwaliteit en -governance.
PQR kan helpen met advies en diensten om Purview te implementeren in uw organisatie. We volgen hierbij de ‘best practices’ van Microsoft en de specifieke wensen en eisen van uw organisatie. Het mooie van Purview is dat alles in het systeem wordt geconfigureerd en vastgelegd, transparant, beheerbaar en compliant. Op deze manier is het ook auditeerbaar en helpt het uw organisatie te voldoen aan bijvoorbeeld de AVG en de NIS2-wetgeving.
Klaar om uw data (beter) te beschermen?
Wilt u een snelle, effectieve start maken met het gebruik van Microsoft Purview voor datagovernance? Download dan de flyers over de PQR Purview Quickstart voor dataretentie en Purview Quickstart voor dataclassificatie. Wilt u meer lezen over Copilot voor Microsoft 365? Ga naar deze pagina.
Reacties
Om een reactie achter te laten is een account vereist.
Inloggen Word abonnee