top of page
Zoeken

Van Shadow AI naar AI-beleid: een stappenplan dat voldoet aan de AI Act en NIS2

  • Erik Bos
  • 23 mrt
  • 7 minuten om te lezen

Elke organisatie heeft al AI-gebruik — de meeste weten het alleen niet. De AI Act verplicht organisaties tot risicogebaseerd beleid, ongeacht of dat beleid al is vastgesteld. Dit stappenplan helpt u dat gestructureerd op te bouwen, met NIS2 als aanvullend kader voor organisaties die onder die wet vallen.


Het probleem dat al bestaat

Terwijl u vergaderde over AI-beleid, uploadde uw technische dienst innovatieplannen naar een gratis AI-tool.

Dit is geen hypothetisch scenario. Het is wat ik tegenkom bij organisaties die denken dat ze "nog bezig zijn met AI-governance." De werkvloer wacht niet. Medewerkers lossen hun deadlines op met de tools die beschikbaar zijn — en als de organisatie geen werkbaar alternatief biedt, zoeken ze het zelf.

Het resultaat: gevoelige data in systemen waarover u geen controle heeft, geen zicht op wat er gedeeld wordt, en een AI Act die al van kracht is terwijl het beleid nog in concept ligt.

De vraag is niet meer óf u AI-beleid nodig heeft. De vraag is hoe u dat zo opbouwt dat het werkt in de praktijk — en voldoet aan wat de wet vereist.


Stap 1: Inventariseer wat er al gebeurt

Voordat u één pagina beleid schrijft, moet u weten wat de werkelijkheid is.

Dat klinkt vanzelfsprekend. Toch slaan de meeste organisaties deze stap over en beginnen direct met het opstellen van een gebruiksbeleid. Het gevolg is beleid dat geen aansluiting heeft bij de praktijk en dus ook niet wordt nageleefd.

Breng in kaart welke AI-tools al worden gebruikt, door welke afdelingen, en met welk soort data. Maak geen oordeel in deze fase — dat werkt contraproductief. Medewerkers die zich beoordeeld voelen, melden niets. U wilt een eerlijk beeld, geen compliance-theater.

Praktische aanpak: een korte anonieme bevraging per afdeling, gecombineerd met een technische scan op uitgaand netwerkverkeer. De uitkomst zal in de meeste gevallen verrassend zijn.

Voor die technische scan zijn er meerdere ingangen, afhankelijk van wat uw organisatie al heeft:

Firewall- en proxy-logging — de meeste next-generation firewalls categoriseren uitgaand verkeer automatisch, inclusief een categorie "AI-diensten." Als u dit al heeft, zet dan de juiste rapportage aan — u heeft geen nieuwe tool nodig.

CASB-oplossingen (Cloud Access Security Broker) — tools in deze categorie brengen SaaS-gebruik in kaart op basis van netwerkverkeer en identity-data, geven risicoratings per applicatie en signaleren ongeautoriseerd gebruik. Dit is de meest volledige aanpak, maar ook de zwaarste investering.

Identity provider / SSO — als uw organisatie werkt met een centrale identity provider, kunt u zien op welke externe applicaties medewerkers inloggen. Wat niet via SSO gaat, is precies het blinde vlak — en daar leeft shadow AI.

Microsoft 365 Purview — voor organisaties in het Microsoft-ecosysteem biedt Purview specifieke zichtbaarheid op AI-gebruik, inclusief pogingen vanuit de M365-omgeving.

Geen enkele tool ziet alles. Wat via een privéapparaat of thuisnetwerk gaat, valt buiten het zicht. Technische tooling is aanvullend op de bevraging — niet een vervanging ervoor.


Stap 2: Classificeer op risico (AI Act)

De AI Act is geen wet die "AI" in het algemeen reguleert. Het is een risicogebaseerd framework dat onderscheid maakt tussen toepassingen op basis van de potentiële schade die ze kunnen veroorzaken.

Voor de meeste organisaties zijn drie categorieën relevant:

Onaanvaardbaar risico — verboden toepassingen, zoals systemen die mensen op basis van gedrag een sociale score geven. Dit speelt in de meeste organisaties niet.

Hoog risico — toepassingen in sectoren als HR (geautomatiseerde selectie), onderwijs, kritieke infrastructuur en zorg. Hier gelden aantoonbaarheidsverplichtingen: u moet kunnen laten zien dat er menselijk toezicht is, dat het systeem getest is op bias, en dat er documentatie is.

Beperkt en minimaal risico — de meeste generatieve AI-tools (ChatGPT, Copilot) vallen hier. Hier zijn de verplichtingen beperkter, maar transparantieverplichtingen gelden wel: gebruikers moeten weten dat ze met een AI-systeem interacteren.

De praktische vraag per AI-toepassing in uw organisatie: welke categorie is dit, en wat verplicht die categorie van ons?


Stap 3: Begrijp wat AI met uw data doet

Voordat u een toolkeuze maakt, moet u één fundamenteel onderscheid begrijpen: het verschil tussen een consumentenversie en een enterprise-variant van hetzelfde AI-product.

Bij de gratis consumentenversies van tools zoals ChatGPT of Gemini worden uw invoer en gesprekken standaard gebruikt om het model verder te trainen. Wat u invoert, draagt bij aan het verbeteren van het systeem — en is daarmee buiten uw organisatie. Dat is geen verborgen truc; het staat in de gebruiksvoorwaarden. Maar het is informatie die de meeste medewerkers niet hebben gelezen.

Bij enterprise-varianten — ChatGPT Enterprise, Microsoft Copilot voor M365, Gemini Workspace — is dit standaard anders geregeld. Uw data wordt niet gebruikt voor training, verwerking vindt plaats binnen afgesproken grenzen, en er zijn contractuele afspraken over dataverwerking die aansluiten op AVG-vereisten.

Het risico zit dus niet primair in het gebruik van AI. Het zit in het gebruik van de verkeerde variant, door mensen die het onderscheid niet kennen.


Stap 4: Kies de juiste tool voor uw risiconiveau

Er is geen universeel juist antwoord op de vraag welke AI-tool uw organisatie moet gebruiken. Het antwoord hangt af van uw risiconiveau, uw bestaande infrastructuur en uw bereidheid om controle te houden over data.

U werkt al met Microsoft 365 — Copilot voor M365 is de logische keuze. Data blijft binnen uw eigen tenant, verwerking valt onder uw bestaande Microsoft-overeenkomsten, en het integreert in de omgeving die uw medewerkers al kennen. Het nadeel: de licentiekosten zijn substantieel en de toegevoegde waarde hangt sterk af van hoe goed uw datahuishouding op orde is. Een Copilot op een rommelige SharePoint-omgeving produceert rommelige uitkomsten.

U werkt al met Google Workspace — Gemini for Workspace biedt een vergelijkbare propositie. Data blijft binnen uw Google-tenant, verwerking is contractueel afgebakend, en het integreert in Docs, Gmail en Drive.

U heeft specifieke privacyvereisten of werkt in een gevoelige sector — dan is een Europees gehost of lokaal gehost alternatief een serieuze overweging. Denk aan tools als Mistral (Frans, GDPR-native) of een zelf-gehoste open-source oplossing zoals Llama via een eigen infrastructuur. Het voordeel is maximale controle over data en verwerking. Het nadeel is dat de beheerlast bij u ligt en de modellen doorgaans minder capabel zijn dan de grote Amerikaanse alternatieven.

De afweging is geen technische keuze. Het is een risicoafweging die op bestuursniveau gemaakt moet worden: hoeveel controle wilt u houden, en wat bent u bereid daarvoor te investeren?


Stap 5: Detecteer en voorkom ongecontroleerd gebruik

Beleid zonder handhaving is een intentieverklaring. Om te weten of uw medewerkers zich aan de afspraken houden — en om te voorkomen dat gevoelige data via niet-goedgekeurde tools de organisatie verlaat — heeft u zowel technische als organisatorische maatregelen nodig.

Op beleidsniveau: maak de lijst van goedgekeurde tools expliciet en zorg dat medewerkers weten waar ze die kunnen vinden. Een verbod op "alle andere AI-tools" zonder werkbaar alternatief werkt niet — dat hebben we al vastgesteld.

Op technisch niveau zijn er meerdere maatregelen die u kunt inzetten, afhankelijk van uw volwassenheidsniveau:

DNS-filtering en proxy-logging — blokkeer bekende AI-diensten die niet op de goedgekeurde lijst staan, en log pogingen tot toegang. Dit geeft zicht op wat er geprobeerd wordt, ook als het geblokkeerd is.

DLP-tooling (Data Loss Prevention) — voorkom dat bestanden met gevoelige classificatie worden geüpload naar externe diensten. De meeste moderne DLP-oplossingen kunnen AI-diensten herkennen als risicovolle bestemmingen.

Conditional access policies — beperk toegang tot niet-goedgekeurde SaaS-applicaties via uw identity provider. Dit werkt het meest effectief in combinatie met een goedgekeurde-apps-lijst.

Monitoring op netwerkverkeer — periodieke analyse van uitgaand verkeer naar AI-gerelateerde endpoints geeft een realistisch beeld van wat er daadwerkelijk gebruikt wordt.

Belangrijk: deze maatregelen zijn geen vervanging voor bewustwording. Ze zijn het vangnet. Medewerkers die begrijpen waarom de regels er zijn, hebben minder vangnet nodig.


Stap 6: Koppel aan NIS2-verplichtingen

Voor organisaties die onder NIS2 vallen, voegt AI-gebruik een extra dimensie toe aan bestaande verplichtingen.

De relevante raakvlakken zijn concreet. Toegangsbeheer: wie heeft toegang tot welke AI-tool, en is dat geregeld zoals u dat ook voor andere systemen heeft geregeld? Toeleveranciersrisico: AI-diensten zijn leveranciers. Uw verwerkersovereenkomst of contractuele afspraken moeten de NIS2-vereisten voor toeleveranciersbeheersing dekken. Incidentbeheer: als een AI-tool betrokken is bij een beveiligingsincident — denk aan een datalek via een ongecontroleerde AI-dienst — valt dat onder uw meldplicht.

Het punt is niet dat NIS2 speciale AI-regels heeft. Het punt is dat AI-gebruik raakt aan verplichtingen die u al heeft, en die nu ook van toepassing zijn op deze nieuwe categorie tools.


Stap 7: Bewustwording als beleidsinstrument

Bewustwording werkt niet als het een jaarlijkse klik-cursus is die medewerkers doorheen klikken om het vinkje te zetten.

Wat ik zie mislukken: organisaties die communiceren wat verboden is, zonder uit te leggen waarom. Het gevolg is dat medewerkers het verbod omzeilen zodra het hen uitkomt, omdat ze de achterliggende logica niet begrijpen.

Wat werkt: medewerkers begrijpen laten wat er op het spel staat. Niet in juridische termen, maar in concrete scenario's. Wat gebeurt er als innovatieplannen via een gratis AI-tool worden gedeeld met een externe partij? Wie is daarvoor verantwoordelijk? Wat zijn de gevolgen voor de organisatie?

Het verschil tussen een verbodscultuur en een verantwoordelijkheidscultuur is niet semantisch. In een verbodscultuur zoeken mensen de grenzen op. In een verantwoordelijkheidscultuur nemen mensen zelf een afweging.

Bewustwording is geen softmaatregel. Het is de voorwaarde waaronder beleid überhaupt functioneert.


Stap 8: Schrijf het beleid (en houd het werkbaar)

Een AI-beleid van veertig pagina's dat niemand leest, is geen beleid. Het is documentatie van de bedoeling.

Wat er minimaal in moet:

  • Scope: welke AI-tools zijn toegestaan, welke niet, en onder welke voorwaarden

  • Classificatie van data: welke data mag niet in externe AI-tools worden ingevoerd

  • Eigenaarschap: wie is verantwoordelijk voor AI-gebruik binnen een afdeling

  • Meldplicht: hoe melden medewerkers ongewenst AI-gebruik of incidenten

  • Reviewcyclus: wanneer wordt het beleid herzien (minimaal jaarlijks, gezien de snelheid van ontwikkelingen)

Houd het op twee à drie pagina's. Wat niet in twee pagina's past, wordt in de praktijk niet onthouden.


Stap 9: Borging en toetsing

Beleid zonder toetsing is inderdaad een papieren tijger. Maar toetsing hoeft niet zwaar te zijn om effectief te zijn.

Een lichte maar werkbare reviewcyclus bestaat uit drie elementen. Ten eerste een jaarlijkse beleidsreview: klopt de scope nog, zijn er nieuwe tools of toepassingen bijgekomen, zijn de risicoklassificaties nog actueel? Ten tweede periodieke controles op het gebruik: worden de afspraken nageleefd, zijn er signalen van Shadow AI? Ten derde koppeling aan incidentevaluaties: als er een incident is waarbij AI betrokken was, wat leert dat over de effectiviteit van het beleid?

Het gaat niet om controle als doel. Het gaat om leren. AI-gebruik in organisaties ontwikkelt zich snel. Beleid dat niet meebeweegt, is over twaalf maanden al achterhaald.


Tot slot

AI-beleid is geen IT-project. Het is een bestuurlijke verantwoordelijkheid met een technische uitvoering.

Organisaties die wachten tot het beleid "af" is voordat ze beginnen, lopen achter op een werkelijkheid die al maanden verder is. De stappen in dit stappenplan zijn bewust klein gehouden: u kunt morgen beginnen met stap 1, zonder dat er een stuurgroep voor nodig is.

Heeft u vragen over hoe dit er in uw specifieke situatie uitziet? Neem contact op via erik@mijnitmanager.nl

Een stappenplan voor uw AI-beleid
Een stappenplan voor uw AI-beleid

of stuur een bericht via LinkedIn.

 
 
 

Opmerkingen


Op zoek naar een interim IT manager die direct impact maakt? Neem contact op voor een kennismaking.

Email: Erik@MijnItManager.nl | Tel: 06-53368387

©2026  MijnItManager. 

bottom of page