AI Security ervaringen en internationale standaarden
AI Security: ervaringen en internationale standaarden
Vandaag had ik het plezier om samen met Rob van der Veer een fireside chat te verzorgen tijdens het CIP webinar ‘AI security: ervaringen en internationale standaarden’. Met meer dan 260 deelnemers en een beoordeling van 7,9 kijken we terug op een sterk en inhoudelijk gesprek over een onderwerp dat zich razendsnel ontwikkelt: de beveiliging van AI.
Onze insteek was niet om AI nóg technischer te maken, maar juist om organisaties te helpen begrijpen wat dit betekent voor governance, risico’s en de rol van de CISO.
Van nieuwsgierigheid naar leiderschap
Een van de eerste vragen was hoe je als CISO het tempo van AI überhaupt kunt bijhouden. Mijn antwoord is simpel: nieuwsgierig blijven. Je hoeft AI niet tot in detail technisch te begrijpen, maar je moet wel begrijpen wat er mis kan gaan – én welke kansen het biedt voor je organisatie.
AI is voor mij geen doel op zich, maar een weapon of mass disruption die vraagt om leiderschap, keuzes en duidelijke kaders.
AI toepassen voor security
We bespraken verschillende praktijkvoorbeelden waarbij AI juist een versneller kan zijn voor security:
- Het opschalen van advisering en prioritering van kwetsbaarheden, zoals bij organisaties waar de doelgroep exponentieel groeit.
- Het ontsluiten van security §kennis binnen organisaties, waardoor niet specialisten sneller de juiste context krijgen.
- Het gebruik van AI als copiloot bij risicoanalyses en het structureren van grote hoeveelheden informatie.
Mijn belangrijkste boodschap hier: AI helpt ons sneller denken, maar niet sneller beslissen. Human in the loop blijft essentieel.
Programmereren met AI: Shadow coding is de nieuwe Shadow IT
Een belangrijk thema was het gebruik van AI door ontwikkelaars. Organisaties die geen duidelijke kaders bieden, zien dat developers AI toch gebruiken — vaak buiten zicht van security en governance.
Mijn advies is daarom om gecontroleerde mogelijkheden aan te bieden, bijvoorbeeld via een private endpoint of on prem oplossing, met duidelijke spelregels:
- geen secrets in prompts
- alleen boilerplate code of scaffolding
- geen kernlogica van bedrijfsprocessen
- geen performance kritische onderdelen
- geen nieuwe of unieke algoritmes
AI coding is geen gewone tool; het is een nieuwe vorm van software supply chain.
Het beveiligen van AI systemen
Het derde deel van het gesprek ging over de vraag die ik momenteel het vaakst hoor: hoe beveilig je AI eigenlijk?
Veel dreigingen lijken nieuw — zoals prompt injectie of model poisoning — maar de kern blijft herkenbaar: data beschermen, toegang beperken en gedrag controleren.
Wat wél verandert, is het dreigingsmodel binnen organisaties. Medewerkers gebruiken AI steeds vaker buiten zicht, data kan via prompts wegvloeien en beleid wordt impliciet overtreden. Voor veel CISOs is dat misschien wel de grootste uitdaging.
Zero Model Trust
Een concept dat we bespraken is Zero Model Trust. Voor mij betekent dat:
- niet automatisch vertrouwen dat output klopt
- niet aannemen dat een model niet gemanipuleerd is
- niet veronderstellen dat data veilig blijft
Daarom draait AI security voor een groot deel om het beperken van de blast radius: minimale rechten, minimale data en duidelijke grenzen aan autonomie — zeker bij agentic AI.
Standaarden als kompas, niet als beperking
We spraken ook over de rol van standaarden zoals ISO 27001, BIO en nieuwe AI standaarden. Mijn visie blijft dat AI geen volledig nieuwe securitydiscipline is. De meeste risico’s kennen we al; alleen het object verandert.
Standaarden geven een gemeenschappelijke taal, maar compliance alleen maakt je niet veilig. Zoals ik het tijdens het webinar formuleerde:
Compliance is the perfect level of security if your only threat is the auditor.
Blijf daarom sturen op risico’s, weerbaarheid en het valideren van beheersmaatregelen.
Belangrijkste takeaways
- Gebruik AI bewust en doelgericht, niet defensief.
- Hanteer een Zero Model Trust principe.
- Minimaliseer data, rechten en modelautonomie.
- Laat standaarden je helpen, maar stuur op risico’s.
- AI governance is leiderschap — geen tooling.
Dank aan Rob van der Veer voor het open gesprek en aan iedereen die live aanwezig was en vragen stelde.