Organisaties zetten steeds vaker generatieve AI, machine learning en autonome AI-agenten in. Dat zorgt voor enorme innovatie, maar ook voor een snel groeiend aanvalsoppervlak waar traditionele security- en pentestmethoden simpelweg niet op zijn ontworpen. De Advanced AI Red Teaming (AI-300) OSAI training is een unieke, geavanceerde AI-cybersecuritytraining van OffSec (de organisatie achter o.a. OSCP) waarin je leert hoe je kwetsbaarheden in deze AI-systemen herkent, onderzoekt en actief weet te benutten vanuit een offensief perspectief.
Met de opkomst van AI veranderen niet alleen de technologieën, maar ook de risico’s. Modellen, datastromen, vector databases, agents en orchestratie-frameworks brengen allemaal hun eigen kwetsbaarheden met zich mee. En juist daar ligt de focus van AI-300: begrijpen hoe AI-systemen écht aangevallen worden en hoe aanvallers denken en handelen in dit soort omgevingen.
Je leert om een echte adversary mindset aan te nemen en deze te combineren met bewezen offensive security technieken. Daarbij ga je specifiek aan de slag met AI-toepassingen zoals LLM’s, deep learning modellen en AI-gedreven infrastructuren. Hoe manipuleer je modelgedrag? Hoe ontdek je zwakheden in een AI pipeline?
Advanced Red Teaming for AI Environments is een uitgebreide, praktijkgerichte training waarin je leert hoe je moderne AI-systemen daadwerkelijk aanvalt. Nu organisaties LLM’s, RAG-pipelines, agents en tool-calling frameworks steeds vaker integreren in kritische processen, wordt het essentieel om te begrijpen waar deze componenten falen en hoe ze misbruikt kunnen worden. In deze training werk je met een gestructureerde en herhaalbare aanpak, gebaseerd op frameworks zoals MITRE ATLAS, de OWASP Top 10 voor LLM’s en NVIDIA’s AI Kill Chain. Zo leer je stap voor stap hoe je volledige AI-aanvallen opzet en uitvoert.
Je begint met het in kaart brengen van het AI-aanvalsoppervlak, het analyseren van modelgedrag en het uitvoeren van verkenningen op infrastructuren waarin AI is geïntegreerd. Vervolgens ga je zelf aan de slag in praktische labs. Je oefent onder andere met prompt injection, het manipuleren van RAG-processen, data poisoning, het beïnvloeden van agents, misbruik van toolchains en aanvallen op de supply chain. Ook komen aanvallen op protocollen zoals MCP en orchestratie binnen multi-agent omgevingen aan bod. Je ontwikkelt stap voor stap de vaardigheden om kwetsbaarheden te identificeren, aanvallen te simuleren en de impact ervan te analyseren binnen complete AI-ecosystemen. Je leert AI-systemen benaderen alsof je een aanvaller bent, zodat je beter begrijpt waar de echte risico’s zitten en hoe je organisaties helpt om zich hiertegen te verdedigen.
Daarnaast ligt de nadruk op stealth en OPSEC: hoe blijf je als aanvaller onder de radar? Je leert hoe je AI-specifieke beveiligingsmaatregelen omzeilt en hoe aanvallers vanuit een gecompromitteerd AI-component verder bewegen richting bredere enterprise-omgevingen. Je leert niet alleen de theorie, maar vooral door te doen. Alle onderwerpen worden ondersteund met realistische hands-on labs die enterprise-omgevingen simuleren waar AI-systemen geïntegreerd zijn met traditionele IT- en cloudinfrastructuren, zodat je de technieken direct leert toepassen in professionele red team scenario’s. Denk aan scenario’s met multi-agent systemen, vector databases en AI orchestration frameworks.
De training wordt afgesloten met een capstone-opdracht, waarin je een volledige end-to-end AI-aanval uitvoert op een realistische multi-agent enterprise-omgeving. Hierbij breng je alles wat je hebt geleerd samen in één complete red team engagement.
Examen / Certificering
Bij de training inbegrepen is het OffSec AI Red Teamer (OSAI) examen: een intensieve 24-uurs hands-on red teaming challenge waarin je een realistische AI-gedreven enterprise-omgeving moet compromitteren. Als je slaagt, behaal je de OSAI en OSAI+ certificering, waarmee je laat zien dat je AI-systemen op professioneel niveau kunt aanvallen en beoordelen. Indien nodig is binnen een jaar na ontvangst van je materiaal ook een herkansing van het examen inbegrepen.
Wat kan ik na deze training?
- Een volledige, gestructureerde methodologie voor AI red teaming toepassen, gebaseerd op MITRE ATLAS, de OWASP Top 10 voor LLM’s en NVIDIA’s AI Kill Chain
- Geavanceerde aanvallen uitvoeren, zoals prompt injection, RAG-manipulatie, data poisoning, het misbruiken van agents en toolchains en aanvallen op de supply chain
- Complexe AI-omgevingen analyseren, compromitteren en verder doordringen, inclusief multi-agent systemen, tool-calling frameworks, orchestratielagen en AI-geïntegreerde cloudinfrastructuren
- Aanvalsoppervlakken in kaart brengen binnen moderne AI-systemen, zoals generatieve AI, LLM-applicaties en machine learning-omgevingen
- Verkenningen uitvoeren en dreigingen modelleren voor AI-gedreven systemen, inclusief het identificeren van trust boundaries en kritieke doelwitten
- Kwetsbaarheden in AI-agents en multi-agent systemen exploiteren, waaronder prompt injection en manipulatie van geheugen
- RAG-pipelines en vector databases compromitteren via data poisoning en manipulatie van de retrieval-laag
- Embedding-aanvallen uitvoeren en gevoelige informatie extraheren uit AI-modellen en machine learning-systemen
- Zwakheden misbruiken in AI-orchestratielagen en tool-integratieframeworks binnen moderne AI-toepassingen
- Kwetsbaarheden identificeren en exploiteren binnen de AI supply chain, zoals datasets, modellen en adapters
- AI-infrastructuur en deploymentomgevingen aanvallen, waaronder modelservers, cloudplatformen en gecontaineriseerde workloads
- Model extraction en adversarial machine learning-aanvallen uitvoeren en AI-systemen manipuleren
- Offensieve methodieken toepassen om AI-cybersecurityrisico’s te beoordelen en risicomanagement binnen AI-omgevingen te versterken
Voor wie is de OSAI training geschikt?
OSAI - AI-300 is bedoeld voor ervaren securityprofessionals die hun expertise willen uitbreiden richting AI-security en machine learning security. Denk aan Penetratietesters, Red teamers en Security Engineers.
De training is ook geschikt voor AI-engineers en developers die beter willen begrijpen hoe aanvallers AI-gedreven systemen aanvallen en die praktische technieken willen leren om AI-cybersecurityrisico’s te herkennen en te beperken.
Duur training
5 dagen + 365 dagen online begeleiding via OffSec Learn One
Globale Inhoud
Introductie tot Red Teaming van AI-systemen
Je krijgt inzicht in hoe artificial intelligence-systemen het traditionele aanvalsoppervlak veranderen. Deze module introduceert de kernconcepten van AI-cybersecurity, legt uit hoe aanvallers AI-gedreven omgevingen benaderen en koppelt AI-aanvallen aan de red team lifecycle en moderne cyberdefensiestrategieën.
Reconnaissance voor AI-doelwitten
Je leert hoe je AI-applicaties, machine learning-componenten en modelinfrastructuur binnen een doelomgeving identificeert en in kaart brengt. Daarbij oefen je met reconnaissance-technieken om AI-assets, afhankelijkheden en blootgestelde services te ontdekken zonder de verdediging te alarmeren.
Aanvallen op AI-agents
Je onderzoekt offensieve technieken om AI-agents te manipuleren via misbruik van prompt-instructies, geheugensystemen en tool-integraties. Deze module laat zien hoe autonome AI-toepassingen beïnvloed kunnen worden terwijl je onopgemerkt blijft.
Aanvallen op multi-agent systemen en A2A-protocollen
Je analyseert de architectuur van multi-agent AI-systemen en leert hoe aanvallers vertrouwen tussen agents misbruiken. Je oefent met aanvallen zoals message manipulation, agent impersonation en workflow corruption.
Exploiteren van RAG-pipelines
Je bestudeert hoe retrieval-augmented generation (RAG)-systemen gecompromitteerd kunnen worden door knowledge sources te vergiftigen en retrieval-lagen te manipuleren om modeloutput te sturen.
Aanvallen op embeddings
Je leert de rol van embeddings binnen machine learning-systemen begrijpen en voert aanvallen uit zoals embedding inversion en informatie-extractie om gevoelige data uit AI-modellen te herleiden.
Aanvallen op Model Context Protocol en tool-oppervlakken
Je verkent hoe orchestratielagen en AI tool-integratieframeworks misbruikt kunnen worden om privileges te escaleren of ongewenste acties binnen AI-systemen uit te voeren.
Supply chain-aanvallen op AI/ML-systemen
Je leert hoe aanvallers de AI supply chain targeten, waaronder datasets, model weights, adapters en afhankelijkheden. Je oefent met technieken om kwaadaardige componenten in AI-omgevingen te introduceren vóór deployment.
AI-infrastructuur en deployment-exploits
Je identificeert kwetsbaarheden in AI-infrastructuur, waaronder cloud security platforms, modelservers en gecontaineriseerde machine learning workloads.
Threat modeling voor AI-gedreven doelwitten
Je ontwikkelt strategieën om high-value AI-assets, trust boundaries en potentiële aanvalspaden in complexe AI-omgevingen te identificeren. Dit ondersteunt risicomanagement en versterkt threat detection-capabilities.
Alles samenbrengen – Capstone red team engagement
Je past alle technieken uit de training toe tijdens een volledige red team-opdracht tegen een realistische enterprise AI-omgeving, waarbij je simuleert hoe aanvallers productie-AI-systemen compromitteren.
Rooster komende maanden:
| Datum | 21 - 25 september 2026 | inschrijven |
|---|---|---|
| Locatie | Veenendaal, The Netherlands | |
| Datum | In overleg of zelfstudie | inschrijven |
| Locatie | ||
Cursisten over deze cursus:
Geen testimonials gevonden.