Agenda
Vormittag: Bedrohungslandschaft & Threat Modeling
- Warum KI Security-Patterns inkonsistent anwendet — und warum das gefährlich ist
- Neue Angriffsvektoren: Prompt Injection, halluzinierte Packages, Context Window Poisoning
- STRIDE erweitert auf KI-Agenten: den Agenten als Trust Boundary begreifen
- Exercise 1: Login-Formular ohne Security-Anforderungen prompten — Lücken analysieren
- Exercise 2: Threat Model für einen Agenten-Workflow erstellen
Nachmittag: Guardrails, Architektur & Automation
- Security Specs und globale Agent-Instruktionen (
security-policy.md,CLAUDE.md) - Automatisierte Gates: SAST, SCA, Secrets-Scanning in CI/CD
- Secure-by-Design: Middleware, ORM, Typing als strukturelle Leitplanken
- Least Privilege für Agenten: Dateisystem, Netzwerk, Tools, Scope
- Exercise 3–5: Guardrails bauen → Sichere Architektur definieren → Secure Dark Factory Simulation
Methodik
Hands-on durch den ganzen Tag: Das Login-Feature aus Exercise 1 wird ohne Guardrails gebaut, schrittweise abgesichert und zum Abschluss als vollständige Secure Dark Factory Simulation mit Semgrep, npm audit und Gitleaks durchgezogen.
Voraussetzungen: Erfahrung in der Software-Entwicklung. Sicherheitsvorkenntnisse nicht erforderlich.