1 Tag Vor Ort oder Remote Max. 12 Teilnehmer

Secure Agentic Coding

Wie sich sichere Entwicklung verändert, wenn die KI den Code schreibt

1 Für wen

  • Software-Entwickler und Architekten
  • Security Champions und DevSecOps-Engineers
  • Tech Leads, die KI-Agenten verantwortungsvoll einsetzen wollen

2 Was Sie lernen

  • Die neue Bedrohungslandschaft verstehen: Prompt Injection, halluzinierte Dependencies, Rubber-Stamping-Effekt
  • Den Agenten ins Threat Model aufnehmen: STRIDE erweitert auf KI-Workflows
  • Security Specs und globale Guardrails formulieren (security-policy.md, CLAUDE.md)
  • Automatisierte Security-Gates aufbauen: SAST, SCA, Secrets-Scanning in CI/CD
  • Secure-by-Design Architektur: strukturelle Leitplanken statt Einzelfall-Instruktionen

Agenda

Vormittag: Bedrohungslandschaft & Threat Modeling

  • Warum KI Security-Patterns inkonsistent anwendet — und warum das gefährlich ist
  • Neue Angriffsvektoren: Prompt Injection, halluzinierte Packages, Context Window Poisoning
  • STRIDE erweitert auf KI-Agenten: den Agenten als Trust Boundary begreifen
  • Exercise 1: Login-Formular ohne Security-Anforderungen prompten — Lücken analysieren
  • Exercise 2: Threat Model für einen Agenten-Workflow erstellen

Nachmittag: Guardrails, Architektur & Automation

  • Security Specs und globale Agent-Instruktionen (security-policy.md, CLAUDE.md)
  • Automatisierte Gates: SAST, SCA, Secrets-Scanning in CI/CD
  • Secure-by-Design: Middleware, ORM, Typing als strukturelle Leitplanken
  • Least Privilege für Agenten: Dateisystem, Netzwerk, Tools, Scope
  • Exercise 3–5: Guardrails bauen → Sichere Architektur definieren → Secure Dark Factory Simulation

Methodik

Hands-on durch den ganzen Tag: Das Login-Feature aus Exercise 1 wird ohne Guardrails gebaut, schrittweise abgesichert und zum Abschluss als vollständige Secure Dark Factory Simulation mit Semgrep, npm audit und Gitleaks durchgezogen.

Voraussetzungen: Erfahrung in der Software-Entwicklung. Sicherheitsvorkenntnisse nicht erforderlich.