Der EU AI Act kommt – ist Ihr Team vorbereitet?
Wir schulen Management, Legal, Compliance und Tech-Teams in Responsible AI, Fairness-Testing und EU AI Act-Anforderungen. Von Awareness bis Deep-Dive. Wir wollen, dass Sie den EU AI Act zu Ihrem Vorteil nutzen können.
Die beste Compliance-Strategie scheitert, wenn Teams nicht verstehen, was zu tun ist. Wir bringen Responsible AI, EU AI Act und praktische Tools zu Ihren Teams – praxisnah, interaktiv, auf Deutsch.
In 4 Stunden bis 2 Tagen vermitteln wir das Wissen, das Ihre Teams brauchen – vom C-Level-Überblick bis zum Hands-on Bias-Testing für Data Scientists.
⏱️ 4h – 2 Tage | 👥 Bis zu 25 Teilnehmer | 💰 Ab €2.000 | 📍 Remote oder Vor-Ort
✓ 25+ Jahre Erfahrung in Training & Change Management | ✓ Praxisnahe Beispiele aus echten Projekten | ✓ Interaktiv (keine Frontal-Vorträge) | ✓ Materialien auf Deutsch | ✓ 4 Wochen Post-Workshop-Support
Warum Responsible AI Workshops für Compliance Projekte?
Die größte Hürde für erfolgreiche AI Compliance ist nicht fehlende Technologie oder fehlendes Budget – es ist fehlendes Verständnis. Unterschiedliche Stakeholder brauchen unterschiedliches Wissen, sprechen unterschiedliche Sprachen und haben unterschiedliche Prioritäten.
Compliance braucht Kompetenz
📜 EU AI Act fordert nicht nur Prozesse, sondern kompetente Menschen:
- Art. 4 (AI Literacy): Alle Beteiligten müssen AI verstehen
- Art. 9: Risk Management braucht geschulte Risk Officers
- Art. 14: Human Oversight braucht qualifizierte Operators
Ohne Training: Prozesse bleiben Papier-Tiger
Mit Training: Teams können eigenständig umsetzen
Internes Know-how ist günstiger
💰 Externe Berater sind teuer
ROI-Rechnung:
- Workshop: €5.000 (einmalig)
- Befähigt 15 Mitarbeiter
- Spart 50-100h externe Beratung pro Jahr = €15k-50k gespart
Plus: Internes Know-how = schnellere Entscheidungen, weniger Abhängigkeit
Change Management
🧠 AI Compliance ist Change – Menschen müssen mitgenommen werden:
Ohne Workshops:
- „Noch mehr Compliance-Bürokratie“ (Widerstand)
- „Warum ist das wichtig?“ (Verständnislosigkeit)
- „Das betrifft mich nicht“ (fehlende Ownership)
Mit Workshops:
- Verständnis für „Warum“ (Akzeptanz)
- Praktische Tools (Selbstwirksamkeit)
- Gemeinsame Sprache (Team-Alignment)
Drei Responsible AI Workshops für unterschiedliche Stakeholder
Wir bieten keine „One-Size-Fits-All“-Trainings. Unsere Workshops sind modular, zielgruppenspezifisch und praxisorientiert. Jeder Stakeholder bekommt das Wissen, das er für seine Rolle braucht – in seiner Sprache, auf seinem Level.
Executive Briefing
(Half-Day, 4-6h)
Teilnehmer:
C-Level, Board, Senior Management
Ziel:
„Strategisches Verständnis: Was ist der EU AI Act, was bedeutet er für uns, was wollen wir tun?“
Inhalte:
EU AI Act Überblick
- Was ist der AI Act? (Ziele, Struktur, Timeline)
- Allignment mit Unternehmenszielen
- Risiko-Kategorien (Prohibited, High-Risk, Limited, Minimal)
- Was gilt für uns? (Quick Assessment)
Business Impact & Strategy
- Compliance-Anforderungen für unsere Systeme
- Kosten vs. Risiken (ROI von Compliance)
- Wettbewerbsvorteil durch Responsible AI
Roadmap & Next Steps
- Was muss bis wann passieren?
- Wer ist verantwortlich?
- Budgets & Ressourcen
- Q&A
Deliverables:
- Workshop-Slides (PDF)
- Miro Boards/Whiteboards dokumentiert
- Executive Summary (5 Seiten)
- High-Level Roadmap
- 2 Wochen Post-Workshop-Support (E-Mail/Calls)
Responsible AI Fundamentals
(Full-Day, 8h)
Teilnehmer:
Product Managers, Legal, Compliance, Risk Officers, AI-Projektleiter
Ziel:
Praktisches Verständnis: Wie setzen wir EU AI Act und Responsible AI um?
Inhalte:
Responsible AI Grundlagen
- Was ist Responsible AI? (Fairness, Transparency, Accountability)
- EU AI Act Deep-Dive (wichtigste Artikel)
- Case Studies (Apple Card, Amazon HR Tool)
Fairness & Bias
- Was ist Bias? (Typen, Beispiele)
- Wie misst man Fairness? (Metriken im Überblick)
- Hands-on: Disparate Impact berechnen (Excel-Übung)
- Mitigation-Strategien
Transparency & Explainability
- Was fordert Art. 13? (Transparenzpflichten)
- Explainability-Methoden (SHAP, LIME im Überblick)
- Model Cards erstellen (Template-Übung)
Implementation & Governance
- Wie baut man ein AI Governance Framework?
- Rollen & Verantwortlichkeiten
- Dokumentations-Anforderungen
- Monitoring & Post-Market Surveillance
Workshop & Action Planning
- Gruppenübung: Roadmap für unser Unternehmen
- Q&A
- Next Steps
Deliverables:
- Workshop-Slides (PDF)
- Excel-Templates (Bias-Calculation, Risk Assessment)
- Model Card Template
- Checklisten (Data Governance, Documentation)
- Case Study Sammlung (10 documented Bias-Cases)
- 4 Wochen Post-Workshop-Support
Technical Deep-Dive
(Two-Day, 16h)
Teilnehmer:
Data Scientists, ML Engineers, AI Developers
Ziel:
Hands-on Expertise: Fairness-Testing, Explainability-Tools, Mitigation-Code
Inhalte:
Teil 1: Fairness & Bias Testing
Fairness Theory & Metriken
- 70+ Fairness-Metriken (welche wann?)
- Trade-offs (Demographic Parity vs. Equal Opportunity)
- When to use what
Hands-on: IBM AIF360
- Setup & Installation
- Dataset-Loading
- Bias-Metriken berechnen
- Coding-Exercise (eigene Daten)
Bias-Mitigation
- Pre/In/Post-Processing-Strategien
- AIF360 Mitigation-Algorithmen
- Trade-off-Analysen (Fairness vs. Accuracy)
- Constraint-basierte Optimization
- Grid Search für faire Modelle
- Vergleich AIF360 vs. Fairlearn
Teil 2: Explainability & Data Governance
SHAP Deep-Dive
- Shapley Values erklärt
- SHAP Installation & Usage
- Global vs. Local Explanations
Hands-on: SHAP
Data Quality mit Great Expectations
- Data Governance-Anforderungen (EU AI Act Art. 10)
- Great Expectations Framework
- Automated Data Testing
Integration & Best Practices
- Wie integriert man Fairness-Testing in CI/CD?
- Monitoring-Setup (Alibi Detect Überblick)
- Production-Ready-Workflows
- Q&A & Abschluss
Deliverables:
- Workshop-Slides (PDF)
- Jupyter Notebooks (alle Übungen, lauffähig)
- Code-Repository (GitHub)
- Data Samples (für Übungen)
- Tool-Installation-Guides
- Best-Practice-Documentation
- 4 Wochen Post-Workshop-Support (inkl. Code-Reviews)
💡 Brauchen Sie etwas Spezifischeres?
Wir können Workshops customizen:
- Branchen-spezifisch (Finance, Healthcare, HR)
- Use-Case-fokussiert (nur Credit Scoring, nur Chatbots)
- Multi-Level (verschiedene Zielgruppen, verschiedene Tage)
- In English (falls gewünscht)
Beispiele für detaillierte Workshop-Agendas
Hier finden Sie Beispiele für die vollständigen Agendas der drei Workshop-Formate:
09:00 – 10:30 | EU AI Act Überblick (90 Min)
Was ist der EU AI Act? (30 Min)
- Historie & politischer Kontext (warum gibt es ihn?)
- Ziele: Harmonisierung, Grundrechte, Innovation
- Struktur: Titel, Kapitel, Artikel, Annexe
- Timeline: 2024-2027, wichtige Deadlines
Risiko-Kategorien verstehen (30 Min)
- Prohibited AI (Art. 5): Was ist verboten?
- High-Risk AI (Art. 6 + Annex III): Die 8 Bereiche im Detail
- Limited Risk AI (Art. 50): Transparenzpflichten
- Minimal Risk AI: Was ist außerhalb des Scope?
Quick Assessment: Was gilt für uns? (30 Min)
- Interaktive Übung: Ihre Systeme klassifizieren
- Welche fallen unter Annex III?
- Erste Einschätzung: Hochrisiko ja/nein?
- Q&A
10:30 – 10:45 | Pause (15 Min)
10:45 – 12:00 | Business Impact & Strategy (75 Min)
Compliance-Anforderungen für Ihre Systeme (30 Min)
- Wenn Hochrisiko: Welche Pflichten? (Art. 9-15 im Überblick)
- Risk Management, Data Governance, Transparency, Human Oversight
- Documentation & Record-Keeping
- Conformity Assessment & CE-Marking
Kosten vs. Risiken: ROI von Compliance (20 Min)
- Kosten: Assessment, Testing, Monitoring, Dokumentation
- Risiken: Bußgelder (bis €35 Mio.), Reputationsschaden, Produktstopp
- ROI-Rechnung: Wann amortisiert sich Compliance?
Wettbewerbsvorteil durch Responsible AI (25 Min)
- Early Compliance = Markt-Differenzierung
- Vertrauen als Asset (Kunden, Investoren, Regulatoren)
- Case Studies: Wer profitiert von verantwortungsvoller KI?
12:00 – 13:00 | Roadmap & Next Steps (60 Min)
Was muss bis wann passieren? (20 Min)
- EU AI Act Timeline: 2024-2027
- Ihre kritischen Deadlines
- Phasen: Assessment → Testing → Implementation → Monitoring
Wer ist verantwortlich? (15 Min)
- Governance-Struktur: AI Officer, Risk Committee
- Rollen & Verantwortlichkeiten (Legal, Compliance, Tech, Product)
- RACI-Matrix für AI Compliance
Budgets & Ressourcen (10 Min)
- Typische Kosten (Assessment, Testing, Monitoring)
- Build vs. Buy (interne Kapazität vs. externe Berater)
- Ressourcen-Planung (FTE, Budget)
Q&A & Nächste Schritte (15 Min)
- Offene Fragen
- Konkrete Aktionen für die nächsten 4 Wochen
- Follow-up: Wer macht was bis wann?
09:00 – 10:30 | Responsible AI Grundlagen (90 Min)
Was ist Responsible AI? (30 Min)
- Definition & Kernprinzipien (Fairness, Transparency, Accountability)
- Warum ist es wichtig? (ethisch, legal, business)
- Geschichte: Von OECD Principles zu EU AI Act
EU AI Act Deep-Dive (40 Min)
- Struktur & wichtigste Artikel (6, 9, 10, 13, 14, 15, 72-73)
- Hochrisiko-Kategorien (Annex III detailliert)
- Pflichten für Provider & Deployer
- Sanktionen & Enforcement
Case Studies: Wenn AI schiefgeht (20 Min)
- Apple Card Gender Bias (2019)
- Amazon HR Tool (2018)
- COMPAS Recidivism Algorithm
- Lessons Learned
10:30 – 10:45 | Pause
10:45 – 12:30 | Fairness & Bias (105 Min)
Was ist Bias? (30 Min)
- Typen: Data Bias, Algorithmic Bias, User Bias
- Wo entsteht Bias? (Training-Data, Features, Labels, Model)
- Beispiele aus verschiedenen Domains
Fairness-Metriken verstehen (35 Min)
- Demographic Parity (gleiche Approval-Rates)
- Equal Opportunity (gleiche True-Positive-Rates)
- Equalized Odds (gleiche Fehlerraten)
- Trade-offs zwischen Metriken (man kann nicht alle erfüllen!)
- Welche Metrik wann? (Use-Case-abhängig)
Hands-on: Disparate Impact berechnen (40 Min)
- Excel-Übung mit Sample-Data
- Berechnung: Selection Rate Ratio
- Interpretation: <0.80 = problematisch (80%-Rule)
- Gruppenarbeit: Ihre Use Cases analysieren
12:30 – 13:30 | Mittagspause
13:30 – 15:00 | Transparency & Explainability (90 Min)
Was fordert Art. 13 (Transparenz)? (20 Min)
- Transparenzpflichten für Hochrisiko-Systeme
- Was muss kommuniziert werden? (an wen?)
- User Information Requirements
Explainability-Methoden im Überblick (30 Min)
- Black Box vs. Glass Box Models
- Post-hoc Explanations (SHAP, LIME)
- Global vs. Local Explanations
- Feature Importance Rankings
Hands-on: Model Cards erstellen (40 Min)
- Was ist eine Model Card? (Google/TensorFlow Standard)
- Template-Übung: Model Card für Ihr System
- Sections: Intended Use, Training Data, Performance, Limitations
- EU AI Act Compliance: Model Card = Teil der Technical Documentation
15:00 – 15:15 | Pause
15:15 – 16:45 | Implementation & Governance (90 Min)
AI Governance Framework aufbauen (30 Min)
- Governance-Strukturen (AI Board, Risk Committee)
- Rollen & Verantwortlichkeiten (wer macht was?)
- Policies & Prozesse (Risk Assessment, Approval, Monitoring)
Dokumentations-Anforderungen (25 Min)
- Was muss dokumentiert werden? (Art. 11, 12, 13)
- Technical Documentation (umfangreich!)
- Logs & Records (Art. 12: automatisches Logging)
- Templates & Checklisten (praktische Beispiele)
Monitoring & Post-Market Surveillance (35 Min)
- Art. 72: Post-Market Monitoring Pflicht
- Was monitoren? (Performance, Fairness, Drift)
- Wie monitoren? (Tools, Prozesse, Frequency)
- Incident Reporting (Art. 73: „Serious Incidents“)
16:45 – 17:30 | Workshop & Action Planning (45 Min)
Gruppenübung: Roadmap erstellen (30 Min)
- Teams: Roadmap für Ihr Unternehmen skizzieren
- Was sind Ihre ersten 3 Schritte?
- Timeline: Wer macht was bis wann?
- Präsentation & Feedback
Q&A & Next Steps (15 Min)
- Offene Fragen
- Ressourcen & weiterführende Literatur
- Post-Workshop-Support
TAG 1: Fairness & Bias Testing
09:00 – 10:30 | Fairness Theory & Metriken (90 Min)
Deep-Dive: 70+ Fairness-Metriken (45 Min)
- Group Fairness: Demographic Parity, Equal Opportunity, Equalized Odds
- Individual Fairness: Similar people → Similar outcomes
- Calibration: Predicted probabilities = actual probabilities
- Trade-offs: Warum man nicht alle Metriken gleichzeitig erfüllen kann
- Impossibility Theorems (Kleinberg et al.)
Welche Metrik wann? (45 Min)
- Credit Scoring: Equal Opportunity oft wichtig
- HR Recruiting: Demographic Parity für Diversity
- Medical Diagnosis: Calibration critical
- Decision Framework: Use-Case → Stakeholder → Metrik
10:30 – 10:45 | Pause
10:45 – 12:30 | Hands-on: IBM AIF360 (105 Min)
Setup & Installation (15 Min)
- Python Environment Setup
- pip install aif360
- Dependencies & Troubleshooting
AIF360 Basics (30 Min)
- Dataset-Loading (StandardDataset, BinaryLabelDataset)
- Metrics berechnen (ClassificationMetric)
- Code-Beispiel: Disparate Impact, Equal Opportunity
Coding-Exercise: Ihr eigener Bias-Test (60 Min)
- Sample-Dataset oder Ihre Daten (anonymisiert)
- Bias-Metriken berechnen
- Interpretation der Ergebnisse
- Troubleshooting & Q&A
12:30 – 13:30 | Mittagspause
13:30 – 15:00 | Bias-Mitigation (90 Min)
Mitigation-Strategien Überblick (20 Min)
- Pre-Processing (Daten-Level): Reweighing, Sampling
- In-Processing (Training-Level): Prejudice Remover, Adversarial Debiasing
- Post-Processing (Prediction-Level): Calibrated Equalized Odds, Reject Option
Hands-on: AIF360 Mitigation-Algorithmen (50 Min)
- Reweighing implementieren
- Before/After Comparison
- Trade-off-Analyse: Fairness-Improvement vs. Accuracy-Drop
Best Practices (20 Min)
- Wann welche Mitigation?
- Business-Kontext berücksichtigen
- Kommunikation von Trade-offs an Stakeholder
15:00 – 15:15 | Pause
15:15 – 17:00 | Fairlearn (105 Min)
Warum Fairlearn? (15 Min)
- Microsoft’s Approach: Constraint-basierte Optimization
- Vergleich AIF360 vs. Fairlearn
- Wann nutzt man was?
Hands-on: Grid Search für faire Modelle (60 Min)
- Fairlearn Installation
- GridSearch mit Fairness-Constraints
- Pareto-Front-Visualisierung (Fairness vs. Accuracy)
- Model-Selection: Welcher Trade-off ist akzeptabel?
Coding-Exercise: Ihr Use Case (30 Min)
- Fairlearn auf Ihre Daten anwenden
- Trade-off-Matrix erstellen
- Empfehlung für Stakeholder formulieren
TAG 2: Explainability & Data Governance
09:00 – 10:30 | SHAP Deep-Dive (90 Min)
Shapley Values erklärt (30 Min)
- Cooperative Game Theory Grundlagen
- Warum Shapley Values fair sind
- Von Spieltheorie zu ML-Explainability
SHAP Installation & Setup (15 Min)
- pip install shap
- Model-Compatibility (Tree-based, Neural Networks, Linear)
SHAP in der Praxis (45 Min)
- Global Explanations: Summary Plot, Feature Importance
- Local Explanations: Force Plot, Waterfall Plot
- Feature Interactions: Dependence Plots
- Code-Beispiele für verschiedene Model-Typen
10:30 – 10:45 | Pause
10:45 – 12:30 | Hands-on: SHAP (105 Min)
Coding-Exercise 1: SHAP Summary Plots (35 Min)
- Sample-Model (Scikit-Learn) laden
- SHAP-Werte berechnen
- Summary Plot erstellen & interpretieren
Coding-Exercise 2: SHAP Force Plots (35 Min)
- Einzelne Predictions erklären
- Force Plot visualisieren
- Counterfactual Analysis: Was müsste sich ändern?
Coding-Exercise 3: Ihre Modelle (35 Min)
- SHAP auf Ihre Production-Modelle anwenden (wenn vorhanden)
- Insights extrahieren
- Deliverable: Explanation-Report für Stakeholder
12:30 – 13:30 | Mittagspause
13:30 – 15:00 | Data Quality mit Great Expectations (90 Min)
EU AI Act Art. 10: Data Governance (20 Min)
- „Relevant, representative, free of errors, complete“
- Was bedeutet das technisch?
- Messbare Metriken für jede Anforderung
Great Expectations Framework (30 Min)
- Was ist Great Expectations?
- Installation & Setup
- Expectations definieren (z.B. „Missing Values <5%")
- Automated Testing in Pipelines
Hands-on: Data Quality Tests (40 Min)
- Sample-Dataset laden
- Expectations erstellen
- Validation-Suite laufen lassen
- Data Quality Scorecard generieren
- Failing Tests: Was tun?
15:00 – 15:15 | Pause
15:15 – 17:00 | Integration & Best Practices (105 Min)
CI/CD-Integration (30 Min)
- Fairness-Tests in Deployment-Pipeline
- Automated Testing: Pre-Deployment-Checks
- Fail-Safe: Deployment-Stop bei kritischem Bias
- Code-Beispiele (Jenkins, GitLab CI, GitHub Actions)
Monitoring-Setup (Alibi Detect Überblick) (25 Min)
- Post-Deployment: Continuous Monitoring nötig
- Alibi Detect für Drift Detection
- Alert-Setup bei Performance/Fairness-Degradation
- Link zu Monitoring-Service
Production-Ready-Workflows (25 Min)
- Von Notebook zu Production-Code
- Best Practices: Logging, Error Handling, Documentation
- Team-Workflows: Data Scientists ↔ ML Engineers
Q&A & Abschluss (25 Min)
- Offene Fragen
- Next Steps für Ihre Projekte
- Post-Workshop-Support (4 Wochen, inkl. Code-Reviews)
- Resources & Community
Für wen sind Responsible AI Workshops sinnvoll?
✅ Workshops machen Sinn wenn:
- Sie AI-Systeme entwickeln/betreiben
- EU AI Act betrifft Sie (Hochrisiko-Systeme)
- Teams haben wenig AI/Compliance-Erfahrung
- Change Management nötig (neue Prozesse)
- Budget für externe Berater begrenzt
✅ Ideal für:
- Mittelstand (50-500 Mitarbeiter) – perfekte Größe
- Startups (AI-fokussiert) – früh Kultur etablieren
- Konzerne (>1.000 MA) – mehrere Wellen, verschiedene Teams
- Public Sector – Verwaltungs-Digitalisierung
❌ Weniger sinnvoll wenn:
- Teams sind bereits AI-Experten
- Nur 1-2 Personen betroffen
- Keine AI-Systeme in absehbarer Zeit
Typische Firmensituationen
Situation 1: „Wir starten mit AI“
→ Executive Briefing (Management-Buy-in)
→ Fundamentals (Product/Engineering)
→ Etabliert Kultur von Anfang an
Situation 2: „EU AI Act kommt, wir müssen compliant werden“
→ Fundamentals (Compliance/Legal)
→ Technical Deep-Dive (Data Science)
→ Alle wissen was zu tun ist
Situation 3: „Wir haben AI, aber wenig Fairness-Know-how“
→ Technical Deep-Dive (Data Scientists)
→ Hands-on Tools lernen
→ Eigenständige Umsetzung möglich
Situation 4: „Wir wachsen, brauchen Onboarding-Prozess“
→ Ongoing Education Paket
→ Quarterly Workshops für neue Mitarbeiter
→ Konsistente Wissensvermittlung
Häufige Fragen zu Responsible AI Workshops
Buchen Sie Ihren Responsible AI Workshop
💬 Beratungsgespräch (30 Min)
Wir besprechen Ihre Situation und empfehlen passendes Format.
Kostenfrei & unverbindlich
💼 Workshop direkt anfragen
Beschreiben Sie kurz Ihre Bedürfniosse und wir werden uns umgehend bei Ihnen melden, um die Möglichkeiten und das weitere Vorgehen zu besprechen (Anfrage unverbindlich)
