AI Governance Checkliste für HR: 4 Reifegrade und 7 Risikobereiche für Unternehmen in DACH

By Jürgen Ulbrich

Ein klares Skill-Framework für AI Governance in HR schafft gemeinsame Erwartungen: Führungskräfte und HR-Teams sehen auf einen Blick, welche Kompetenzen für sichere, faire und dokumentierte AI-Nutzung in Recruiting, Performance und Learning nötig sind. Das erleichtert Beförderungen, Feedback und Entwicklung, reduziert Diskussionen über „Bauchgefühl“ und zeigt transparent, wie man sich von operativer Nutzung hin zu strategischer Mitverantwortung für AI-Governance entwickelt.

Kompetenzbereich / Skill-Level Level 1 – Ad-hoc Level 2 – Basis Level 3 – Fortgeschritten Level 4 – Strategisch
1. Strategie & Use-Case-Priorisierung Nutzt AI-Features opportunistisch, ohne klaren HR-Use-Case oder dokumentierte Ziele. Beschreibt einfache HR-AI-Use-Cases (z. B. Stellenanzeigen), stimmt Tests grob mit IT ab. Entwickelt und pflegt eine HR-AI-Roadmap, priorisiert Use-Cases nach Impact/Risiko und weist Owner zu. Verknüpft AI-Roadmap mit Talent‑, Performance- und DEI-Zielen, steuert ein Governance-Gremium und berichtet regelmäßig.
2. Datenschutz & Privacy (GDPR/Datenschutz) Verwendet AI-Tools mit Beschäftigtendaten ohne DPIA, AVV oder klare Rechtsgrundlage. Erkennt datenschutzrelevante Use-Cases, initiiert AVVs und einfache DPIAs mit Legal/DSB. Stellt sicher, dass für alle relevanten HR-AI-Tools DPIAs, AVVs, Löschkonzepte und Zugriffsrechte dokumentiert sind. Integriert Privacy-by-Design in HR-Prozesse, treibt jährliche Audits und passt Policies proaktiv an neue Anforderungen (z. B. EU AI Act).
3. Fairness, Bias & Non-Diskriminierung (AGG) Setzt AI-Entscheidungsunterstützung (z. B. CV-Screening) ohne Bias-Checks ein, reagiert nur auf Beschwerden. Führt einfache einmalige Bias-Checks in Recruiting durch, dokumentiert Ergebnisse teilweise. Plant und steuert regelmäßige Adverse-Impact-Analysen für Kernprozesse (Recruiting, Performance, interne Mobilität). Definiert Fairness-KPIs, überwacht sie kontinuierlich, initiiert Gegenmaßnahmen und lässt kritische Systeme extern oder unabhängig auditieren.
4. Employee Experience & Change Management Kommuniziert AI-Änderungen unsystematisch; Mitarbeitende fühlen sich überrascht oder überwacht. Nutzt Basis-Kommunikation (FAQ, kurze Trainings) bei größeren AI-Rollouts, sammelt vereinzeltes Feedback. Erstellt pro AI-Initiative einen Change-Plan mit Zielgruppen, Botschaften, Trainings und Feedback-Schleifen. Verankert AI in der People-Strategie, misst Vertrauen, Adoption und wahrgenommene Fairness und integriert AI-Literacy dauerhaft in Onboarding und Learning.
5. Betriebsrat & Mitbestimmung (Betriebsrat) Bezieht den Betriebsrat spät oder gar nicht ein; Konflikte zu Überwachung/Transparenz häufen sich. Informiert den Betriebsrat informell über größere AI-Tools, schließt einzelne, uneinheitliche Betriebsvereinbarungen. Steuert einen klaren Prozess, wann §87 BetrVG greift, verhandelt konsistente Vereinbarungen und bindet den BR in ein HR-AI-Steering-Committee ein. Co-designt AI-Prinzipien und Checklisten mit dem Betriebsrat, bewertet systematisch Auswirkungen auf Arbeitsbelastung, Autonomie und Jobprofile.
6. Tooling, Vendoren & Verträge Testet Vendor-AI-Funktionen dezentral, Verträge enthalten keine AI-spezifischen Klauseln. Nutzt einfache Vendor-Checklisten, stellt Standard-GDPR- und Security-Klauseln sicher, bindet IT/Legal ein. Führt strukturierte Vendor-Due-Diligence (Security, Datenverwendung, Bias-Tests, AI-Act-Readiness) durch und verankert Audit-/Transparenzpflichten in AVVs. Baut strategische Vendor-Partnerschaften mit Governance-KPIs (Bias-Test-Frequenz, Incident SLAs), überwacht Reports und kann AI-Features bei Regelverstößen pausieren.
7. Monitoring, Incidents & kontinuierliche Verbesserung Überwacht AI-Auswirkungen nicht aktiv; Vorfälle werden zufällig entdeckt und ad-hoc gelöst. Protokolliert wesentliche Incidents manuell und bespricht sie periodisch; einfache Nutzungs-Dashboards. Definiert KPIs (Genauigkeit, Fairness, Adoption, Beschwerden) pro AI-Use-Case und steuert einen klaren Incident-Prozess mit Rollen und Fristen. Nutzt Monitoring-, Audit- und Feedback-Daten systematisch, um Policies, Trainings und Vendor-Anforderungen jährlich zu schärfen und Standards laufend zu verbessern.

Wichtigste Erkenntnisse

  • Nutzt das Framework, um AI-Governance-Skills je HR-Rolle klar zu beschreiben.
  • Verankert die „ai governance checklist for hr“ in Performance-, Feedback- und Beförderungsprozessen.
  • Nutzt Verhaltensanker und Nachweise, um Bewertungen vergleichbar und auditierbar zu machen.
  • Verknüpft Governance-Skills mit AI-Trainings, Skill-Frameworks und interner Mobilität.
  • Überprüft das Framework jährlich anhand von Incidents, Audits und Mitarbeiterfeedback.

Was dieses Skill-Framework ist

Dieses Skill-Framework überträgt die ai governance checklist for hr in beobachtbare Kompetenzen und vier Level. HR und Führungskräfte nutzen es, um AI-Governance-Fähigkeiten in Performance-Gesprächen, Beförderungsrunden, Projekt-Reviews und Peer-Feedback konsistent zu bewerten. Es ersetzt keine Rechtsberatung, schafft aber eine gemeinsame Sprache, wer in welchen Domänen welche Verantwortung trägt und wie „Good Practice“ im nächsten Level aussieht.

Skill-Level & Verantwortungsbereich

Die vier Skill-Level beschreiben, wie stark HR-Akteur:innen AI-Governance in ihrem Verantwortungsbereich prägen – von reaktiver Nutzung hin zu strategischer Steuerung.

Level 1 – Ad-hoc

Fokus liegt auf operativer Nutzung von AI-Features in HR-Tools ohne systematische Governance. Entscheidungen werden von Einzelpersonen oder IT/Vendoren geprägt. Dokumentation ist lückenhaft, Vorfälle werden einzeln und ohne Root-Cause-Analyse behandelt. AI ist kaum mit eurer Talent‑ oder Performance-Strategie verknüpft.

Level 2 – Basis

HR benennt erste Governance-Verantwortliche, etwa eine:n AI-Governance-Koordinator:in. Wichtige AI-Use-Cases (z. B. Recruiting, Performance Reviews) haben klar definierte Owner. Erste Policies, AVVs und DPIAs existieren, decken aber nicht alle Tools ab. Mitbestimmung und Legal/DSB werden früher eingebunden, erste KPIs für Piloten werden erhoben.

Level 3 – Fortgeschritten

AI-Governance ist etablierter Bestandteil der HR-Arbeit. Ein cross-funktionales Komitee (HR, IT, Legal, DSB, Betriebsrat) bewertet neue Use-Cases strukturiert. Intake-, Risiko- und Freigabeprozesse sind definiert, Governance-Aufgaben stehen in Rollenprofilen und Zielvereinbarungen. HR berichtet Governance-Kennzahlen zusammen mit Recruiting- und Performance-KPIs an die Geschäftsleitung.

Level 4 – Strategisch

AI-Governance ist „Business-as-usual“. HR gestaltet unternehmensweite AI-Standards aktiv mit, basierend auf KPIs, Audits und Mitarbeiterfeedback. Guardrails sind in Systeme und Workflows eingebettet, oft unterstützt durch Plattformen wie Sprad Growth oder Atlas AI, die Dokumentation und Erinnerungen automatisieren. HR steuert Portfoliotransparenz (alle HR-AI-Use-Cases), treibt kontinuierliche Verbesserungen und vertritt das Unternehmen in AI-bezogenen Gremien.

Kompetenzbereiche (Skill Areas)

Die ai governance checklist for hr wird in sieben Kompetenzbereiche übersetzt, die Wissen (Recht, Technik, Prozesse) und beobachtbare Verhaltensweisen verbinden.

1. Strategie & Use-Case-Priorisierung

Ziel ist, AI-Use-Cases gezielt auszuwählen, die Recruiting, Performance, Lernen und interne Mobilität unterstützen – nicht jedem Vendor-Pitch hinterherzulaufen. Typische Ergebnisse: Inventar aller HR-AI-Anwendungen, priorisierte Roadmap, Business Cases mit klaren Zielen und benannten Ownern, abgestimmt auf Talent- und Performance-Strategie sowie DEI.

2. Datenschutz & Privacy (GDPR/Datenschutz)

Hier geht es um rechtssichere Nutzung von Beschäftigtendaten in AI-Tools. Ergebnisse sind vollständige DPIAs für relevante Use-Cases, AVVs inkl. AI-Verarbeitung und Subprozessoren, Datenminimierung, dokumentierte Löschkonzepte und transparente Mitarbeitenden-Informationen zu „AI & Beschäftigtendaten“.

3. Fairness, Bias & Non-Diskriminierung

Dieser Bereich stellt sicher, dass AI-gestützte Entscheidungen AGG-konform bleiben und interne Fairness-Prinzipien einhalten. Ergebnisse: dokumentierte Bias-Tests (z. B. nach Geschlecht, Alter), definierte Schwellenwerte, Remediation-Schritte und transparente Kommunikation gegenüber Kandidat:innen und Mitarbeitenden.

4. Employee Experience & Change Management

AI-Einführungen werden so gestaltet, dass Mitarbeitende Nutzen, Grenzen und Kontrollmechanismen verstehen, statt sich überwacht zu fühlen. Ergebnisse: klare Kommunikation pro Use-Case, Rollen-spezifische AI-Trainings (z. B. AI Training for HR Teams, AI Training for Employees), Messung von Vertrauen und Adoption, strukturierte Feedback-Kanäle.

5. Betriebsrat & Mitbestimmung (Betriebsrat)

Ziel ist, Mitbestimmungsrechte frühzeitig zu integrieren, gerade bei Monitoring-, Analytics- oder Performance-Tools. Ergebnisse sind stabile Betriebsvereinbarungen, dokumentierte Konsultationsschritte und eine vertrauensvolle Zusammenarbeit, die AI-Projekte beschleunigt statt blockiert.

6. Tooling, Vendoren & Verträge

Vendoren sind Teil der AI-Risikofläche. Ergebnisse: standardisierte Vendor-Checklisten (Security, Datenverwendung, Bias-Tests, EU-Hosting), AI-bezogene Vertragsklauseln (Modelländerungen, Audits, Incident-Meldungen) und jährliche Governance-Reviews der wichtigsten Vendoren.

7. Monitoring, Incidents & kontinuierliche Verbesserung

Governance endet nicht mit dem Go-Live. Ergebnisse: definierte KPIs pro Use-Case, klarer Incident-Prozess inkl. DSB/Betriebsrat, regelmäßige Review-Formate und Ableitung von Lessons Learned in Policies, Templates, Trainings und Vendor-Anforderungen.

Bewertungsskala & Nachweise (Rating & Evidence)

Für Reviews und Beförderungen braucht ihr eine einfache, gemeinsame Skala mit klaren Belegen je Level und Domäne.

Vorgeschlagene 1–4-Skala je Kompetenzbereich

  • 1 – Initial: Kennt das Thema grob, wendet es selten an, verlässt sich auf andere bei Problemen.
  • 2 – Basis: Nutzt vorhandene Checklisten und Policies zuverlässig, verbessert sie aber noch nicht eigenständig.
  • 3 – Profi: Antizipiert Risiken, designt Prozesse, coacht andere und bringt strukturiert Verbesserungen ein.
  • 4 – Experte: Prägt Standards unternehmensweit, führt komplexe Fälle, vertritt HR in AI-Gremien.

Typische Nachweise („Evidence“)

  • DPIAs, AVVs, Verarbeitungsverzeichnisse und Löschkonzepte.
  • Bias-Testing-Reports und Entscheidungsprotokolle (z. B. Anpassung von Score-Grenzen).
  • Betriebsvereinbarungen, Protokolle mit dem Betriebsrat, Präsentationen für Mitbestimmungsgremien.
  • Change- und Kommunikationspläne, FAQs, Trainingskonzepte und Teilnahme-Reports.
  • Incident-Post-Mortems, Governance-KPIs, Screenshots von Monitoring-Dashboards (z. B. in Sprad Growth).

Mini-Beispiel: Gleiches Tool, verschiedene Levels

Zwei HRBPs führen ein CV-Screening-AI-Tool ein. Person A (Level 2 Datenschutz, Level 1 Fairness) sorgt für AVV und eine grundlegende DPIA, prüft aber nie, ob Frauen oder ältere Bewerbende systematisch seltener zum Interview eingeladen werden. Person B (Level 3 in beiden Domänen) dokumentiert Datenfelder, testet Auswahlquoten nach Geschlecht und Alter, bezieht den Betriebsrat ein und passt Schwellenwerte nach ersten Erkenntnissen an. Beide besetzen Stellen schneller, aber nur der zweite Rollout ist fair und auditierbar.

Konkrete Nutzungsempfehlungen

  • Definiert je Domäne/Level 3–5 beobachtbare Verhaltensanker mit typischen Artefakten.
  • Fordert für Level 3/4 mindestens 2–3 konkrete Nachweise (z. B. DPIA, Bias-Report, BV).
  • Nutzt die Skala konsistent in Selbstassessment, Manager-Bewertung und Peer-Review.
  • Haltet Nachweise zentral fest, ideal mit eurer Skill-Matrix (z. B. auf Basis von Skill Management).

Entwicklungssignale & Warnzeichen

AI-Governance-Reife zeigt sich über Zeit in stabilen Verhaltensmustern – hilfreich für Entwicklung und Beförderungsentscheidungen.

Positive Wachstumssignale

  • Übernimmt freiwillig Verantwortung für DPIAs, Bias-Reviews oder BR-Abstimmungen bei neuen AI-Tools.
  • Entwickelt oder verbessert Checklisten/Templates, die von anderen Teams übernommen werden.
  • Übersetzt juristische/technische Anforderungen in pragmatische Leitlinien für Manager.
  • Meldet Risiken früh und schlägt konkrete Alternativen vor, statt „erstmal zu probieren“.
  • Coacht Kolleg:innen zu Prompt-Hygiene, Datenminimierung oder fairem Einsatz von AI in Reviews.

Warnzeichen, die Beförderungen bremsen sollten

  • Lädt sensible Daten in öffentliche AI-Tools hoch, trotz eindeutiger Richtlinien.
  • Verkauft AI intern als „objektiv“ statt als unterstützendes Instrument mit menschlichem Urteil.
  • Umgeht Betriebsrat oder DSB bewusst oder bindet sie systematisch zu spät ein.
  • Verweigert Dokumentation („Wir wissen doch alle, was wir entschieden haben“).
  • Ignoriert Sorgen von Mitarbeitenden, statt sie ernst zu nehmen und transparent zu adressieren.

Praxisbeispiel (hypothetisch)

Eine HR-Managerin stellt früh fest, dass ein neues Performance-Tool als „Überwachung“ wahrgenommen werden könnte, initiiert ein Gespräch mit dem Betriebsrat noch vor Vendor-Auswahl und passt auf Basis von Mitarbeitenden-Feedback Scope und Kommunikation an. Wiederholt sie dieses Muster über mehrere Zyklen, ist das ein starkes Signal für mehr Governance-Verantwortung oder Beförderung.

Team-Check-ins & Bewertungsrunden

Ohne regelmäßige Check-ins wird jede ai governance checklist for hr schnell zur toten PDF. Sinnvolle Formate halten das Framework lebendig, ohne Teams zu überfrachten.

Format 1 – Monatlicher HR-AI-Huddle (45–60 Minuten)

Ein HR-Team wählt pro Sitzung einen HR-AI-Use-Case (z. B. „AI in 360°-Feedback“) und bewertet ihn grob in den sieben Domänen auf Level 1–4. Lücken werden in Aufgaben mit Owner und Termin übersetzt.

Format 2 – Halbjährliche cross-funktionale Kalibrierung

HR, IT, Legal, DSB und Betriebsrat prüfen gemeinsam 3–5 Kernsysteme (Recruiting Suite, Performance-Plattform, interner Talent-Marktplatz). Jede Funktion bringt Belege mit; am Ende stehen abgestimmte Ratings und Prioritäten.

Format 3 – Incident-Drills (1x/Jahr)

Simulation einer Datenpanne oder eines unfairen Outcomes (z. B. Benachteiligung von Teilzeitkräften bei interner Mobilität). Das Team läuft den Incident-Playbook-Prozess einmal durch – inklusive Kommunikation, DSB/Betriebsrat und Korrekturen im System.

Handlungsempfehlungen für Check-ins

  • Timeboxt Sessions und fokussiert auf Fakten & Evidence statt Meinungen.
  • Rotiert Moderator:innen, damit Governance-Know-how breit im HR verankert wird.
  • Nutzt Tools wie Atlas AI oder Sprad Growth, um Unterlagen vorab zu sammeln und Muster zu erkennen.
  • Dokumentiert Entscheidungen und Verantwortliche direkt im Performance-/Talent-System.
  • Teilt nicht-sensitive Learnings im Intranet, um Transparenz und Vertrauen aufzubauen.

Interviewfragen nach Kompetenzbereich

Verhaltensbasierte Fragen helfen, AI-Governance-Skills bei HR-Kandidat:innen (HR Ops, Recruiter, HRBP, People Analytics) gezielt einzuschätzen. Immer nach konkreten Aktionen und Ergebnissen fragen.

1. Strategie & Use-Case-Priorisierung

  • Erzählen Sie von einem AI-Use-Case in HR, den Sie vorgeschlagen oder verantwortet haben. Wie haben Sie Impact und Risiko bewertet, bevor Sie gestartet sind?
  • Beschreiben Sie einen AI-Piloten, der die Erwartungen nicht erfüllt hat. Was haben Sie daraus gelernt und was haben Sie konkret angepasst?
  • Wie würden Sie in unserem Kontext AI in Recruiting gegenüber AI in Performance Reviews priorisieren – und warum?
  • Berichten Sie von einem Fall, in dem Sie ein AI-Projekt bewusst gestoppt oder verschoben haben. Was waren Ihre Kriterien?

2. Datenschutz & Privacy

  • Schildern Sie eine Situation, in der Sie die GDPR-Konformität eines neuen HR-Tools mit AI-Funktionen sicherstellen mussten. Welche Schritte haben Sie unternommen?
  • Wie haben Sie in der Vergangenheit mit Legal, DSB oder IT zu DPIA- und AVV-Themen zusammengearbeitet?
  • Geben Sie ein konkretes Beispiel, wie Sie Datenminimierung bei Prompts oder Analytics umgesetzt haben.
  • Erzählen Sie von einem Mitarbeitenden, der Sorgen zur Datennutzung geäußert hat. Wie sind Sie damit umgegangen?

3. Fairness, Bias & Non-Diskriminierung

  • Beschreiben Sie einen Fall, in dem Sie potenzielle Bias in einem Recruiting- oder Performance-Prozess erkannt haben. Was haben Sie getan und was hat sich verändert?
  • Wie würden Sie ein AI-Matching-Tool auf Fairness testen, bevor es live geht?
  • Erzählen Sie von einer Situation, in der Fairness-Bedenken dazu geführt haben, dass Sie einen Prozess oder ein Tool anpassen mussten.
  • Wie balancieren Sie Effizienzgewinne durch AI mit Gleichbehandlungs-Pflichten (AGG, interne DEI-Richtlinien)?

4. Employee Experience & Change Management

  • Berichten Sie von einem HR-Tech- oder AI-Rollout, den Sie geleitet haben. Wie haben Sie Mitarbeitende informiert und einbezogen?
  • Welche Widerstände sind aufgetreten und wie haben Sie diese adressiert?
  • Wie haben Sie Adoption und Vertrauen in das neue Tool gemessen?
  • Wie würden Sie AI-unterstützte Performance-Bewertungen Mitarbeitenden erklären, die dem Thema skeptisch gegenüberstehen?

5. Betriebsrat & Mitbestimmung

  • Erzählen Sie von einem Projekt, bei dem die Einbindung des Betriebsrats Ihren Ansatz wesentlich verändert hat.
  • Wie bereiten Sie sich auf ein Gespräch mit dem Betriebsrat zu AI im Performance- oder Monitoring-Kontext vor?
  • Geben Sie ein Beispiel für eine erfolgreiche Betriebsvereinbarung, an der Sie mitgewirkt haben. Was hat sie erfolgreich gemacht?
  • Was tun Sie, wenn Projekt-Timelines mit Mitbestimmungsrechten zu kollidieren scheinen?

6. Tooling, Vendoren & Verträge / Monitoring

  • Berichten Sie von einer Situation, in der Sie einen HR-AI-Vendor bewertet oder ausgewählt haben. Welche Kriterien waren ausschlaggebend?
  • Welche Fragen stellen Sie Vendoren zu Datenverwendung, Bias-Tests und Erklärbarkeit?
  • Wie haben Sie Monitoring oder KPIs für ein HR-System nach Go-Live aufgesetzt?
  • Erzählen Sie von einem Incident mit einem HR-Tool oder AI-Feature. Wie wurde er entdeckt, wer war involviert und was wurde angepasst?

Einführung & laufende Pflege

Damit die ai governance checklist for hr im Alltag wirkt, braucht es eine schlanke, aber strukturierte Implementierung – und klare Verantwortlichkeit für Updates.

Einführung in 7 Schritten

  1. Schnelle Selbstbewertung
    Mappt eure aktuelle Praxis je Domäne und Level anhand der Matrix. Startet mit einer kleinen Gruppe (HR, IT, Legal, DSB, Betriebsrat). Einigt euch auf 1–2 Belege pro Rating, statt an Formulierungen zu feilen.
  2. Ziel-Level definieren (12–24 Monate)
    Legt fest, wo ihr mittelfristig stehen wollt, z. B. Level 3 bei Datenschutz und Betriebsrat, Level 2 bei Monitoring. Priorisiert Domänen mit hohem Risiko (Beschäftigtendaten, Überwachung, Entscheidungsautomatisierung).
  3. Gaps priorisieren
    Wählt 2–3 Governance-Lücken mit hohem Impact oder Sichtbarkeit, z. B. fehlende DPIAs für bestehende Tools, keine Bias-Checks im Recruiting, unklare Betriebsvereinbarungen zu Monitoring-Features.
  4. Partner ausrichten
    Erarbeitet Umsetzungspläne mit IT, Legal, DSB und Betriebsrat: Owner, Timelines, benötigte Templates (AVV, DPIA, BVs) und Dokumentationspflichten. Nutzt vorhandene RFP- und Skill-Management-Frameworks, um Governance-Anforderungen zu standardisieren.
  5. Mit Skills & Trainings verbinden
    Verankert AI-Governance-Skills in HR- und Führungskräfte-Curricula (z. B. AI Training for HR Teams, AI Training for Employees, Skill Management Guide). Nutzt eure Skill-Matrix, um Fortschritt zu tracken und AI-Governance-Kompetenz als Beförderungskriterium sichtbar zu machen.
  6. In Systeme & Prozesse einbetten
    Fügt Governance-Checkpoints in bestehende Workflows ein: Vendor-RFPs, HRIS-Change-Requests, Performance-Kalibrierungen, Promotion-Committees. In Talent-Management-Systemen wie Sprad Growth oder Atlas AI könnt ihr Governance-Objectives an Review-Formulare und 1:1-Agenden koppeln.
  7. Jährlich überprüfen & aktualisieren
    Nutzt Incidents, Audits, Regulierungsänderungen (z. B. EU AI Act) und Mitarbeitenden-Feedback, um Level-Beschreibungen, Checklisten und Trainingsinhalte zu aktualisieren. Plant mindestens ein jährliches Review plus „Extra-Updates“ bei größeren rechtlichen Veränderungen oder schweren Vorfällen.

Szenarien: Anwendung der Checkliste vor Go-Live

1. AI in Recruiting (Screening & Job Ads) – Fokus: Strategie, Datenschutz, Fairness, Betriebsrat, Vendoren

Fragen vor Go-Live:

  • Für welche Rollen wird AI im Screening eingesetzt, und wie sieht der Human-Override-Prozess aus?
  • Welche Datenfelder nutzt das Modell? Sind sie jobrelevant und minimiert (keine unnötigen Freitexte)?
  • Wie testet ihr auf Disparate Impact nach Geschlecht, Alter oder anderen AGG-geschützten Merkmalen?
  • Hat der Betriebsrat Konzept und DPIA gesehen? Welche Vereinbarungen sind nötig?
  • Welche Bias- und Sicherheits-Zertifikate/Vendor-Reports liegen vor und sind dokumentiert?

2. AI in Performance Reviews & Kalibrierung – Fokus: Fairness, Employee Experience, Betriebsrat, Monitoring

Fragen vor Go-Live:

  • Was genau tut AI (z. B. Zusammenfassungen, Inkonsequenzen markieren) und was bleibt menschliche Entscheidung?
  • Wie werden Mitarbeitende über AI-Nutzung, Daten, Rechte und Widerspruchsmöglichkeiten informiert?
  • Greifen Überwachungs-Tatbestände nach §87 BetrVG (z. B. Leistungs-/Verhaltenskontrolle) und wie adressiert ihr diese?
  • Welche Metriken (z. B. Verteilung von Ratings je Gruppe, Beschwerderate) und Incidents trackt ihr fortlaufend?

3. AI-Trainingsprogramme für Mitarbeitende – Fokus: Strategie, Employee Experience, Datenschutz

Fragen vor Go-Live:

  • Welche Rollen benötigen welche AI-Skills, und wie messt ihr Skill-Uplift (z. B. Assessments, praktische Aufgaben)?
  • Welche Daten sammelt die Lernplattform (Tests, Nutzungsverhalten, Prompts) und auf welcher Rechtsgrundlage?
  • Wie verknüpft ihr Trainingsergebnisse mit Performance-Zielen und internen Mobilitätsoptionen (z. B. Talent Marketplace)?
  • Wie stimmt ihr Trainingsdesign frühzeitig mit Betriebsrat und Datenschutz ab (vgl. AI Training for Employees)?

4. AI-gestützte interne Mobilität & Talent Marketplace – Fokus: Strategie, Fairness, Datenschutz, Monitoring

Fragen vor Go-Live:

  • Wie aktuell und valide sind Skill-Profile, wer kann welche Informationen sehen?
  • Welche Signale fließen in Empfehlungen ein (Skills, Performance, Manager-Feedback) und könnten sie Bias enthalten (z. B. Teilzeit, Elternzeit)?
  • Können Mitarbeitende Profile und Empfehlungen beeinflussen oder korrigieren?
  • Wie trackt ihr Diversität interner Wechsel und korrigiert erkannte Ungleichgewichte?

Fazit

Ein skill-basiertes AI-Governance-Framework macht aus einem abstrakten Risiko-Thema einen konkreten Entwicklungsweg: Klarheit darüber, wer in HR was verantwortet, Fairness durch beobachtbare Standards und Audits, und ein Entwicklungsfokus, bei dem Governance-Kompetenz als Karriere-Skill sichtbar wird – nicht als „Extra-Papierkram“. Wenn die ai governance checklist for hr in Performance-Gespräche, Promotion-Panels und Projekt-Reviews einfließt, unterstützt sie bessere Talent-Entscheidungen und stärkt das Vertrauen in AI-unterstützte HR-Prozesse.

Als nächste Schritte könnt ihr innerhalb der nächsten 4–6 Wochen einen Pilotbereich definieren – häufig Recruiting oder Performance Reviews – und ein erstes Self-Assessment-Workshop mit HR, IT, Legal, DSB und Betriebsrat durchführen. Bewertet eure aktuelle Praxis je Domäne, legt Ziel-Level fest und definiert zwei priorisierte Governance-Gaps. Weist für jede Aktion eine:n Owner in HR zu, verknüpft Maßnahmen mit AI-Trainings und eurem Skill-Framework und plant in etwa sechs Monaten eine cross-funktionale Review-Session. Über ein bis zwei Zyklen entwickelt sich die ai governance checklist for hr so von einem Dokument zu einem gelebten Bestandteil von Performance, Entwicklung und Talententscheidungen.

FAQ

Wie nutzen wir das Framework im HR-Alltag konkret?
Nutzt das Framework als Referenz bei allen AI-bezogenen Entscheidungen, nicht als Zusatzprozess. Wenn jemand ein neues AI-Feature im ATS vorschlägt, prüft ihr kurz die sieben Domänen: Welche Level erfüllen wir heute, wo sind Lücken (z. B. keine DPIA, kein Bias-Test, kein BR-Plan)? In Performance-Zyklen könnt ihr damit AI-unterstützte Schritte (Kalibrierungs-Summaries, Feedback-Vorschläge) überprüfen. In Projekt-Retros analysiert ihr: Welche Domäne haben wir verbessert, welche Incidents oder Beschwerden zeigen Schwächen? Über Zeit wird das Framework zur gemeinsamen „Mental Map“ für verantwortungsvollen AI-Einsatz in HR.

Wie verhindern wir, dass Bewertungen politisch oder unfair werden?
Startet mit gemeinsamen Kalibrierungen. Bevor ihr Einzelpersonen oder Projekte einstuft, besprecht 1–2 Beispiele im Plenum und geht systematisch durch: Welche DPIAs existieren? Wie war der Betriebsrat beteiligt? Warum sehen wir hier Level 2 statt Level 3? Dokumentiert Kriterien, typische Nachweise und auch Uneinigkeiten. Arbeitet mit neutralen Facilitator:innen (z. B. HR oder Legal) und einheitlichen Templates. So reduziert ihr „lauteste Stimme gewinnt“ und macht deutlich, dass AI-Governance-Skills Teil guter Führung und HR-Professionalität sind – nicht nur ein Legal-Checkbox-Thema.

Wie unterstützt das Framework Karrierepfade in HR und People Analytics?
Ihr könnt die sieben Domänen auf Rollenanforderungen mappen: Eine Senior-HRBP-Rolle könnte etwa Level 3 bei Betriebsrat & Employee Experience, aber nur Level 2 bei Vendor-Management verlangen. Diese Erwartungen fließen in Jobprofile, Onboarding-Pläne und Entwicklungsziele ein. Mitarbeitenden, die in strategischere Rollen wollen, zeigt ihr, in welchen Domänen sie wachsen müssen – z. B. Fairness & Bias oder Monitoring. Verknüpft dies mit Lernpfaden, Stretch-Assignments (z. B. Leitung eines DPIA oder Bias-Reviews) und eurer Skill-Matrix, wie in Skill Management Guides beschrieben.

Wie stellen wir sicher, dass Governance uns nicht ausbremst?
Rechte Größenordnung ist entscheidend. Definiert „Low-Risk“-Use-Cases (z. B. AI für Textvorschläge ohne personenbezogene Daten) mit vereinfachten Checks und „High-Risk“-Use-Cases (Screening, Performance-Analytics) mit vollem Review-Prozess. Nutzt wiederverwendbare Templates (DPIA-Bausteine, BR-Mustervereinbarungen, Checklisten), damit ihr nicht jedes Mal bei Null startet. Automatisierung – z. B. Erinnerungen, Dokumentations-Workflows oder Dashboards in Tools wie Atlas AI – reduziert manuellen Aufwand. Studien wie McKinsey (State of AI 2023) zeigen, dass Organisationen mit klaren Guardrails AI schneller und erfolgreicher einführen, weil sie Rework und Krisen vermeiden.

Wer sollte für Updates verantwortlich sein, z. B. bei EU AI Act oder neuen AI-Tools?
Idealerweise gibt es eine gemeinsame Ownership von HR, Legal und DSB. Legal beobachtet neue Vorgaben und leitet sie ab; HR übersetzt sie in Änderungen an Matrix, Checklisten und Trainings. Benennt eine:n AI-Governance-Owner (z. B. HR-Strategy-/People-Analytics-Leitung), der:die jährliche Reviews koordiniert und bei größeren Ereignissen (neue Regulierung, schwerer Incident) ein „außerordentliches Update“ anstößt. Kommuniziert Anpassungen über Manager-Briefings, Intranet-Artikel und aktualisierte RFP-/Promotions-Templates. So bleibt eure ai governance checklist for hr rechtlich anschlussfähig, ohne Teams mit ständig wechselnden Regeln zu überfordern.

Jürgen Ulbrich

CEO & Co-Founder of Sprad

Jürgen Ulbrich has more than a decade of experience in developing and leading high-performing teams and companies. As an expert in employee referral programs as well as feedback and performance processes, Jürgen has helped over 100 organizations optimize their talent acquisition and development strategies.

Free Templates &Downloads

Become part of the community in just 26 seconds and get free access to over 100 resources, templates, and guides.

Free Competency Framework Template | Role-Based Examples & Proficiency Levels
Video
Skill Management
Free Competency Framework Template | Role-Based Examples & Proficiency Levels
Free Skill Matrix Template for Excel & Google Sheets | HR Gap Analysis Tool
Video
Skill Management
Free Skill Matrix Template for Excel & Google Sheets | HR Gap Analysis Tool

The People Powered HR Community is for HR professionals who put people at the center of their HR and recruiting work. Together, let’s turn our shared conviction into a movement that transforms the world of HR.