Diese Vorlage macht ai interview questions for internal mobility roles endlich auswertbar: Sie bewerten beobachtbares Verhalten statt Tool-Zugang. So vergleichen Sie Kandidat:innen fair, erkennen Governance-Risiken früh (Datenschutz, Betriebsrat, Dienstvereinbarung) und führen im Panel weniger Bauchgefühl-Diskussionen.
Wenn Sie Ihr Setup für interne Mobilität oder einen internen Talentmarktplatz gerade schärfen, hilft als gemeinsame Basis ein kurzer Abgleich zu internen Talentmarktplätzen und Ihrer Skill-Management-Logik (Taxonomie, Evidenz, Aktualisierung). Damit testen Sie im Interview keine Theorie, sondern reale Umsetzbarkeit.
Survey questions (ai interview questions for internal mobility roles)
Für Q1–Q48 nutzen Sie eine 1–5 Likert-Skala: 1 = Stimme überhaupt nicht zu … 5 = Stimme voll zu. Jede:r Interviewer:in füllt die Fragen direkt nach dem KI-Block unabhängig aus (innerhalb von ≤2 h).
2.1 Geschlossene Fragen (Likert-Skala)
- Q1. Die Person kann praxisnah erklären, wie Matching/Empfehlungen in einem internen Talentmarktplatz funktionieren.
- Q2. Die Person schlägt Human-in-the-loop-Kontrollen für KI-unterstütztes Matching vor.
- Q3. Die Person unterscheidet „Empfehlungsunterstützung“ von „automatisierter Entscheidung“ und erklärt, warum das wichtig ist.
- Q4. Die Person kann beschreiben, wie sie Empfehlungsqualität über Zeit überwacht (Drift, Feedback-Loops, Edge Cases).
- Q5. Die Person kann erklären, wie regelbasiertes Matching und KI-Matching sicher zusammenlaufen.
- Q6. Die Person antizipiert schädliche Matching-Effekte (z. B. Verengung von Optionen, Verstärkung früherer Moves) und nennt Gegenmaßnahmen.
- Q7. Die Person beschreibt Quellen für Skill-Daten (Selbstauskunft, Manager-Validierung, Evidenzen, Learning-Daten) inkl. Trade-offs.
- Q8. Die Person unterstützt Transparenz in Skill-Profilen (Mitarbeitende sehen und korrigieren Skills/Evidenzen).
- Q9. Die Person wendet Datenminimierung an, wenn sie Skill-Signale für Matching/Reporting vorschlägt.
- Q10. Die Person kann Einwilligungs-/Berechtigungslogik für Skill-Daten in interner Mobilität erklären.
- Q11. Die Person unterscheidet „Skill-Inferenz“ von „Skill-Verifikation“ und begründet, wann was vertretbar ist.
- Q12. Die Person adressiert Datenqualitätsrisiken (fehlende Daten, veraltete Profile, inkonsistente Taxonomien) mit konkreten Maßnahmen.
- Q13. Die Person kann typische Bias-Risiken in KI-gestütztem Matching benennen (Datenbias, Proxy-Variablen, Feedback-Loops).
- Q14. Die Person schlägt praktikable Fairness-Checks vor (Outcome-Vergleiche, Error-Analysen, Subgruppen-Monitoring).
- Q15. Die Person kann erklären, wie Empfehlungen für Mitarbeitende und Führungskräfte nachvollziehbar werden („Warum empfohlen?“).
- Q16. Die Person vermeidet Black-box-Argumente und erklärt Trade-offs klar.
- Q17. Die Person weiß, wann ein KI-Signal gestoppt werden muss, weil es Fairness oder Vertrauen schädigt.
- Q18. Die Person kommuniziert so, dass psychologische Sicherheit entsteht, wenn Mitarbeitende Matches anfechten.
- Q19. Die Person kann mit Legal/Privacy/IT an Governance-Artefakten arbeiten (Policy, DPIA-Denke, Dokumentation).
- Q20. Die Person antizipiert Erwartungen des Betriebsrats (Mitbestimmung, Transparenz, Dienstvereinbarung).
- Q21. Die Person nutzt klare Rollen: Wer besitzt Modell-/Regel-Änderungen, wer genehmigt, wer auditiert.
- Q22. Die Person beschreibt Aufbewahrungs- und Zugriffskontrollen für Mobilitätsdaten (Need-to-know, Audit-Trails).
- Q23. Die Person erkennt Cross-border-Daten- und Vendor/Subprocessor-Fragen im EU/DACH-Kontext.
- Q24. Die Person kann erklären, wie Entscheidungslogik auditierbar dokumentiert wird (ohne Daten zu übererheben).
- Q25. Die Person gestaltet KI-Features so, dass Führungskräfte verantwortlich bleiben (kein „das Tool hat entschieden“).
- Q26. Die Person gestaltet KI-Features so, dass Mitarbeitende Kontrolle behalten (Opt-out, Sichtbarkeit, klare Settings).
- Q27. Die Person kann UI/UX-Schutzmaßnahmen gegen Übervertrauen vorschlagen (Confidence-Hinweise, Alternativen, Begründungen).
- Q28. Die Person berücksichtigt die Experience unterrepräsentierter Gruppen in Mobilitäts-Workflows.
- Q29. Die Person kann Empfehlungen kommunizieren, ohne dass es wie Überwachung wirkt.
- Q30. Die Person kann Mitarbeiterfragen ruhig, konkret und verständlich beantworten.
- Q31. Die Person definiert KPIs, die Geschwindigkeit und Fairness ausbalancieren (z. B. Internal Fill Rate + wahrgenommene Fairness).
- Q32. Die Person misst „Match-Qualität“ über Klicks hinaus (erfolgreiche Moves, Zufriedenheit, Retention).
- Q33. Die Person kann Schwellenwerte und Eskalationspfade setzen, wenn Metriken kippen.
- Q34. Die Person schlägt einen Feedback-Loop von Mitarbeitenden/Führungskräften ins Matching-System vor.
- Q35. Die Person kann kontrollierte Experimente (A/B oder Phased Rollout) planen, ohne Vertrauen zu beschädigen.
- Q36. Die Person übersetzt Metriken in konkrete Iterationspläne (was ändert sich, wer genehmigt, wann).
- Q37. Die Person kann Vendor-KI-Claims kritisch prüfen (Datenbasis, Modelltyp, Evidenz, Grenzen).
- Q38. Die Person fragt bei Tools nach Erklärbarkeit, Audit-Logs und Override-/Fallback-Kontrollen.
- Q39. Die Person versteht Grundzüge GDPR-fähiger Verträge (AVV/DPA-Denke, Subprocessor-Klarheit) ohne zu überclaimen.
- Q40. Die Person kann Minimum-Anforderungen für Integrationen (HRIS, ATS, LMS) definieren, um „Shadow Data“ zu vermeiden.
- Q41. Die Person kann einordnen, ob Skills-Matching assistiv oder entscheidend wirkt, und passt Governance an.
- Q42. Die Person kann eine realistische Einführungssequenz vorschlagen (Pilot, Evaluation, Change, Skalierung).
- Q43. Die Person kann Führungskräfte mit einfacher Anleitung zu verantwortungsvoller KI-Nutzung in Mobilitätsentscheidungen befähigen.
- Q44. Die Person kann Mitarbeitende mit klarer Kommunikation und Lernressourcen zu KI-gestützter Mobilität befähigen.
- Q45. Die Person kann beschreiben, wie Nutzer:innen trainiert werden, KI-Outputs konstruktiv zu challengen.
- Q46. Die Person kann schlanke Doku/Playbooks erstellen, die im Alltag befolgt werden.
- Q47. Die Person erkennt Change-Fatigue-Risiken und schlägt Adoption-Taktiken vor, die Workload respektieren.
- Q48. Die Person kann das Programm aktuell halten, wenn Tools, Policies und EU-Erwartungen sich ändern.
2.2 Gesamtfrage (optional, NPS-ähnlich)
- Q49 (0–10). Wie sicher sind Sie, dass diese Person KI in interner Mobilität / Talent Marketplace verantwortungsvoll nutzt?
2.3 Offene Fragen
- Q50. Was hat die Person gesagt, das Ihr Vertrauen in ihren ethischen KI-Ansatz erhöht?
- Q51. Welches Risiko würden Sie weiter prüfen (Daten, Fairness, Governance, Überautomatisierung)?
- Q52. Welches Beispiel hätten Sie gern gehört (Projekt, Fehler, Trade-off)?
- Q53. Welches 30-Tage-Deliverable würden Sie geben, um die Fähigkeit zu verifizieren?
| Frage(n) / Dimension | Score / Schwellenwert | Empfohlene Aktion | Verantwortlich (Owner) | Ziel / Frist |
|---|---|---|---|---|
| Matching & Empfehlungen (Q1–Q6) | Durchschnitt <3,5 | 20-Minuten-Szenario-Interview ergänzen; schriftlichen Human-in-the-loop-Workflow (≤1 Seite) anfordern. | Hiring Manager | Vor Finalrunde (≤7 Tage) |
| Daten, Skill-Profile & Skills Graphs (Q7–Q12) | Einzelitem ≤2 | Datenminimierungs-Probe durchführen; Consent- und Korrekturprozess testen (Beispiele erfragen). | HR / Talent Partner | Gleiche Woche (≤5 Tage) |
| Bias, Fairness & Erklärbarkeit (Q13–Q18) | Durchschnitt <3,8 | Fairness-Check-Plan verlangen (Subgruppen-Monitoring, Trigger, Kommunikationsentwurf). | HR + People Analytics/Talent Ops | Vor Offer (≤10 Tage) |
| Governance, Datenschutz & Betriebsrat (Q19–Q24) | Durchschnitt <3,5 | Governance-Screen ergänzen: Dokumentation, Dienstvereinbarung-Readiness, Audit-Trails, Rollenmodell. | HR + Legal/Privacy | Vor Offer (≤10 Tage) |
| Manager- & Employee-Experience (Q25–Q30) | Durchschnitt <3,8 | Rollout-Narrativ im UX-Stil anfordern; Sprache auf Überwachungsrisiken und Sicherheit prüfen. | Internal Mobility Lead | Vor finaler Entscheidung (≤7 Tage) |
| Messung & Iteration (Q31–Q36) | Durchschnitt <3,5 | 5 KPIs + 90-Tage-Iterationsrhythmus anfordern; Ownership für Regel/Modell-Änderungen klären. | People Analytics/Talent Ops | Vor Finalrunde (≤7 Tage) |
| Vendor- & Tool-Evaluierung (Q37–Q42) | Einzelitem ≤2 | Vendor-Claims-Test: Welche Evidenz fordern sie vor Aktivierung von KI-Features (Logs, Explanations, Overrides)? | HR + IT | Vor Finalrunde (≤7 Tage) |
| Lernen & Change Management (Q43–Q48) | Durchschnitt <3,5 | Change-Plan-Übung: Manager-Training, Employee-Comms, Adoption-Metriken, Support-Modell. | HR / L&D | Vor Offer (≤10 Tage) |
Wichtigste Erkenntnisse
- Bewerten Sie Verhalten, nicht Tool-Zugang.
- Trennen Sie KI-Hilfe klar von automatisierten Entscheidungen.
- Schwellenwerte starten Follow-ups, nicht Debatten.
- Prüfen Sie Datenschutz und Betriebsrat-Readiness früh.
- Messen Sie Rater-Konsistenz, um Bias und Rauschen zu reduzieren.
Definition & Scope
Diese Umfrage misst, ob Kandidat:innen KI in Rollen rund um interne Mobilität und interne Talentmarktplätze verantwortungsvoll einsetzen können. Zielgruppe sind Hiring Manager, Talent Partner, Internal Mobility Leads, Talent Marketplace Owner sowie People Analytics/Talent Ops. Die Ergebnisse unterstützen strukturierte Hiring-Entscheidungen, gezielte Follow-up-Interviews und Risiko-Kontrollen zu Fairness, Transparenz und Data Governance im EU/DACH-Kontext.
So nutzen Sie diese ai interview questions for internal mobility roles im Interview
Führen Sie einen klar abgegrenzten KI-Block (strukturierte Conversation) und bewerten Sie danach getrennt, um Groupthink zu vermeiden. Nutzen Sie Scores, um die nächste Probe zu wählen – nicht, um automatisch abzulehnen. Wenn Ihr Mobilitätsprogramm noch wächst, gleichen Sie zuerst Operating Model und Skill-Architektur ab; sonst testen Sie Kandidat:innen gegen ein Zielbild, das intern nicht stabil ist.
- HR erstellt ein Szenario-Briefing (Rolle/Projekt, Constraints, Datentypen) ≤48 h vor den Interviews.
- Hiring Manager führt den KI-Block (15–20 Minuten) und notiert konkrete Evidenzen.
- Jede:r Interviewer:in trägt Scores im ATS/Formular ein ≤2 h nach dem Gespräch.
- HR prüft Rater-Varianz; bei Varianz ≥1,0 Punkten folgt ein 10-Minuten-Kalibrierungsstep.
- Panel entscheidet Follow-ups anhand der Tabelle ≤24 h nach dem Interviewtag.
3 schnelle Blueprints (je nach Rolle)
- 15–20 Minuten (Talent Partner / Internal Mobility Lead): 1 Szenario, 6–10 Fragen, 1 Mini-Artefakt, Score.
- 30–40 Minuten Deep Dive (Talent Marketplace Owner / Head of Mobility): 2 Szenarien (Fairness + Governance), KPI-Set, Rollout-Plan, Score.
- 10–15 Minuten Screen (People Analytics / Talent Ops): Datenflüsse, Metrics/Monitoring, Auditability, Vendor-Checks, Score.
Bewertungsleitfäden pro Domain (Basic / Strong / Red Flag)
Nutzen Sie diese Leitfäden, um Antworten schnell einzuordnen – ohne sich in Tool-Details zu verlieren. Wichtig: In DACH ist „wir automatisieren Versetzungen/Beförderungen“ fast immer ein Red Flag, weil Verantwortung, Transparenz und Mitbestimmung nicht sauber gelöst sind. Als Referenz für den regulatorischen Rahmen können Sie den offiziellen Text des EU Artificial Intelligence Act (Regulation (EU) 2024/1689) nutzen (für Interviews selbst reicht Awareness, kein Legal-Quiz).
Matching & Empfehlungen (Q1–Q6)
- Basic: Kann Matching grob erklären; nennt 1–2 Kontrollpunkte (Review/Override).
- Strong: Beschreibt Monitoring (Drift, Edge Cases), Human-in-the-loop-Design und klare Verantwortlichkeiten.
- Red Flag: Verkauft „vollautomatische“ Moves/Rankings; keine Appeals, keine Accountability.
Daten, Skills Graphs & Profile (Q7–Q12)
- Basic: Kennt mehrere Datenquellen und deren Grenzen.
- Strong: Verankert Datenminimierung, Korrekturrechte, Consent/Permissions, Taxonomie-Governance.
- Red Flag: Will breit Daten sammeln „für später“; ignoriert Profil-Korrekturen und Zweckbindung.
Bias, Fairness & Erklärbarkeit (Q13–Q18)
- Basic: Nennt Bias-Risiken; schlägt einfache Checks (Vergleiche) vor.
- Strong: Definiert Subgruppen-Monitoring, Eskalationstrigger, und erklärt Empfehlungen verständlich („why/why not“).
- Red Flag: „Das Modell ist neutral“; keine Messung; Mitarbeitende sollen Output nicht hinterfragen.
Governance, Datenschutz & Betriebsrat (Q19–Q24)
- Basic: Weiß, dass Legal/Privacy/IT früh eingebunden werden müssen.
- Strong: Bringt Doku, Rollenmodell, Zugriffskontrollen, Audit-Trails und Dienstvereinbarung-Readiness zusammen.
- Red Flag: Sieht Governance als „Bremse“; keine Doku; unklare Verantwortlichkeit für Änderungen.
Manager- & Employee-Experience (Q25–Q30)
- Basic: Denkt an UX und Akzeptanz, nennt Opt-out oder Erklärtexte.
- Strong: Plant Schutz gegen Übervertrauen, klare Settings, sichere Sprache und Unterstützung für Einwände.
- Red Flag: Kommuniziert Matching wie Überwachung; „Manager folgen dem Tool“ ohne Review.
Messung & Iteration (Q31–Q36)
- Basic: Nennt ein KPI-Set (z. B. Internal Fill Rate, Time-to-fill).
- Strong: Misst Match-Qualität und wahrgenommene Fairness, setzt Trigger/Runbooks und Iterationsrhythmus.
- Red Flag: Misst nur Klicks/Views; keine Korrekturmechanik bei Degradation.
Vendor- & Tool-Evaluierung (Q37–Q42)
- Basic: Fragt nach Datenbasis und grober Funktionsweise.
- Strong: Fordert Evidenz, Erklärbarkeit, Logs, Overrides, Integrations- und Shadow-Data-Vermeidung.
- Red Flag: Übernimmt Vendor-Claims ungeprüft; akzeptiert „proprietär“ als Begründung für Intransparenz.
Lernen & Change Management (Q43–Q48)
- Basic: Sieht Trainingsbedarf und Kommunikationsaufwand.
- Strong: Plant Manager-Enablement, Employee-FAQs, Adoption-Metriken und Change-Fatigue-Schutz.
- Red Flag: „Tool einführen, dann nutzen alle es“; keine Ressourcen für Enablement/Support.
Welche Evidenz Sie im Interview erwarten sollten (ohne riskante Automatisierung)
Starke Kandidat:innen versprechen selten Vollautomatisierung. Sie beschreiben assistive Workflows: Empfehlungen, Begründungen, strukturierte Reviews, klare Overrides. Wenn Sie konsistent bewerten wollen, verlangen Sie mindestens ein konkretes Artefakt (≤1 Seite). Das reduziert Storytelling und macht ai interview questions for internal mobility roles vergleichbar. Als Gegenstück zur Candidate-Sicht kann es helfen, Ihre interne Erwartung an Fairness/Trust mit Signalen aus einer Internal-Mobility-Befragung abzugleichen.
- Hiring Manager fordert 1 Artefakt an (z. B. KPI-Dashboard-Skizze, Fairness-Checklist, Rollout-FAQ) mit Deadline ≤48 h.
- HR prüft Sprache auf Datenminimierung und Erklärbarkeit für Mitarbeitende ≤24 h nach Eingang.
- People Analytics/Talent Ops validiert Messbarkeit in Ihrem Stack (Datenquellen, Definitionen) ≤3 Tage.
- Legal/Privacy macht einen Quick-Risk-Check, wenn Q19–Q24-Durchschnitt <3,5 (Response ≤5 Arbeitstage).
Gezielte Follow-ups: Aus niedrigen Scores werden die richtigen nächsten Fragen
Niedrige Scores sind nur dann wertvoll, wenn sie eine präzise Probe auslösen. Nutzen Sie Schwellenwerte: Domain-Durchschnitt <3,5 → kurzes Szenario; einzelnes Item ≤2 → genau dieses Risiko testen. So bleibt Ihr Prozess über Kandidat:innen hinweg stabil und reduziert Bias. Für das Gesamtbild Ihrer HR-KI-Befähigung können Sie Muster aus AI Enablement in HR übertragen – aber im Interview reicht ein sauberer nächster Schritt.
- HR wählt pro Low-Score-Domain 1 Follow-up-Szenario ≤24 h nach dem Interviewtag.
- Hiring Manager nutzt ein fixes Skript und Timebox (10–20 Minuten pro Szenario) ≤7 Tage.
- Panel re-scort nur die betroffenen Fragen ≤2 h nach dem Follow-up.
- HR dokumentiert Begründung im Decision Log ≤24 h nach dem Follow-up.
Beispiel-Follow-up-Probes (als kurze Nachfragen im Gespräch)
- „Erzählen Sie von einer Situation, in der Sie ein Matching-Signal entfernt haben – wegen Fairness oder Vertrauen.“
- „Welche Daten würden Sie nicht nutzen, auch wenn sie technisch verfügbar wären?“
- „Wie sieht ein Appeal-Prozess aus, wenn Mitarbeitende eine Empfehlung anfechten?“
- „Welche 3 Dinge müssen in einer Dienstvereinbarung stehen, damit das System arbeitsfähig ist?“
Candidate Experience: transparent prüfen, ohne vertrauliche Daten zu verlangen
Sagen Sie offen, was Sie bewerten: verantwortungsvollen KI-Einsatz, Fairness-Denke, Governance-Reife. Fragen Sie nicht nach proprietären Prompts oder Daten früherer Arbeitgeber. Das senkt Stress, erhöht Signalqualität und schützt Sie vor unnötigen Datenschutzproblemen. In DACH hilft ein Satz wie: „KI-gestützte interne Mobilität braucht dokumentierte Leitplanken und oft eine Dienstvereinbarung – wir prüfen, ob Sie darin arbeiten können.“
- HR gibt zu Beginn ein 3-Satz-Framing und bestätigt „keine vertraulichen Daten“-Regel (sofort, im Interview).
- Hiring Manager fragt bewusst nach Trade-offs: Speed vs Fairness, Automation vs Kontrolle, Insight vs Privacy (im KI-Block).
- HR sendet eine kurze Info zu Next Steps (ohne Score-Details) ≤5 Tage nach dem Prozessschritt.
Tooling & Dokumentation: auditierbar bleiben, ohne Bürokratie aufzubauen
Diese Rollen sitzen zwischen Menschen, Daten und Systemen. Ihr Interview sollte testen, ob Kandidat:innen Entscheidungen dokumentieren und trotzdem liefern können. Ein Tool wie Sprad Growth kann Umfrageversand, Erinnerungen und Follow-ups organisieren – Ihr Prozess muss aber auch mit einem simplen Formular funktionieren. Prüfen Sie außerdem, ob die Person Integrationen und „Shadow Data“ im Griff hat (Q40), sonst kippt das Matching später an Datenchaos.
- HR pflegt eine 1-seitige Rubric inkl. Versionierung; Update höchstens quartalsweise.
- People Analytics/Talent Ops definiert Minimal-Metriken und Datenquellen ≤14 Tage nach Pilotstart.
- IT stellt Zugriffskontrollen und Audit-Logs für Interviewnotizen sicher ≤30 Tage.
- HR führt ein Decision Log pro Einstellung (Owner + Timestamp) am gleichen Tag (≤24 h).
6.1 Scoring & thresholds (ai interview questions for internal mobility roles)
Für Q1–Q48 gilt: 1–5 von „stimme überhaupt nicht zu“ bis „stimme voll zu“. Interpretieren Sie Durchschnitt <3,0 als kritisch, 3,0–3,9 als Follow-up nötig, ≥4,0 als stark. Für Q49 (0–10): <7 = unzureichende Sicherheit, 7–8 = konditional, 9–10 = hohe Sicherheit.
- Regel 1: Jedes Item ≤2 triggert eine gezielte Probe genau zu diesem Risiko (≤7 Tage).
- Regel 2: Domain-Durchschnitt <3,5 triggert ein Szenario-Follow-up (10–20 Minuten).
- Regel 3: Governance (Q19–Q24) <3,5 blockiert Offer, bis Rollen/Doku/Kontrollen geklärt sind.
- Regel 4: Rater-Varianz ≥1,0 Punkte triggert Kalibrierung (10 Minuten, am gleichen Tag).
6.2 Follow-up & responsibilities
Machen Sie Follow-up-Arbeit explizit: 1 Signal, 1 Owner, 1 Deadline. Wenn jemand ernsthaft „Auto-Ranking“ für Redeployment, Beförderung oder Versetzung vorschlägt, behandeln Sie das als Eskalationssignal – nicht als „kreative Idee“. Das ist Delivery-Risiko, kein Stilthema.
- Hiring Manager bearbeitet Q1–Q6-Follow-ups und terminiert Probes ≤7 Tage.
- HR/Talent Partner bearbeitet Q7–Q12 und Q43–Q48-Follow-ups ≤10 Tage.
- People Analytics/Talent Ops bearbeitet Q31–Q36; liefert KPI-Test/Definitionen ≤14 Tage.
- Legal/Privacy + DPO prüfen Q19–Q24-Risiken; Response ≤5 Arbeitstage.
- Bei „kritisch“ (Governance-Item ≤2) pausiert HR die Entscheidung ≤24 h und eskaliert.
6.3 Fairness & bias checks
Bias kommt nicht nur aus Modellen, sondern auch aus Interviewer:innen. Prüfen Sie Scores nach Interviewer:in, Rollentyp und (wo zulässig) Kontextmerkmalen wie Standort oder Team. Fokus: Konsistenz und adverse Impact Signale, nicht persönliche Attribute. Setzen Sie eine Mindestgröße für Vergleiche (z. B. n≥10), um Anonymität zu schützen und Rauschen zu reduzieren.
- Muster: Eine Person bewertet systematisch ≥1,0 Punkte niedriger. Reaktion: Rubric-Training + Kalibrierung ≤14 Tage.
- Muster: Nicht-technische Kandidat:innen fallen in Q37–Q42 ab. Reaktion: Fragen entjargonisieren, Denkprozess testen; Update ≤30 Tage.
- Muster: „Automation-Enthusiasmus“ wird mal belohnt, mal abgestraft. Reaktion: harte Rubric-Regel: keine automatisierten Entscheidungen für Moves; sofort anwenden.
6.4 Examples / use cases
Use case 1: Niedrige Fairness/Erklärbarkeit (Q13–Q18 Ø 3,2). Die Person war produktstark, konnte aber nicht erklären, wie Mitarbeitende Empfehlungen anfechten. Follow-up: 15-Minuten-Szenario „Rollen werden nach Elternzeit angeblich ausgeblendet“. Ergebnis: Subgruppen-Monitoring, klarer Appeal-Pfad, Manager-Skripte. Scores stiegen auf 4,0; Einstellung mit 30-Tage-Fairness-Audit-Deliverable.
Use case 2: Governance-Lücke für DACH-Rollout (Q19–Q24 Ø 2,8). Vorschlag: breite Kollaborations-Metadaten sammeln, um Skills zu inferieren. Hoher Privacy- und Betriebsrat-Risk. Governance-Screen: Datenminimierung, Zweckbindung, Zugriffe, Dienstvereinbarung-Readiness. Plan wurde auf Opt-in-Evidenzen und employee-controlled visibility umgebaut. Offer erst nach schriftlichem 1-Seiter zur Governance (≤7 Tage).
Use case 3: Starke Metriken, schwache Employee-Experience (Q31–Q36 Ø 4,3; Q25–Q30 Ø 3,1). KPI-Set war sauber, aber Kommunikation klang nach Überwachung. Follow-up: Rollout-FAQ + Enablement-Plan. Neue Version: Opt-outs, „Warum empfohlen“-Erklärungen, Training zum konstruktiven Challengen. Einstellung; Trust wurde über Pulses im Mobilitätsprozess beobachtet.
6.5 Implementation & updates
Piloten Sie die Umfrage erst mit 1–2 Rollen (z. B. Internal Mobility Lead und Talent Ops). Skalieren Sie erst, wenn Panel-Scores stabil sind und Follow-ups planbar werden. Aktualisieren Sie den Fragenkatalog mindestens 1× pro Jahr und sofort bei materiellen Änderungen an AI-Policy, Dienstvereinbarung oder Tool-Funktionen.
- Pilot (4–6 Wochen): HR nutzt die Umfrage bei 5–10 Kandidat:innen; Ziel Rater-Varianz ≤0,8.
- Rollout (8–12 Wochen): auf alle internen Mobilitäts-/Talent-Marketplace-Rollen ausweiten; Ziel Completion ≥90%.
- Training: HR schult Interviewer:innen zu Rubrics und Red Flags; Abschluss ≤30 Tage.
- Review: quartalsweise Threshold-Checks; jährlicher Full-Refresh mit Versionierung.
| Metrik | Ziel | Owner | Review-Rhythmus |
|---|---|---|---|
| Survey-Completion-Rate (pro Interview) | ≥90% | HR | Monatlich |
| Ø Rater-Varianz (gleiche Person) | ≤0,8 Punkte | HR | Monatlich |
| Anteil Interviews mit Follow-up (Domain Ø <3,5) | 10–30% (gesunde Selektivität) | Hiring Manager | Quartalsweise |
| Zeit von Interview bis Entscheidung | ≤10 Arbeitstage | HR | Monatlich |
| Offer-Rückzieher wegen Governance | 0 nach Finalrunde | HR + Legal/Privacy | Quartalsweise |
Conclusion
Diese Umfrage macht KI-Kompetenz in interner Mobilität prüfbar, ohne Kandidat:innen auf Tool-Markenwissen festzunageln. Sie bekommen früh Warnsignale zu Governance und Fairness, führen bessere Panel-Debriefs (mehr Evidenz, weniger Bauchgefühl) und setzen klare Prioritäten für Follow-ups statt endloser Diskussionen.
Wenn Sie starten wollen, wählen Sie eine Pilotrolle, kopieren Sie Q1–Q53 in Ihr Scorecard-Tool und legen Sie Schwellenwerte vor der ersten Runde fest. Benennen Sie außerdem Owners für Governance-Follow-ups (HR, People Analytics/Talent Ops, Legal/Privacy), damit Sie schnell entscheiden können, ohne versteckte Risiken mitzuschleppen.
FAQ
Wie oft sollten wir diese Umfrage aktualisieren?
Prüfen Sie quartalsweise, ob Schwellenwerte und Rater-Konsistenz passen (Varianz ≤0,8 ist ein guter Zielwert). Ein kompletter Refresh reicht meist 1× pro Jahr. Aktualisieren Sie sofort, wenn sich Ihr internes Talentmarktplatz-Tool, Ihre AI-Policy oder eine Dienstvereinbarung mit dem Betriebsrat materiell ändert. Halten Sie Versionsnummern in der Scorecard, damit Sie Entscheidungen über Zeit vergleichen können.
Was tun, wenn jemand sehr niedrig bei Governance (Q19–Q24) scored?
Behandeln Sie das als „Pause und klären“, nicht als Auto-Absage. Ergänzen Sie einen kurzen Governance-Screen (10–20 Minuten) und verlangen Sie einen 1-Seiter: Datenminimierung, Zweckbindung, Erklärbarkeit, Zugriffskontrollen, Audit-Trails, Rollenmodell für Änderungen. Wenn die Person weiter auf intransparente automatisierte Entscheidungen drängt, stoppen Sie den Prozess – das wird später als Delivery- und Trust-Risiko aufschlagen.
Wie reagieren wir auf Aussagen wie „KI sollte entscheiden, wer intern befördert wird“?
Diskutieren Sie keine Ideologie, testen Sie Operationalisierung. Fragen Sie: Wer ist accountable? Welche Daten werden genutzt? Wie können Mitarbeitende Ergebnisse anfechten? Wie verhindern Sie Proxy-Diskriminierung? Wenn keine Human-in-the-loop-Logik mit Appeal-Pfad kommt, markieren Sie es als Red Flag und dokumentieren Sie sachlich, warum das nicht zum Rollenprofil passt. So bleiben Sie fair und auditierbar.
Wie halten wir den Prozess fair, wenn Kandidat:innen unterschiedlich viel Tool-Zugang hatten?
Scoren Sie Denken und Verhalten, nicht Tool-Namen. Gute Kandidat:innen erklären Workflows in Klartext: Signale, die sie nutzen würden, Signale, die tabu sind, und wie sie Empfehlungen erklären. Nutzen Sie Szenarien statt Tool-Quizzes. Wenn Sie ein Artefakt anfordern, halten Sie es kurz (≤1 Seite) und verlangen Sie keine Screenshots oder proprietären Daten. So vermeiden Sie, dass Budget oder Employer-Access die Bewertung verzerren.
Wie binden wir Betriebsrat und Datenschutz ein, ohne das Interview zu einem „Legal-Quiz“ zu machen?
Kommunizieren Sie, dass die Rolle in DACH in einem mitbestimmten Umfeld arbeitet, und testen Sie Reife über konkrete Handlungen: Welche Doku würden Sie erstellen? Wer muss wann eingebunden werden? Welche Daten würden Sie weglassen? Eine gute Antwort zeigt frühe Einbindung, klare Dienstvereinbarung-Readiness und praktische Kontrollen (Zugriffe, Löschfristen, Audit-Trails). Legal/Privacy sollte anschließend nur die echten Risikosignale nachprüfen.



