KI-gestützte Interne Mobilität Umfragefragen: Wie Mitarbeitende und Führungskräfte skillbasierte Wechsel mit AI-Unterstützung erleben

By Jürgen Ulbrich

Diese ai-enabled internal mobility survey questions zeigen Ihnen, was interne Mobilitäts-KPIs nicht erklären: Vertrauen Mitarbeitende dem KI-Matching? Fühlen sie sich fair behandelt? Wissen sie, welche Daten genutzt werden? Und trauen sie sich, interne Wechsel überhaupt zu erkunden?

Sie bekommen Frühwarnsignale (bevor Akzeptanz kippt), bessere Gesprächsgrundlagen für 1:1s und klare To-dos für HR, Führungskräfte, IT/HRIS sowie Datenschutz- und Mitbestimmungs-Gremien. Wenn Sie schon eine Basis-Umfrage zur internen Mobilität haben, nutzen Sie diese hier als KI-spezifische Ergänzung für Pilotgruppen.

ai-enabled internal mobility survey questions: Fragenkatalog

Nutzen Sie für alle geschlossenen Aussagen eine 1–5 Likert-Skala: 1 = Stimme gar nicht zu, 5 = Stimme voll zu. Ergänzen Sie eine Option „Nicht zutreffend“, falls einzelne Items nicht zu jeder Rolle passen.

Geschlossene Fragen (Likert-Skala 1–5)

  • Block: Awareness & Verständnis von KI-Matching (Mitarbeitende)
  • Q1. Ich weiß, dass bei uns KI genutzt wird, um interne Rollen, Projekte oder Gigs vorzuschlagen.
  • Q2. Ich verstehe, was das KI-Matching-Tool leisten soll (und was nicht).
  • Q3. Ich weiß, wo ich Infos finde, wie KI-unterstützte interne Mobilität bei uns funktioniert.
  • Q4. Ich kann im Prozess unterscheiden: Was ist KI-Vorschlag, was ist menschliche Entscheidung?
  • Q5. Ich weiß, welche Schritte vollständig menschlich geführt sind und welche KI-unterstützt.
  • Q6. Ich traue mich, Fragen zu stellen, wie KI-Matching interne Wechsel beeinflusst.
  • Block: Transparenz & Kontrolle (Mitarbeitende)
  • Q7. Ich kann sehen, welche Skills oder Erfahrungen die KI für einen Vorschlag genutzt hat.
  • Q8. Ich kann mein Skill-Profil ohne unnötige Hürden korrigieren oder aktualisieren.
  • Q9. Ich kann beeinflussen, welche Chancen mir die KI zeigt (z. B. Interessen, Standort, Auslastung).
  • Q10. Ich weiß, wie ich zukünftige KI-Vorschläge verbessern kann (z. B. Profil, Präferenzen).
  • Q11. Für sensible Daten habe ich eine klare Opt-out-Option bzw. „nicht fürs Matching nutzen“.
  • Q12. Ich habe genug Kontrolle über meine Daten, um KI-unterstützter Mobilität zu vertrauen.
  • Block: Qualität & Relevanz der Vorschläge (Mitarbeitende)
  • Q13. KI-Vorschläge (Rollen/Projekte) passen meist zu meinen Skills und realistischen nächsten Schritten.
  • Q14. KI-Vorschläge helfen mir, Chancen zu finden, die ich sonst nicht gesehen hätte.
  • Q15. Die Erklärung „warum mir das vorgeschlagen wurde“ ist klar genug, um zu handeln.
  • Q16. KI-Vorschläge berücksichtigen meine Präferenzen (z. B. Funktion, Teamtyp, Remote/Hybrid).
  • Q17. Ich erkenne, ob ein Vorschlag eine Stretch-Opportunity ist oder ein enger Match.
  • Q18. Das KI-Matching spart mir Zeit im Vergleich zur manuellen Suche.
  • Block: Fairness & Bias (Mitarbeitende)
  • Q19. KI-unterstützte interne Mobilität fühlt sich team- und bereichsübergreifend fair an.
  • Q20. KI-Vorschläge bevorzugen nicht nur Mitarbeitende, die intern bereits gut vernetzt sind.
  • Q21. KI-Matching benachteiligt aus meiner Sicht keine Teilzeit- oder Flex-Modelle.
  • Q22. KI-Matching benachteiligt aus meiner Sicht keine Remote-Mitarbeitenden gegenüber Office-Mitarbeitenden.
  • Q23. Wenn KI-Vorschläge „daneben“ liegen, gibt es einen fairen Weg, den Prozess zu korrigieren.
  • Q24. Ich vertraue darauf, dass Menschen KI-Outputs bei Bedarf kritisch prüfen und challengen.
  • Block: Psychologische Sicherheit & Reaktion der Führungskraft (Mitarbeitende)
  • Q25. Ich fühle mich sicher, interne Chancen zu erkunden, ohne negative Folgen im aktuellen Team.
  • Q26. Meine Führungskraft unterstützt interne Wechsel, auch wenn kurzfristig Kapazitätslücken entstehen.
  • Q27. Ich kann KI-Vorschläge offen in meinen 1:1s ansprechen.
  • Q28. Ich sorge mich nicht, dass KI-Signale (z. B. „Mobilitätsinteresse“) meinem Ruf schaden.
  • Q29. Wenn ich KI-Vorschläge ablehne, spüre ich keinen Druck oder versteckte Nachteile.
  • Q30. Entscheidungen zu internen Wechseln werden respektvoll und konsistent erklärt.
  • Block: Daten & Datenschutz (Mitarbeitende)
  • Q31. Ich verstehe, welche Beschäftigtendaten für KI-Matching genutzt werden (Skills, Rollen-Historie, Lernen, Projekte usw.).
  • Q32. Ich verstehe, wer meine KI-bezogenen Mobilitätssignale sehen kann (Führungskraft, HR, Staffing-Team).
  • Q33. Ich vertraue darauf, dass Berechtigungen unnötige Sichtbarkeit sensibler Informationen verhindern.
  • Q34. Ich vertraue darauf, dass Datenaufbewahrung für KI-Matching auf das Nötige begrenzt ist.
  • Q35. Ich weiß, wie ich Berichtigung oder Löschung von Daten anfordern kann, die für KI-Mobilität genutzt werden.
  • Q36. Ich habe den Eindruck, dass Betriebsrat-/Mitbestimmungs-Erwartungen bei KI-Mobilität respektiert werden.
  • Block: Gesamteffekt (Mitarbeitende)
  • Q37. KI-Unterstützung macht interne Mobilität für mich transparenter als früher.
  • Q38. KI-Unterstützung macht interne Mobilität für eine größere Gruppe zugänglich.
  • Q39. KI-Unterstützung erhöht meine Motivation, Skills für künftige interne Chancen aufzubauen.
  • Q40. KI-Unterstützung hilft mir zu verstehen, welche Skills ich für Zielrollen als Nächstes brauche.
  • Q41. KI-Unterstützung reduziert „Hinterzimmer“-Besetzungen, die Mitarbeitende nicht sehen.
  • Q42. Insgesamt verbessert KI-unterstützte interne Mobilität meine Employee Experience.
  • Block: Onboarding & Training zu KI-Tools (Führungskräfte/HRBPs)
  • Q43. Ich verstehe KI-Matching gut genug, um es Mitarbeitenden erklären zu können.
  • Q44. Ich weiß, welche Datenquellen das KI-Matching speisen (HRIS, Skill-Profile, Lernen, Projekte).
  • Q45. Ich habe praktisches Training erhalten, wie ich KI-Matching verantwortungsvoll nutze.
  • Q46. Ich weiß, was ich mit KI-Outputs nicht tun darf (z. B. als finale Entscheidung behandeln).
  • Q47. Ich weiß, wo ich Policies/FAQs und Eskalationswege zu KI-Matching finde.
  • Q48. Ich fühle mich sicher im Umgang mit Sorgen von Mitarbeitenden zu KI und interner Mobilität.
  • Block: Workflow- & Zeit-Effekt (Führungskräfte/HRBPs)
  • Q49. KI-unterstütztes Matching reduziert Zeit für Besetzung und interne Rollensuchen.
  • Q50. KI-Vorschläge integrieren sich reibungslos in unseren Talent-Review- oder Staffing-Workflow.
  • Q51. KI-Vorschläge reduzieren „zufällige“ interne Bewerbungen, die fachlich nicht passen.
  • Q52. KI-Matching hilft uns, interne Kandidat:innen früher im Hiring-/Staffing-Prozess zu identifizieren.
  • Q53. Das Tool unterstützt Nachbesetzungsplanung, indem Pipelines und Nachfolger sichtbarer werden.
  • Q54. Der Admin-Aufwand zur Pflege von Skill-Daten ist für Führungskräfte und Teams angemessen.
  • Block: Match-Qualität (Führungskräfte/HRBPs)
  • Q55. KI-Matching macht „verstecktes“ Talent außerhalb der üblichen Netzwerke sichtbar.
  • Q56. KI-Vorschläge passen zu Rollenanforderungen und realistischen Performance-Erwartungen.
  • Q57. KI-Erklärungen („warum vorgeschlagen“) sind klar genug für begründete Follow-up-Gespräche.
  • Q58. KI-Vorschläge unterstützen auch Laterals und Entwicklungsschritte, nicht nur Beförderungen.
  • Q59. KI-Matching unterstützt Projektbesetzung und kurzfristige Gigs, nicht nur permanente Rollen.
  • Q60. Ich habe Fälle erlebt, in denen KI-Matching ein Mobilitäts-Outcome fürs Business verbessert hat.
  • Block: Governance & Leitplanken (Führungskräfte/HRBPs)
  • Q61. Es gibt klare Regeln, welche Entscheidungen KI-Unterstützung nutzen dürfen und welche nicht.
  • Q62. Es gibt einen klaren Prozess, KI-Outputs zu challengen, wenn sie biased oder falsch wirken.
  • Q63. Wir dokumentieren, wann KI genutzt wurde und welches menschliche Urteil angewendet wurde.
  • Q64. Verantwortlichkeiten sind klar: Ein Mensch ist für finale Entscheidungen accountable.
  • Q65. Datenzugriff und Berechtigungen für KI-Matching sind klar und werden konsistent angewendet.
  • Q66. Eine Dienstvereinbarung bzw. interne Policy deckt KI-unterstützte Mobilität praxisnah ab.
  • Block: Kommunikation & psychologische Sicherheit (Führungskräfte/HRBPs)
  • Q67. Ich kann KI-unterstützte Mobilität ruhig und faktenbasiert mit Mitarbeitenden besprechen.
  • Q68. Ich kann erklären, wie Mitarbeitende ihr Profil für bessere KI-Vorschläge verbessern.
  • Q69. Ich ermutige Mitarbeitende aktiv, interne Chancen zu erkunden – auch teamübergreifend.
  • Q70. Ich spreche Ängste vor „Bestrafung“ beim Mobility-Interesse offen an.
  • Q71. Ich weiß, wie ich KI-Themen bei Bedarf mit dem Betriebsrat bespreche.
  • Q72. Mitarbeitende in meinem Bereich fühlen sich meist sicher, Interesse an internen Wechseln zu äußern.
  • Block: Gesamtvertrauen & Nutzungsbereitschaft (Führungskräfte/HRBPs)
  • Q73. Ich vertraue KI-Matching als Startpunkt für interne Mobilitätsentscheidungen.
  • Q74. Ich vertraue darauf, dass KI-Matching über verschiedene Mitarbeitergruppen hinweg fair ist.
  • Q75. Ich vertraue darauf, dass das KI-Matching-Tool transparent genug für verantwortungsvolle Nutzung ist.
  • Q76. Ich würde KI-Matching für interne Besetzungen in meinem Bereich empfehlen.
  • Q77. Ich glaube, KI-Matching verbessert Mobilitäts-Outcomes im Vergleich zu früheren Prozessen.
  • Q78. Insgesamt stärkt KI-unterstützte interne Mobilität die Workforce-Planung in meinem Bereich.

Gesamtbewertungen (0–10, NPS-Style)

  • Mitarbeitende (0 = gar nicht, 10 = extrem)
  • R1. Wie stark vertrauen Sie darauf, dass KI-unterstütztes Matching Sie fair behandelt? (0–10)
  • R2. Wie hilfreich sind KI-basierte Rollen-/Projektvorschläge für Ihre Karriereplanung? (0–10)
  • R3. Wie klar ist für Sie, warum Sie bestimmte KI-Vorschläge erhalten haben? (0–10)
  • Führungskräfte/HRBPs (0 = gar nicht, 10 = extrem)
  • R4. Wie stark vertrauen Sie darauf, dass KI-unterstütztes Matching über Gruppen hinweg fair ist? (0–10)
  • R5. Wie hilfreich ist KI-Matching für Besetzung, Talent Reviews und Nachfolge-Gespräche? (0–10)
  • R6. Wie sicher sind Sie, KI-unterstützte Mobilität Mitarbeitenden und dem Betriebsrat zu erklären? (0–10)

Offene Fragen (Freitext)

  • Geteilt (Mitarbeitende + Führungskräfte/HRBPs)
  • O1. Beschreiben Sie eine Situation, in der KI-Vorschläge ein internes Mobilitäts-Outcome verbessert haben.
  • O2. Wo macht KI interne Mobilität aktuell schwerer, langsamer oder verwirrender?
  • Nur Mitarbeitende
  • O3. Welche Informationen würden Ihnen helfen, KI-Vorschlägen mehr zu vertrauen (Daten, Erklärungen, Kontrolle)?
  • O4. Was bereitet Ihnen bei KI in interner Mobilität am meisten Sorgen (Fairness, Datenschutz, Reaktionen der Führungskraft, anderes)?
  • O5. Wenn Sie eine Sache an KI-Vorschlägen ändern könnten: was wäre das?
  • O6. Was würde es leichter machen, KI-vorgeschlagene Chancen mit Ihrer Führungskraft zu besprechen?
  • O7. Welche Daten sollten in unserem Unternehmen niemals fürs KI-Matching genutzt werden – und warum?
  • Nur Führungskräfte/HRBPs
  • O8. Welche Leitplanken oder Policies fehlen für verantwortungsvolle KI-unterstützte Mobilität?
  • O9. Welches Training würde Ihnen helfen, KI-Matching in Besetzung und Talent Reviews besser zu nutzen?
  • O10. Beschreiben Sie einen Fall, in dem KI-Vorschläge biased oder unrealistisch wirkten. Was passierte danach?
  • O11. Was würde die psychologische Sicherheit von Mitarbeitenden erhöhen, interne Chancen zu erkunden?
  • O12. Welche Kennzahlen helfen Ihnen zu bewerten, ob KI-Matching funktioniert (über Fill Rate hinaus)?
Frage(n) / Bereich Score / Schwellenwert Empfohlene Aktion Verantwortlich (Owner) Ziel / Frist
Awareness & Verständnis (Q1–Q6, Q43–Q48) Ø <3,5 1-seitiges FAQ „KI-Matching in Klartext“ veröffentlichen + 30-min Team-Briefings. HR (People Ops) FAQ in ≤14 Tagen; Briefings in ≤30 Tagen
Transparenz & Kontrolle (Q7–Q12) Ø <3,2 oder R3 <6,5 „Warum vorgeschlagen“-Erklärung ergänzen + einfacher Prozess für Profilkorrekturen/Präferenzen. HR (Talent) + IT/HRIS Backlog in ≤21 Tagen; erste Umsetzung in ≤60 Tagen
Qualität & Relevanz (Q13–Q18, Q55–Q60) Ø <3,3 oder R2/R5 <6,5 Rollenanforderungen auditieren + Skill-Taxonomie für Top-10 Pilot-Rollen aktualisieren. Rollenverantwortliche + HR (Skills) Auditstart in ≤14 Tagen; Updates in ≤45 Tagen
Fairness-/Bias-Wahrnehmung (Q19–Q24, Q74) Ø <3,4 oder Gap ≥0,5 zwischen Gruppen Bias-Review: Gruppenunterschiede prüfen + Matching-Regeln und Human-Review-Schritte anpassen. HR (People Analytics) + Datenschutz Analyse in ≤21 Tagen; Maßnahmen in ≤45 Tagen
Psychologische Sicherheit / Manager-Support (Q25–Q30, Q67–Q72) Ø <3,5 oder Q26 <3,2 Manager Enablement: Gesprächsleitfaden + klarer Standard „keine Benachteiligung bei Mobilitätsinteresse“. Business Leads + HRBPs Leitfäden in ≤14 Tagen; Sessions in ≤30 Tagen
Daten & Datenschutz-Vertrauen (Q31–Q36, Q65–Q66) Ø <3,6 oder Q32 <3,3 Berechtigungen, Aufbewahrung und Zugriffsprotokolle erklären; Dienstvereinbarung prüfen/aktualisieren. Datenschutz + HR (Compliance) + Betriebsrat Klarstellung in ≤30 Tagen; Policy-Update in ≤90 Tagen
Gesamteffekt (Q37–Q42, Q73–Q78) Ø <3,6 nach 2 Wellen Skalierung pausieren; 4-Wochen-Verbesserungssprint auf Top-2 Treiber-Dimensionen starten. HR (Programm-Owner) + Steering Group Entscheid in ≤14 Tagen; Sprint in ≤45 Tagen

Key takeaways

  • Messen Sie Vertrauen, Fairness, Sicherheit – nicht nur interne Besetzungsquoten.
  • Werten Sie nach Dimensionen aus, nicht nach einzelnen Items.
  • Setzen Sie Owner und Fristen; niedrige Scores sind operative Störungen.
  • Prüfen Sie Gruppen-Gaps früh, um stille Exklusion zu vermeiden.
  • Schließen Sie den Loop: Änderungen innerhalb von ≤30 Tagen sichtbar machen.

Definition & scope

Diese Umfrage misst, wie Mitarbeitende und Führungskräfte KI-unterstützte interne Mobilität erleben: KI-Matching, Erklärbarkeit, wahrgenommene Fairness, psychologische Sicherheit sowie Datenschutz- und Mitbestimmungs-Erwartungen. Sie richtet sich an Pilotgruppen und spätere Rollouts in DACH/EU und unterstützt Entscheidungen zu Governance, Trainings, Datenkontrollen, Skill-Frameworks und Mobilitätsgesprächen.

So setzen Sie ai-enabled internal mobility survey questions im Pilot ein (Timing + Stichprobe)

Versenden Sie die Umfrage nach der ersten echten Nutzung, nicht nach der Launch-Mail. Gute Trigger sind „Mitarbeitende erhalten seit ≥2 Wochen Vorschläge“ oder „ein Talent Review hat KI-Vorschläge mindestens 1× genutzt“. In DACH klären Sie Survey-Plan, Anonymität und Zweck früh mit Betriebsrat und Datenschutz, weil Misstrauen schnell entsteht, wenn Mitarbeitende versteckte Bewertung vermuten.

  1. Pilotpopulation und Mindest-Reporting-Gruppen definieren (n ≥10 pro Slice).
  2. Umfrage 10–14 Tage nach ersten KI-Vorschlägen senden; 7 Tage offen lassen.
  3. Analyse in ≤10 Tagen; Top-Erkenntnisse und nächste Schritte in ≤21 Tagen veröffentlichen.
  4. Fixes in ≤45 Tagen umsetzen; danach kurzer Pulse (12–15 Items).
  5. Rollout erst entscheiden, wenn Welle 2 stabiles oder steigendes Vertrauen zeigt.
  • HR (Programm-Owner): Pilot-Timeline und Zielgruppenliste erstellen – in ≤7 Tagen.
  • People Analytics: Reporting-Regeln setzen (n ≥10, keine Kleinstteams) – in ≤7 Tagen.
  • IT/HRIS: Verteilerlisten und Zugriffsrechte validieren – in ≤14 Tagen.
  • Betriebsrat: Review von Zweck und Anonymitätslogik terminieren – innerhalb ≤14 Tagen.
  • Business Leads: Commitment für „what we heard/what we changed“ – Draft in ≤21 Tagen.

ai-enabled internal mobility survey questions auswerten: So definieren Sie „gute“ Signale je Dimension

Der schnellste Nutzen kommt, wenn Sie nach Dimensionen scoren: Haben Sie ein Transparenzproblem (Daten/Erklärungen), ein Fairnessproblem (Bias-Wahrnehmung oder Gruppen-Gaps) oder ein Sicherheitsproblem (Angst vor Backlash)? Kombinieren Sie das mit Outcome-Items (Q37–Q42, Q73–Q78), damit Sie nicht lokal optimieren (z. B. mehr Transparenz, aber weiterhin schlechte Relevanz).

Dimension Fragen „Healthy“-Signal Watch-out-Signal
Awareness & Verständnis Q1–Q6, Q43–Q48 Ø ≥4,0 und geringe Varianz zwischen Teams Ø <3,5 oder Führungskräfte ≥0,4 höher als Mitarbeitende
Transparenz & Kontrolle Q7–Q12 Ø ≥3,9 und R3 ≥7,0 Q7/Q11 <3,2 oder R3 <6,5
Qualität & Relevanz Q13–Q18, Q55–Q60 Ø ≥3,8 und R2/R5 ≥7,0 Q15 <3,3 (schwache Erklärungen) oder Q13 <3,3 (schwacher Fit)
Fairness-/Bias-Wahrnehmung Q19–Q24, Q74 Ø ≥3,9 und Gruppen-Gaps <0,3 Ø <3,4 oder ein Gap ≥0,5
Psychologische Sicherheit Q25–Q30, Q67–Q72 Ø ≥4,0 und Q26 ≥3,8 Q25/Q28 <3,5 oder „Manager-Optimismus“-Gap ≥0,4
Daten & Datenschutz Q31–Q36, Q65–Q66 Ø ≥4,0 und Q32 ≥3,8 Q32 <3,3 (Sichtbarkeit unklar) oder Q34 <3,5 (Retention-Sorgen)
Gesamteffekt Q37–Q42, Q73–Q78 Ø ≥3,9 und Verbesserung ≥0,2 zwischen Wellen Flach oder sinkend nach Fixes; Q41 <3,4
  • People Analytics: Dimension-Scores und Gruppen-Gaps berechnen – Ergebnisse in ≤10 Tagen.
  • HR (Talent): 60-min Readout mit Pilot-Leads durchführen – Termin in ≤14 Tagen.
  • Datenschutz: Findings zu Q31–Q36 prüfen – Antwortentwurf in ≤21 Tagen.
  • HRBPs: Top-2 Manager-Verhaltensweisen identifizieren, die Sicherheit treiben – Plan in ≤30 Tagen.
  • Programm-Owner: „Was wir gehört haben / was wir geändert haben“ veröffentlichen – in ≤30 Tagen.

Interventionen, die Vertrauen, Fairness und Nutzbarkeit erhöhen (ohne Mobilität zu stoppen)

Wenn Scores fallen, ist „KI ausschalten“ selten die beste Antwort. Meist wollen Mitarbeitende und Führungskräfte klare Grenzen, bessere Erklärungen und saubere Daten. Starten Sie pragmatisch mit Transparenz (Q7/Q15) und Sicherheit (Q25/Q26): Wenn diese beiden Bereiche brechen, sinkt Nutzung fast immer – selbst bei gutem Matching.

  1. Wenn Transparenz niedrig ist (Q7–Q12), zuerst Erklärungen und User-Kontrollen verbessern.
  2. Wenn Relevanz niedrig ist (Q13–Q18), Rollenanforderungen und Skill-Datenqualität fixen.
  3. Wenn Fairness niedrig ist (Q19–Q24), Gruppen-Gap-Audits starten und Matching-Regeln anpassen.
  4. Wenn Sicherheit niedrig ist (Q25–Q30), Führungskräfte coachen und Mobility-Signale schützen.
  5. Wenn Datenschutz-Vertrauen niedrig ist (Q31–Q36), Berechtigungen, Retention und Logs klarziehen.
  • HR (Comms): kurze Notiz „KI-Matching: Grenzen und No-Gos“ formulieren – Veröffentlichung in ≤14 Tagen.
  • IT/HRIS: sichtbares „Warum vorgeschlagen“-Panel ergänzen – erste Iteration in ≤60 Tagen.
  • HR (Skills): Skill-Profil-Cleanup für Pilot-Rollen durchführen – Abschluss in ≤45 Tagen.
  • HRBPs: 45-min Manager-Clinics zu Mobilitätsgesprächen – Durchführung in ≤30 Tagen.
  • Business Leads: Erwartung „keine Benachteiligung bei Mobilitätsinteresse“ kommunizieren – in ≤21 Tagen.

Wenn Sie Follow-ups operativ sauber halten wollen (Sends, Reminders, Action-Tracker), kann eine Talent-Plattform wie Sprad Growth das Routing und die Aufgabenverfolgung automatisieren – ohne dass Maßnahmen in Excel versanden.

Blueprints: passende Survey-Länge für Pilot, Puls und Follow-up

Sie müssen nicht jedes Mal alle Items stellen. Nutzen Sie die volle Bank einmal für Diagnose, dann kurze Pulse, die die gleichen Dimensionen tracken. Das erleichtert auch die Abstimmung mit dem Betriebsrat: weniger Items, klarer Zweck, schnellerer Maßnahmenkreis.

Blueprint Wann nutzen Zielgruppe Empfohlene Items (Nummern) Ziel-Länge
(a) Mitarbeitenden-Umfrage nach 1. Pilotwelle 10–14 Tage nach ersten KI-Vorschlägen Mitarbeitende im Pilot Q1–Q6, Q7–Q12, Q13–Q18, Q19–Q24, Q25–Q30, Q37–Q42 + R1–R3 + O3–O7 18–22 Items
(b) Führungskräfte/HRBP-Umfrage nach Launch oder Talent Review 3–10 Tage nach KI-unterstütztem Review/Staffing Führungskräfte + HRBPs im Pilot Q43–Q48, Q49–Q54, Q55–Q60, Q61–Q66, Q67–Q72, Q73–Q78 + R4–R6 + O8–O12 18–22 Items
(c) Kurzer kombinierter Pulse im Pilot Alle 6–8 Wochen im Pilot Mitarbeitende + Führungskräfte Mitarbeitende: Q7, Q13, Q19, Q25, Q32, Q37 + R1/R2 + O1/O2; Führungskräfte: Q43, Q55, Q62, Q67, Q74, Q77 + R4/R5 12–15 Items
(d) Follow-up nach Rollout 6–12 Monate nach Skalierung Alle betroffenen Gruppen Wiederholung der Dimension-Kerne: Q1–Q6, Q7–Q12, Q13–Q18, Q19–Q24, Q25–Q30, Q31–Q36, Q37–Q42 + Manager-Blöcke Q43–Q48, Q61–Q66, Q73–Q78 + R1–R6 20–28 Items
  • HR (Programm-Owner): Blueprint auswählen und Items fixieren – ≤7 Tage vor Versand.
  • People Analytics: Dimensionen und Dashboards vordefinieren – Build in ≤10 Tagen.
  • HRBPs: Wording bei Führungskräften testen (Verständlichkeit) – Sign-off in ≤14 Tagen.
  • Datenschutz: Intro-Text zur Datenverarbeitung prüfen – Freigabe in ≤14 Tagen.
  • Betriebsrat: Feedback für Pilot-Pulse einarbeiten – Abschluss in ≤21 Tagen.

DACH-Governance für KI-unterstützte interne Mobilität (Betriebsrat + Datenschutz praktisch)

In DACH zählt wahrgenommene Legitimität genauso wie Modellqualität. Mitarbeitende fragen sofort: „Wer sieht das?“, „Kann mir das schaden?“, „Ist das ein verstecktes Performance-Signal?“. Antworten Sie schriftlich und konkret: welche Datenquellen, welche Zwecke, wer hat Zugriff, wie lange wird gespeichert, wie kann man korrigieren, wie eskaliert man Fairness-Sorgen.

Wenn Sie bereits Employee Listening etabliert haben, können Sie bewährte Governance-Muster wiederverwenden – etwa aus Vorlagen für Mitarbeiterbefragungen mit Betriebsrat- und DSGVO-Checkliste: Anonymitäts-Schwellen, Reporting-Regeln und Closed-Loop-Verpflichtungen.

  • Datenschutz: verständliche „Data Map“ für KI-Matching veröffentlichen – in ≤30 Tagen.
  • HR (Compliance): Dienstvereinbarung/Policy-Entwurf für KI-Mobilität aktualisieren – Start in ≤45 Tagen.
  • People Analytics: n ≥10-Schwellen und Redaktionsregeln für Kommentare enforce – live vor erstem Reporting.
  • HRBPs: Eskalations-Workflow „KI-Fairness-Sorge“ einrichten – operativ in ≤21 Tagen.
  • HR + Betriebsrat: Change-Notice-Regel für relevante Modellupdates definieren – dokumentiert in ≤60 Tagen.

Scoring & thresholds

Skala: 1–5 Zustimmung (1 = Stimme gar nicht zu, 5 = Stimme voll zu). Rechnen Sie je Dimension den Durchschnitt über die zugehörigen Items. Schwellen: Ø <3,0 = kritisch; 3,0–3,9 = Verbesserungsbedarf; ≥4,0 = stark. Treffen Sie Entscheidungen über Dimensionen: niedriges Verständnis → Training/FAQ; niedrige Transparenz/Relevanz → Produkt- und Workflow-Änderungen; niedrige Fairness → Governance- und Bias-Audits; niedrige Sicherheit → Manager-Coaching; niedriges Datenschutz-Vertrauen → Berechtigungen/Retention/Logs.

Follow-up & responsibilities

Behandeln Sie Follow-up wie einen Betriebsprozess. Führungskräfte verantworten Team-Signale rund um psychologische Sicherheit und Mobilitätsunterstützung (Q25–Q30, Q67–Q72). HR verantwortet Prozessklarheit, Kommunikation und Capability-Building. IT/HRIS verantwortet Tool-Anpassungen. Datenschutz und Mitbestimmungspartner verantworten Privacy- und Co-Determination-Themen.

  • Reaktion ≤24 h: Kommentare mit Hinweis auf Retaliation/Benachteiligung oder schweres Fehlverhalten (über Employee Relations/HRBP-Channel).
  • Reaktion ≤7 Tage: Fairness-/Trust-Themen ack’n und Review-Schritte inkl. Owner nennen.
  • Publikation ≤30 Tage: konkreter Maßnahmenplan mit Ownern und Deadlines für Top-2 Treiber.
  • HR (Programm-Owner): Action-Tracker veröffentlichen – in ≤14 Tagen nach Survey-Close.
  • IT/HRIS: Change-Backlog mit Datumszusagen veröffentlichen – in ≤30 Tagen.

Fairness & bias checks

Prüfen Sie Ergebnisse nach relevanten Gruppen: Standort, Job-Family, Seniorität, Remote vs. Office, Teilzeit vs. Vollzeit sowie – wo rechtlich und ethisch passend – demografische Kategorien. Ziel ist nicht, „keinen Bias zu beweisen“. Ziel ist, Muster früh zu erkennen und zu beheben. Nutzen Sie zwei Linsen: Wahrnehmungs-Gaps (Survey) und Opportunity-Gaps (wer bekommt welche Vorschläge, wer wird kontaktiert, wer bewegt sich).

Check Methode Schwelle Aktion bei Trigger
Gruppen-Gap-Check Dimension-Ø je Gruppe vergleichen Gap ≥0,5 People Analytics + HR: Root-Cause-Workshop in ≤14 Tagen
Manager-Optimismus-Gap Sicherheitswahrnehmung Mitarbeitende vs. Führungskräfte Gap ≥0,4 HRBPs: Coaching + Script-Training in ≤30 Tagen
Erklärbarkeits-Schwäche Q15 und R3 tracken Q15 <3,3 oder R3 <6,5 IT/HRIS: „Warum vorgeschlagen“-UX verbessern in ≤60 Tagen
Fairness-Red-Flag Q19–Q24 und R1/R4 Ø <3,4 Governance-Review mit Datenschutz + Betriebsrat in ≤21 Tagen

Typische Muster und Reaktionen: (1) Remote-Mitarbeitende bewerten Relevanz (Q13–Q18) und Fairness (Q19–Q24) niedriger: Rollen- und Projekt-Daten auf unnötige Standort-Constraints prüfen; Fix in ≤45 Tagen. (2) Teilzeit bewertet Sicherheit (Q25–Q30) niedriger: Manager-Annahmen zu „Verfügbarkeit“ auditieren; Fairness-Regel und Coaching in ≤30 Tagen. (3) Mitarbeitende verstehen weniger als Führungskräfte (Q1–Q6 vs. Q43–Q48): Erklärung vereinfachen und FAQ in ≤14 Tagen veröffentlichen.

Examples / use cases

Use case 1: Niedrige Transparenz, ordentliche Relevanz. Q13–Q18 liegen bei 3,8, aber Q7–Q12 bei 3,1 und R3 bei 5,9. Entscheidung: nicht zuerst Manager „besser erklären“ lassen, sondern Erklärungen und Kontrollen im Tool verbessern. Maßnahme: pro Vorschlag „gematchte Skills“ und „fehlende Skills“ anzeigen + 1-Klick „Profil bearbeiten“. Nach 60 Tagen steigt R3 auf ≥7,0, Relevanz bleibt stabil.

Use case 2: Sicherheit blockiert, nicht das Matching. Transparenz und Relevanz sind ≥3,8, aber Q25/Q26 liegen bei 3,0 und Kommentare nennen Angst vor Backlash. Entscheidung: Leadership-Verhalten als Ursache behandeln. Maßnahme: HRBPs führen Manager-Clinics mit Standard „Mobilitätsinteresse ohne Nachteile“, plus klare Backfill-Verantwortung. Pulse in ≤8 Wochen: Ziel ≥0,3 Uplift bei Q25–Q30.

Use case 3: Fairness-Sorge an einem Standort. Gesamt-Fairness wirkt ok, aber ein Werk hat Q19–Q24 bei 3,1 und Gap ≥0,6. Entscheidung: Skalierung für den Standort pausieren. Maßnahme: Datenqualität und Rollenverfügbarkeit prüfen (werden Rollen/Projekte dort gleich sichtbar gepostet?), Nutzungsgrad lokaler Führungskräfte prüfen, Mitigation dokumentieren und Betriebsrat einbinden. Rollout erst fortsetzen, wenn nächste Welle Fairness ≥3,7 zeigt.

Implementation & updates

Implementieren Sie in Phasen: Pilot, Rollout, kontinuierliche Updates. Starten Sie mit 1 klaren Use Case, halten Sie die Survey kurz genug für schnelles Handeln und trainieren Sie Führungskräfte vor dem ersten Readout, damit kritisches Feedback nicht defensiv abgewehrt wird. Für die Datenseite lohnt sich ein kurzer Hygiene-Sprint auf Skill-Profilen und Rollenanforderungen; als Checkliste eignet sich der Guide zum Skill Management.

  1. Pilot (6–10 Wochen): 1 Use Case, Blueprint (a) und (b), Fixes liefern.
  2. Rollout (3–6 Monate): Ausbau nach Rollenfamilien, Pulse alle 6–8 Wochen.
  3. Manager-Training: Scripts + Q&A + Übung; Refresh alle 6 Monate.
  4. Jahresreview: Items, Schwellen, Governance, Kommunikationsbausteine aktualisieren.
  • KPIs: Teilnahmequote, Dimension-Ø, Gruppen-Gaps, % Maßnahmen „on time“, interne Mobilitäts-Outcomes (separat).
  • HR (Programm-Owner): 6–10 Wochen Pilotplan durchführen – Kickoff in ≤30 Tagen.
  • IT/HRIS: monatliches Release-Fenster für Matching-UX – erstes Fenster in ≤45 Tagen.
  • People Analytics: „Actions delivered on time“ monatlich reporten – für 6 Monate.
  • Steering Group: Fragenbank und Schwellen jährlich reviewen – Termin in ≤12 Monaten.

Wenn Sie parallel Talent Reviews standardisieren, synchronisieren Sie Maßnahmen mit Ihren Kalibrierungsroutinen. Ein sauberer Kalibrierungsprozess reduziert subjektive Overrides und erhöht Vertrauen in Entscheidungen; als Referenz kann der Guide für faire, evidenzbasierte Talent-Kalibrierung dienen.

Conclusion

KI-unterstützte interne Mobilität kann Matching beschleunigen und versteckte Chancen sichtbar machen – aber nur, wenn Mitarbeitende den Prozess als fair, erklärbar und sicher erleben. Diese ai-enabled internal mobility survey questions geben Ihnen Signale, bevor Vertrauen kippt, machen Mobilitätsgespräche konkreter und helfen Ihnen, Prioritäten zwischen Datenqualität, Governance und Führungskräfteverhalten sauber zu setzen.

Starten Sie klein und klar: Wählen Sie 1 Pilotbereich, legen Sie Blueprint (a) und (b) im Survey-Tool an und benennen Sie Owner für Follow-up, bevor die erste Einladung rausgeht. Veröffentlichen Sie Ergebnisse und konkrete Änderungen innerhalb von ≤30 Tagen. Wenn Mitarbeitende sehen, dass Feedback Erklärungen, Berechtigungen und Führungsgespräche wirklich verändert, wird Adoption zur Folge von Vertrauen.

FAQ

Wie oft sollten Sie diese Umfrage durchführen?

Im Pilot: Welle 1 etwa 10–14 Tage nach den ersten KI-Vorschlägen, dann ein kurzer Pulse nach den ersten Fixes (meist 6–8 Wochen später). Nach dem Rollout: Pulse alle 6–8 Wochen in den ersten 6 Monaten, danach ein Follow-up alle 6–12 Monate. Wenn Matching-Regeln oder Datenquellen spürbar geändert werden, planen Sie einen Extra-Pulse in ≤30 Tagen ein.

Was tun, wenn Scores sehr niedrig sind (z. B. Ø <3,0)?

Behandeln Sie Ø <3,0 als Stop-and-Fix-Signal. Pausieren Sie die Skalierung, identifizieren Sie die betroffene Dimension (Transparenz, Fairness, Sicherheit, Datenschutz) und liefern Sie 1 sichtbare Änderung in ≤45 Tagen. Danach messen Sie nur den Kernblock dieser Dimension erneut (Pulse), damit Mitarbeitende sehen: Feedback führt zu konkretem Verhalten oder Systemänderungen – nicht zu PowerPoints.

Wie gehen Sie mit kritischen Kommentaren zu Bias oder Retaliation um?

Trennen Sie zwei Pfade: (1) aggregiertes Lernen für Prozessverbesserung und (2) individuelles Risiko-Handling. Bei Hinweisen auf Retaliation, Diskriminierung oder Datenmissbrauch: Reaktion innerhalb von ≤24 h über Ihren etablierten Employee-Relations-Kanal. Bei Bias-Sorgen: innerhalb von ≤7 Tagen ack’n, Review-Schritte erklären (wer prüft was) und eine Mitigation-Story liefern. Anonymität schützen, Identifikatoren redigieren, bevor Kommentare geteilt werden.

Wie stimmen Sie die Umfrage mit Betriebsrat und DSGVO-Erwartungen ab?

Holen Sie den Betriebsrat vor dem Pilot an Bord: Zweck, Items, Anonymität (z. B. n ≥10), Reporting-Regeln und Sichtbarkeiten. Dokumentieren Sie Datenflüsse, Retention und Zugriffsrechte für KI-Matching und Survey-Daten – idealerweise in einer Dienstvereinbarung oder Policy. Für den rechtlichen Referenzpunkt können Sie den offiziellen Text der Datenschutz-Grundverordnung (DSGVO) heranziehen, um Rollen und Pflichten sauber zuzuordnen.

Wie aktualisieren Sie den Fragenkatalog über die Zeit?

Review mindestens 1× pro Jahr und nach großen Scope-Änderungen (neue Datenquellen, neue Matching-Logik, Erweiterung von Rollen auf Projekte/Gigs/Mentoring). Halten Sie Trend-Items stabil (Vertrauen, Fairness, Sicherheit, Datenschutz), damit Zeitvergleiche möglich bleiben. Streichen Sie Items, die keine Entscheidungen auslösen, und ergänzen Sie neue, wenn neue Risiken entstehen (z. B. neue Sichtbarkeitsregeln oder Manager-Workflows). Versionieren Sie Änderungen, damit Ergebnisse interpretierbar bleiben.

Jürgen Ulbrich

CEO & Co-Founder of Sprad

Jürgen Ulbrich has more than a decade of experience in developing and leading high-performing teams and companies. As an expert in employee referral programs as well as feedback and performance processes, Jürgen has helped over 100 organizations optimize their talent acquisition and development strategies.

Free Templates &Downloads

Become part of the community in just 26 seconds and get free access to over 100 resources, templates, and guides.

Mitarbeiterengagement-Umfrage zur Identifizierung der Motivation und Zufriedenheit
Video
Mitarbeiterengagement & Mitarbeiterbindung
Mitarbeiterengagement-Umfrage zur Identifizierung der Motivation und Zufriedenheit
Free IDP Template Excel with SMART Goals & Skills Assessment | Individual Development Plan
Video
Performance Management
Free IDP Template Excel with SMART Goals & Skills Assessment | Individual Development Plan

The People Powered HR Community is for HR professionals who put people at the center of their HR and recruiting work. Together, let’s turn our shared conviction into a movement that transforms the world of HR.