AI Trainingscurriculum Vorlagen: Fertige Lernpfade für Mitarbeitende, Führungskräfte und HR

By Jürgen Ulbrich

Ein klares, rollenbasiertes Skill-Framework für AI Training hilft Führungskräften und Mitarbeitenden, dieselben Erwartungen zu teilen: Welche Fähigkeiten gehören auf welches Level, wie sieht „gut“ konkret aus, und welche Belege zählen bei Bewertung und Beförderung. Es macht AI‑Kompetenz sichtbar, vergleichbar und planbar – statt losem „AI‑Interesse“ in Lebensläufen.

Skill-Framework für AI Training & Enablement

Kompetenzbereich Starter Practitioner Power User Leader / Champion
AI Literacy & Mindset Erklärt grundlegende GenAI‑Konzepte verständlich; kennt Unternehmensrichtlinie und Haupt­risiken. Unterscheidet realistische Use Cases von Hype; wählt passende AI‑Unterstützung für eigene Aufgaben. Verknüpft AI‑Fähigkeiten mit Team‑Workflows; erklärt Chancen, Limits und Trade-offs adressatengerecht. Entwickelt eine AI‑Vision für den eigenen Bereich; nutzt Daten und Beispiele, um Erwartungen zu kalibrieren.
Prompting & Tool-Nutzung Nutzt freigegebene Tools mit einfachen, vorgegebenen Prompts (z. B. Zusammenfassungen). Formuliert strukturierte Prompts mit Kontext, Rollen und Constraints; iteriert systematisch bis zu stabilen Ergebnissen. Erstellt wiederverwendbare Prompt‑Bibliotheken für typische Aufgaben und dokumentiert Best Practices. Standardisiert Prompting‑Muster bereichsübergreifend; bewertet neue Tools gemeinsam mit IT/Datenschutz.
Daten­schutz, Sicherheit & Governance Weiß, welche Daten nie in öffentliche AI‑Tools dürfen; hält einfache Do’s & Don’ts ein. Prüft Eingaben und Outputs auf DSGVO‑, Vertraulichkeits- und Bias‑Risiken, bevor sie geteilt werden. Entwirft sichere Workflows (Pseudonymisierung, interne Sandboxes), dokumentiert Richtlinien und Ausnahmen. Gestaltet AI‑Policies, AVVs/DPAs und Betriebsratsvereinbarungen mit; überwacht Einhaltung und Eskalationspfade.
Rollen­spezifische AI‑Workflows Setzt 1–2 einfache Use Cases mit Anleitung um (z. B. E‑Mail‑Entwürfe, Doku‑Summary). Nutzt AI eigenständig für häufige Aufgaben (z. B. Job‑Ads, 1:1‑Agenda, Reporting‑Skeletons). Redesignt Prozesse End‑to‑End mit AI; misst Zeit‑ und Qualitäts­effekte und passt Abläufe an. Definiert und priorisiert AI‑Portfolio des Bereichs; allokiert Budget/Ressourcen und berichtet Business‑Impact.
Kritisches Denken & Qualitätskontrolle Prüft AI‑Outputs auf offensichtliche Fehler; holt bei Unsicherheit Review ein. Nutzt Checklisten für Fakten, Tonalität und Bias; korrigiert und begründet Anpassungen eigenständig. Verknüpft AI‑Ergebnisse mit Fachwissen und Daten; lehnt ungeeignete Use Cases bewusst ab. Definiert Qualitätsstandards, Review‑Schritte und „Human‑in‑the‑loop“; stellt sicher, dass finale Entscheidungen menschlich bleiben.
Collaboration & Wissensweitergabe Teilt hilfreiche Prompts informell; beteiligt sich an AI‑Diskussionen im Team. Dokumentiert Before/After‑Beispiele; stellt Learnings in Meetings oder Channels vor. Moderiert AI‑Clinics/Office Hours; coacht Kolleg:innen zu sicherem, effektivem Einsatz. Baut ein Champion‑Netzwerk auf; verankert AI‑Lernen mit HR, L&D und Betriebsrat in Prozessen.
Change & Enablement Bringt Fragen und Bedenken bei Rollouts ein; testet vereinbarte Piloten. Ermutigt Kolleg:innen zu Experimenten; gibt strukturiertes Feedback zu Tools und Prozessen. Führt Team‑Experimente; passt Rollen, Routinen und Metriken an AI‑unterstützte Arbeit an. Besitzt die AI‑Enablement‑Roadmap; synchronisiert mit IT, Legal, Betriebsrat und Geschäftsstrategie.

Wichtigste Erkenntnisse

  • Verknüpfen Sie AI‑Skills direkt mit Leveln, Beförderungen und Entwicklungsplänen.
  • Nutzen Sie das Framework, um rollenbasierte AI‑Curricula zu planen, statt Einmal‑Workshops.
  • Sammeln Sie systematisch Belege: Prompts, Outputs, Use Cases, Prozess‑Before/After.
  • Führen Sie regelmäßige Team‑Kalibrierungen durch, um Bias in AI‑Bewertungen zu reduzieren.
  • Aktualisieren Sie das Framework jährlich – Tools, Recht und Business‑Prioritäten ändern sich.

Was dieses Skill-Framework leistet

Dieses AI‑Skill‑Framework beschreibt beobachtbare Verhaltensanker für die Level Starter bis Leader/Champion in zentralen Kompetenzbereichen. HR und Führungskräfte nutzen es, um AI‑Erwartungen in Jobprofilen zu verankern, Level in Performance‑Gesprächen einheitlich zu bewerten, Beförderungsentscheidungen zu begründen und Entwicklungspfade zu strukturieren. Zusammen mit Skill‑Matrix, Karriere‑Framework und Talent‑Management wird es zur Referenz für „gute AI‑Nutzung“ im Unternehmen.

Skill-Level & Verantwortungsbereich

Starter

Starter stehen am Anfang der AI‑Nutzung. Ihr Fokus liegt auf sicheren Grundlagen: Basisverständnis von GenAI, Nutzung freigegebener Tools, Einhaltung einfacher Daten­schutz‑Regeln. Sie arbeiten primär im eigenen Aufgabenbereich und holen aktiv Feedback zu ihren AI‑Ergebnissen ein. Entscheidungen mit AI‑Bezug treffen sie nur für gering kritische Themen; bei Unsicherheit eskalieren sie an erfahrenere Kolleg:innen.

Practitioner

Practitioner setzen AI stabil im Tagesgeschäft ein und halten Richtlinien zuverlässig ein. Sie verantworten Ergebnisse in ihrem Themengebiet (z. B. Team, Teilprozess) und wählen passende Use Cases eigenständig aus. Sie treffen eigenständige AI‑Entscheidungen innerhalb definierter Leitplanken – etwa welche Dokumente AI‑unterstützt erstellt werden können – und liefern reproduzierbar solide Qualität.

Power User

Power User gestalten Workflows aktiv um, um AI gezielt einzubetten. Ihr Verantwortungsbereich reicht über die eigene Rolle hinaus: Sie verbessern Prozesse für Teams oder Funktionen, bauen wiederverwendbare Prompts und coachen andere. Sie entscheiden, welche AI‑Use Cases skaliert, verändert oder gestoppt werden, und belegen Effekte mit Kennzahlen (Zeit, Qualität, Fehlerquote).

Leader / Champion

Leader/Champions prägen AI‑Strategie, Governance und Lernangebote. Sie tragen Bereichs‑ oder Unternehmensverantwortung für AI‑Einsatz, definieren Standards, Roadmaps und Prioritäten. Entscheidungen betreffen etwa Tool‑Auswahl, Policies, Betriebsrats‑Abstimmung oder Integration in Performance‑ und Talentprozesse. Sie wirken als Multiplikator:innen, sichern Compliance und sorgen dafür, dass AI‑Nutzung messbar zum Geschäftserfolg beiträgt.

Kompetenzbereiche (Skill Areas)

AI Literacy & Mindset

Ziel: Realistisches Verständnis von Möglichkeiten, Grenzen und Risiken generativer AI. Mitarbeitende erkennen sinnvolle Use Cases und bleiben neugierig, ohne in Hype oder Angst zu verfallen. Typische Ergebnisse: verständliche Erklärungen für andere, fundierte Ja/Nein‑Entscheidungen zur AI‑Nutzung.

Prompting & Tool-Nutzung

Ziel: Präzise Eingaben formulieren, Kontext bereitstellen und passende Tools wählen, um verlässliche Outputs zu erzeugen. Ergebnisse: weniger Trial‑and‑Error, schnellere erste Entwürfe, konsistente Qualität in gängigen Tools (z. B. ChatGPT, Copilot, Atlas AI, AI‑Funktionen in HR‑Systemen).

Daten­schutz, Sicherheit & Governance

Ziel: DSGVO, Unternehmensrichtlinien und DACH‑Spezifika im täglichen AI‑Einsatz anwenden. Ergebnisse: Vermeidung von Datenschutz‑ und Compliance‑Verstößen, klar dokumentierte Datenflüsse, vertrauenswürdige Zusammenarbeit mit Legal, IT und Betriebsrat.

Rollen­spezifische Workflows

Ziel: AI genau dort nutzen, wo sie Wert stiftet – etwa bei Job‑Ads, 1:1‑Vorbereitung, Prognosen, Ticket‑Triaging oder Survey‑Analysen. Ergebnisse: messbare Zeitersparnis, höhere inhaltliche Qualität und entlastete Mitarbeitende in Kernprozessen.

Kritisches Denken & Qualitätskontrolle

Ziel: AI‑Outputs faktenbasiert prüfen, Bias erkennen und mit Fachwissen kombinieren. Ergebnisse: vertrauenswürdige Inhalte, weniger Fehler, bewusste Entscheidung, wann menschliche Expertise Vorrang hat.

Collaboration & Enablement

Ziel: Wissen, Vorlagen und Prompts teilen, Kolleg:innen unterstützen und AI‑Kompetenz im Unternehmen verbreiten. Ergebnisse: wachsende interne Bibliotheken, Communities of Practice, schnellere Verbreitung funktionierender Patterns.

Change & Enablement

Ziel: AI‑Einführung als Change‑Prozess gestalten – von Kommunikation und Training bis zu Rollen‑ und Prozessanpassungen. Ergebnisse: hohe Akzeptanz, weniger Widerstand, stabile Verankerung von AI in täglicher Arbeit statt einmaliger „AI‑Events“.

Bewertungsskala & Nachweise (Rating & Evidence)

Bewertungsskala (1–5)

1 – Keine/geringe Exposition
Nutzt AI nicht oder nur mit intensiver Anleitung; kennt Richtlinien kaum.

2 – Starter
Setzt einfache, vorgegebene Prompts in risikoarmen Szenarien ein; braucht Check‑ins zu Qualität und Daten­schutz.

3 – Practitioner
Nutzt AI eigenständig in typischen Aufgaben, hält Policies zuverlässig ein und liefert konsistent nutzbare Ergebnisse.

4 – Power User
Optimiert Workflows, unterstützt andere fachlich, misst Impact und vermeidet systematisch Risiken.

5 – Leader/Champion
Gestaltet Strategie, Governance und Curricula; fungiert als Multiplikator:in über Teams oder Bereiche hinweg.

Typische Nachweise

  • Prompt‑ und Output‑Beispiele (Screenshots, Textauszüge) für Kernaufgaben
  • Before/After‑Vergleiche von Dokumenten, Prozessen oder Kommunikationsmustern
  • Schätzungen zu eingesparter Zeit, Qualitätsmetriken, Fehler‑ oder Reklamationsraten
  • Feedback von Kolleg:innen, Stakeholdern oder Kund:innen zu AI‑unterstützter Arbeit
  • Beiträge zu Champion‑Aktivitäten, internen Guides, Prompt‑Libraries oder Office Hours

Mini-Beispiel: Gleiches Thema, unterschiedliche Level

  • Fall A – Starter: Verwendet AI, um eine Stellenausschreibung aus einem alten Template generieren zu lassen, übernimmt den Text fast unverändert, übersieht unpassende Formulierungen zur Employer Brand und muss nach HR‑Review größere Teile überarbeiten.
  • Fall B – Practitioner: Startet vom aktuellen Rollenprofil, definiert gesuchte Skills, prüft AI‑Output systematisch auf Bias und Tonalität, passt an die EVP an und liefert einen Entwurf, der von HR nur minimal nachgeschärft werden muss.

Entwicklungssignale & Warnzeichen

Positive Entwicklungssignale

  • Nutzt AI regelmäßig für Kernaufgaben, ohne Richtlinien zu verletzen.
  • Bringt pro Quartal mehrere Before/After‑Beispiele mit klarer Wirkung (Zeit, Qualität, Fehler).
  • Kolleg:innen fragen aktiv nach Hilfe bei Prompts, Use Cases oder Daten­schutz‑Fragen.
  • Identifiziert Risiken frühzeitig und holt Legal/IT/HR proaktiv dazu.
  • Unterstützt AI‑Adoption über die eigene Rolle hinaus (Coaching, Templates, interne Sessions).

Warnzeichen, die Beförderungen bremsen

  • Übernimmt AI‑Outputs nahezu 1:1 ohne Fakten‑ oder Plausibilitätscheck.
  • Ignoriert wiederholt Daten­schutz‑Vorgaben oder nutzt ungeprüfte Tools.
  • Nutzt AI, um eigenes Denken zu ersetzen; Qualität bricht ein, wenn Prompts nicht „funktionieren“.
  • Hält Wissen zurück, dokumentiert keine Prompts oder Workflows, erschwert Skalierung.
  • Stellt AI in Kommunikation vor allem als Bedrohung dar und bremst so Team‑Adoption.

Team-Check-ins & Bewertungsrunden

Regelmäßige Check-ins verankern AI‑Skills in bestehenden People‑Routinen – statt isolierter „AI‑Gespräche“. In Verbindung mit Performance‑ und Talent‑Management‑Ansätzen (z. B. Performance Management, Talent Management) entsteht ein konsistentes Bild.

Typische Formate

  • Quartalsweiser Team‑Check-in: Jede Person bringt einen AI‑Use Case (Erfolg oder Scheitern) mit, inklusive Output und kurzer Reflexion.
  • Kalibrierungsrunde: Führungskräfte vergleichen 2–3 Beispiele pro Person mit den Level‑Ankern und diskutieren Grenzfälle.
  • Retro nach Trainingswellen: Was wird im Alltag genutzt, was nicht, wo fehlen Beispiele oder Guardrails?
  • Office Hours mit Champions: Offene Q&A‑Sessions, Live‑Prompt‑Debugging, Teilen neuer Patterns.
  • Jährliche Talent‑Review: AI‑Kompetenz fließt als eine Dimension in Nachfolge‑ und Beförderungsgespräche ein.

Plattformen wie Sprad Growth mit Atlas AI können AI‑bezogene Belege direkt an Reviews, 1:1‑Notizen und Entwicklungspläne anhängen, damit Erkenntnisse nicht zwischen Zyklen verloren gehen.

Interviewfragen zu AI-bezogenen Skills

AI Literacy & Mindset

  • Erzählen Sie von einer Situation, in der Sie ein AI‑Tool genutzt haben, um Ihre Arbeit zu verbessern. Was hat sich konkret verändert?
  • Beschreiben Sie einen Fall, in dem AI nicht geliefert hat, was Sie erwartet haben. Wie sind Sie damit umgegangen?
  • Woran erkennen Sie, ob ein Task für AI geeignet ist – und wann Sie darauf verzichten?
  • Welche AI‑Entwicklungen verfolgen Sie aktuell, und wie haben diese Ihre Arbeitsweise beeinflusst?

Prompting & Tool-Nutzung

  • Beschreiben Sie einen komplexeren Prompt, den Sie entworfen haben. Wie sind Sie bei der Verfeinerung vorgegangen?
  • Nennen Sie ein Beispiel, in dem Sie Prompts iterativ angepasst haben, um einen schwachen oder falschen Output zu korrigieren.
  • Wie dokumentieren Sie Prompts oder Workflows, damit Kolleg:innen sie wiederverwenden können?
  • Erzählen Sie von einem Fall, in dem Sie mehrere AI‑Tools oder Features in einem Workflow kombiniert haben. Was war das Ergebnis?

Daten­schutz & Ethik

  • Schildern Sie eine Situation, in der Sie sich bewusst gegen die Nutzung von AI entschieden haben – aus Daten‑ oder Ethikgründen.
  • Wie anonymisieren oder pseudonymisieren Sie Daten, bevor Sie sie in AI‑Tools eingeben?
  • Erzählen Sie von einem Moment, in dem Ihnen ein verzerrter oder diskriminierender AI‑Output aufgefallen ist. Was haben Sie anschließend getan?
  • Wie würden Sie einer skeptischen Kollegin sicheren AI‑Einsatz in einfachen Worten erklären?

Rollen­spezifische Workflows

  • Führen Sie mich durch eine wiederkehrende Aufgabe, die Sie mit AI deutlich verbessert haben. Was war vorher, was nachher?
  • Wie messen Sie, ob ein AI‑Use Case wirklich Zeit spart oder Qualität steigert?
  • Geben Sie ein Beispiel, bei dem Sie AI in Ihrem Team oder Bereich pilotiert haben. Wie sind Sie vorgegangen?
  • Welche Ihrer aktuellen Prozesse würden Sie als Nächstes mit AI experimentell unterstützen – und warum?

Collaboration & Enablement

  • Beschreiben Sie eine Situation, in der Sie anderen den Umgang mit einem AI‑Tool beigebracht haben.
  • Wie gehen Sie mit Kolleg:innen um, die AI gegenüber kritisch oder ängstlich sind?
  • Nennen Sie ein Beispiel für AI‑bezogene Dokumentation oder interne Guides, die Sie erstellt haben.
  • Wie halten Sie sich zu AI‑Funktionen auf dem Laufenden, die für Ihre Rolle relevant sind?

Einführung & laufende Pflege (Implementation & Updates)

Einführung

  • Kickoff & Zielbild: Gemeinsam mit HR, IT, Legal und Betriebsrat definieren, wofür das Framework genutzt wird (z. B. Jobprofile, Reviews, Beförderungen).
  • Manager zuerst schulen: Führungskräfte auf Level‑Definitionen, Belege und Bias‑Checks vorbereiten, bevor sie Mitarbeitende bewerten.
  • Pilotbereich wählen: 1–2 Zielgruppen (z. B. HR‑Team und ein Business‑Team) auswählen und das Framework in einem Review‑ oder Trainingszyklus testen.
  • Vorlagen anpassen: Performance‑Review‑Formulare, individuelle Entwicklungspläne (IDPs) und Skill‑Matrizen um AI‑Kompetenz und Evidence‑Felder ergänzen (vgl. Skill Management).
  • Erfolg messen: Kennzahlen definieren – z. B. AI‑Tool‑Adoption, Zeitersparnis in Zielprozessen, Fehlerquote, wahrgenommene Fairness in Beförderungen.

Laufende Pflege

  • AI Skills Owner benennen: In HR/L&D eine verantwortliche Person (oder ein kleines Gremium) mit klaren Entscheidungsrechten etablieren.
  • Feedback-Schleifen: Nach jedem Trainings‑ oder Review‑Zyklus Rückmeldungen sammeln und kleine Anpassungen vornehmen.
  • Jährliche Überprüfung: Kompetenzbereiche, Level‑Beschreibungen und Beispiele mit Führungskräften und Champions einmal pro Jahr gegen Tools, Recht und Strategie spiegeln.
  • Integration sicherstellen: Änderungen mit Roadmaps zu Talent‑, Performance‑ und Skill‑Management abstimmen; in Systemen (z. B. Sprad Growth) konsistent hinterlegen.
  • Versionierung & Auditfähigkeit: Alte Versionen archivieren und Änderungen dokumentieren, um Entwicklung und Entscheidungsgrundlagen transparent zu halten.

Fazit

Ein klar formuliertes, rollenbasiertes AI‑Skill‑Framework schafft Transparenz: Mitarbeitende erkennen, welches Verhalten auf welches Level einzahlt, Führungskräfte bewerten AI‑Kompetenz vergleichbar, und HR verknüpft AI‑Nutzung direkt mit Karrierepfaden. Das erhöht Fairness in Beförderungen, stärkt Entwicklungsmotivation und reduziert Diskussionen über „gefühlte“ AI‑Skills.

Zugleich macht das Framework AI‑Entwicklung planbar: Statt losem Ausprobieren entsteht ein strukturierter Pfad von Starter zu Champion, abgestimmt auf unterschiedliche Zielgruppen (Mitarbeitende, Führungskräfte, HR, Champions). In Verbindung mit bestehenden Skill‑Matrizen, Entwicklungsplänen und Performance‑Prozessen wird AI‑Kompetenz zu einem normalen – messbaren – Bestandteil von Arbeit.

Praktische nächste Schritte: In den kommenden 4–6 Wochen eine Fokuszielgruppe auswählen (z. B. People Manager), das Framework auf 3–5 relevante Kompetenzbereiche pro Rolle herunterbrechen und eine erste gemeinsame Bewertungsrunde mit echten Beispielen durchführen. Parallel dazu die Performance‑ und Talent‑Templates anpassen, damit AI‑Belege sichtbar werden. Nach einem Zyklus (ca. 3–6 Monate) Wirkung und Lücken evaluieren, Levelbeschreibungen schärfen und das Framework auf weitere Zielgruppen ausrollen.

FAQ

Wie nutzen wir das Framework im Alltag der Performance-Gespräche?

Verknüpfen Sie jede Rolle mit 3–5 relevanten AI‑Kompetenzbereichen und einem Ziellevel. Mitarbeitende bringen zu Reviews konkrete Beispiele je Bereich mit (Prompts, Outputs, Prozess‑Before/After). Führungskräfte bewerten Verhalten entlang der Anker, nicht nach Bauchgefühl. In anschließenden Kalibrierungsrunden vergleichen Sie Fälle teamübergreifend und gleichen Maßstäbe an. So entstehen über mehrere Zyklen konsistente, nachvollziehbare AI‑Bewertungen.

Wie vermeiden wir Bias bei der Bewertung von AI-Skills?

Typisch ist, dass „laute“ oder technikaffine Personen überschätzt, leise, aber wirkungsvolle Nutzer:innen unterschätzt werden. Setzen Sie deshalb auf behavior‑basierte Skalen, verpflichtende Belege und gemeinsame Kalibrierungsrunden. Prüfen Sie in Reviews systematisch: Welche Evidenz liegt vor? Über welchen Zeitraum? Welche Risiken traten auf? Schulen Sie Führungskräfte zu Bewertungsfehlern (z. B. Halo‑Effekt) und nutzen Sie standardisierte Checklisten, wie sie auch in Talent‑Kalibrierungs‑Guides empfohlen werden.

Wie verhindern wir, dass AI-Training Mitarbeitende überfordert?

Begrenzen Sie die formale Lernzeit in Sprints auf 1–2 Stunden pro Woche und fokussieren Sie Module auf echte Aufgaben (z. B. E‑Mails, Meeting‑Notizen, Job‑Ads), die sofort Zeit sparen. Bieten Sie optionale Deep Dives für Power User statt alle zu zwingen. Kurze Pulse‑Surveys nach Sessions zeigen, ob Tempo oder Komplexität zu hoch sind – dann können Sie Beispiele vereinfachen oder mehr Übungszeit einbauen. Studien zu Erwachsenenlernen zeigen, dass verteiltes, anwendungsnahes Lernen nachhaltiger ist als einmalige Intensiv‑Workshops.

Welche Kennzahlen zeigen, ob unser AI-Enablement funktioniert?

Kombinieren Sie Adoptions‑, Leistungs‑ und Risiko‑Metriken: Wöchentliche Nutzung freigegebener AI‑Tools, Zeitersparnis in definierten Workflows, Qualität (z. B. weniger Schleifen bei Bewertungen oder Job‑Ads), Durchlaufzeiten in Recruiting/Reviews sowie Anzahl von Daten­schutz‑oder Governance‑Vorfällen. Internationale Studien (z. B. McKinsey 2023) zeigen, dass Unternehmen mit klar an Business‑KPIs gekoppelten AI‑Initiativen deutlich höhere Produktivitätsgewinne erzielen als solche mit rein experimentellem Ansatz.

Wie oft sollten wir das AI-Skill-Framework aktualisieren?

Mindestens jährlich sollten Sie Kompetenzbereiche, Level‑Anker und Beispiel‑Use‑Cases überprüfen – oder früher, wenn sich relevante Gesetze (z. B. AI Act) oder Kern‑Tools ändern. Kleinere Updates (neue Prompt‑Beispiele, zusätzliche Guardrails, weitere Do’s & Don’ts) können Sie quartalsweise über den AI Skills Owner einpflegen. Wichtig ist eine einfache Änderungsroutine mit klarer Kommunikation: Was ist neu, ab wann gilt es, und wie fließt es in Bewertungen ein? So bleibt das Framework lebendig, ohne jedes Jahr neu erfunden werden zu müssen.

Jürgen Ulbrich

CEO & Co-Founder of Sprad

Jürgen Ulbrich has more than a decade of experience in developing and leading high-performing teams and companies. As an expert in employee referral programs as well as feedback and performance processes, Jürgen has helped over 100 organizations optimize their talent acquisition and development strategies.

Free Templates &Downloads

Become part of the community in just 26 seconds and get free access to over 100 resources, templates, and guides.

Free IDP Template Excel with SMART Goals & Skills Assessment | Individual Development Plan
Video
Performance Management
Free IDP Template Excel with SMART Goals & Skills Assessment | Individual Development Plan
Free Competency Framework Template | Role-Based Examples & Proficiency Levels
Video
Skill Management
Free Competency Framework Template | Role-Based Examples & Proficiency Levels

The People Powered HR Community is for HR professionals who put people at the center of their HR and recruiting work. Together, let’s turn our shared conviction into a movement that transforms the world of HR.