KI-Wissen Logo
Start/⚖️ EU AI Act/KI in HR & EU AI Act
EU AI Act · HR-Einsatz

KI in HR: EU AI Act Hochrisiko-Einstufung

KI in HR & der EU AI Act – Nicht jedes KI-System mit Mitarbeiterdaten ist automatisch Hochrisiko. Mit der richtigen Gestaltung lassen sich viele HR-Anwendungen als minimales oder begrenztes Risiko einsetzen.

Hinweis: Diese Lektion dient der Orientierung und ersetzt keine Rechtsberatung. Die Einstufung von KI-Systemen erfordert immer eine Prüfung des konkreten Einzelfalls. Ziehe bei Bedarf rechtliche Expertise hinzu.

KI im Personalwesen fällt häufig unter die Hochrisiko-Einstufung des EU AI Act. Diese Lektion erklärt, warum HR-Anwendungen wie Bewerbermanagement und Leistungsbewertung besonders reguliert sind und welche Compliance-Anforderungen Unternehmen erfüllen müssen.

Anhang III Nr. 4 – Beschäftigung & Personalverwaltung

KI-Systeme sind nur dann Hochrisiko, wenn sie Entscheidungen treffen oder wesentlich beeinflussen über:

  • Einstellung & Auswahl – Screening, Filtern, Bewerten von Bewerbungen
  • Beförderung & Kündigung – Entscheidungen über Karriereentwicklung
  • Aufgabenzuweisung – basierend auf individuellem Verhalten/Eigenschaften
  • Leistungsbewertung & Überwachung – Monitoring von Arbeitsleistung

Entscheidender Punkt: Das KI-System muss eine Entscheidung treffen oder wesentlich beeinflussen. Reine Unterstützungstools ohne Entscheidungscharakter fallen nicht unter die Hochrisiko-Einstufung.

HR-Anwendungen im Ampel-Check

KI-basiertes Bewerber-RankingRecruiting
Hochrisiko
Automatisierte LeistungsbewertungPerformance
Hochrisiko
KI-gestützte KündigungsempfehlungenPersonal
Hochrisiko
Automatisiertes CV-Screening mit FilterungRecruiting
Hochrisiko
KI-basierte Aufgabenzuweisung nach ProfilingOrganisation
Hochrisiko
KI-gestützte KompetenzanalyseEntwicklung
Grenzbereich
Matching-Algorithmus mit EntscheidungsvorschlagRecruiting
Grenzbereich
KI-gestützte GehaltsanalyseVergütung
Grenzbereich
KI für Stellenanzeigen-TexteRecruiting
Kein Hochrisiko
Meeting-ZusammenfassungenBüro
Kein Hochrisiko
Wissensmanagement-AssistentOrganisation
Kein Hochrisiko
E-Mail-EntwürfeBüro
Kein Hochrisiko
Schulungsempfehlungen ohne BewertungEntwicklung
Kein Hochrisiko
Onboarding-ChatbotPersonal
Kein Hochrisiko

Beantworte die folgenden Fragen, um die Risikoeinstufung deiner HR-KI-Anwendung zu ermitteln.

Schritt 1 von 4

Handelt es sich um ein KI-System nach Art. 3 Nr. 1?

Ein maschinengestütztes System, das mit unterschiedlichem Grad an Autonomie operiert, anpassungsfähig ist und aus Eingaben Ergebnisse (Vorhersagen, Empfehlungen, Entscheidungen, Inhalte) ableitet.

HR-Beispiel: ChatGPT, Copilot, Claude = Ja. Einfache Excel-Formel = Nein.

Mit der richtigen Gestaltung lassen sich viele HR-KI-Anwendungen so designen, dass sie nicht als Hochrisiko eingestuft werden.

5 Gestaltungsprinzipien

👤

1. Mensch entscheidet

KI als Informationslieferant, nicht als Entscheider. Das System gibt keine Empfehlung, kein Ranking und keinen Score, sondern nur aufbereitete Daten.

🚫

2. Keine automatisierte Bewertung

Vermeidung von Scoring, Ranking oder Kategorisierung von Mitarbeitenden durch die KI. Jede Form der Bewertung durch KI kann zur Hochrisiko-Einstufung führen.

🤝

3. Unterstützung statt Steuerung

KI hilft bei Textarbeit (Stellenanzeigen, Protokolle, Wissensartikel), nicht bei Personalentscheidungen. Der Fokus liegt auf Effizienz, nicht auf Entscheidungsfindung.

📋

4. Transparente Trennung

Klare Dokumentation, dass das KI-System keine Entscheidungsbefugnis hat und nicht in Entscheidungsprozesse eingebunden ist. Diese Dokumentation ist im Streitfall entscheidend.

🔒

5. Zweckbindung beachten

System nicht nachträglich für Entscheidungszwecke umwidmen. Achtung: Wer ein KI-System für einen anderen Zweck einsetzt, wird nach Art. 25 Abs. 1c zum Anbieter!

Praxis-Tipp: So formulierst du den Einsatzzweck richtig

Schlecht: "Die KI bewertet Bewerbungen und erstellt eine Rangliste der geeignetsten Kandidaten."

Gut: "Die KI bereitet Bewerbungsunterlagen strukturiert auf und weist auf zu prüfende Aspekte hin. Die Auswahl erfolgt ausschließlich durch die Fachabteilung."

Praxis-Beispiel: SWOT-Analyse einer Bewerbung

Eine KI-gestützte SWOT-Analyse, die eine Bewerbung gegen ein Stellenprofil abgleicht, ist kein Hochrisiko, wenn sie:

Keine Bewertung, kein Ranking, keinen Score des Bewerbers erstellt
Explizit nur auf zu prüfende Punkte hinweist (z.B. "Erfahrung in X nicht ersichtlich – bitte im Gespräch klären")
Die Entscheidung vollständig beim Menschen belässt
Als Checkliste/Hinweisgeber fungiert, nicht als Entscheidungsgrundlage

Achtung: Wird aus der SWOT-Analyse ein Score oder eine Empfehlung ("geeignet / nicht geeignet"), verschiebt sich die Einstufung Richtung Hochrisiko.

Pflicht bei Hochrisiko-Systemen

Art. 10 (Datenqualität) und Art. 9 (Risikomanagement) verlangen explizit Maßnahmen gegen Bias und Diskriminierung bei Hochrisiko-Systemen. Bias-Prüfung ist hier Pflicht.

Auch ohne Hochrisiko sinnvoll

Selbst bei minimalem Risiko sollte Bias geprüft werden:

AGG gilt immer

Das Allgemeine Gleichbehandlungsgesetz gilt unabhängig vom AI Act. Diskriminierende Ergebnisse können rechtliche Konsequenzen haben.

Versteckte Diskriminierung

KI-Systeme können Diskriminierung reproduzieren, die in den Trainingsdaten enthalten ist – bei Geschlecht, Alter, Herkunft oder anderen Merkmalen.

Reputationsrisiko

Nachgewiesener Bias im HR-Bereich kann erheblichen Reputationsschaden verursachen – unabhängig von der rechtlichen Einstufung.

Empfehlung: Bias-Prüfung ist bei jeder HR-KI-Anwendung mindestens sinnvoll – bei Hochrisiko-Systemen ist sie Pflicht. Mehr zu Bias und Fairness bei KI. Bei Tools ohne Entscheidungscharakter genügt eine Sensibilisierung und Stichprobenprüfung.

Je nach Risikoeinstufung gelten unterschiedliche Pflichten. Hier der Vergleich für HR-Anwendungen.

🟢

Minimales Risiko

Freiwillige VerhaltenskodizesArt. 95
KI-Kompetenz sicherstellenArt. 4
Empfohlen: Transparenzhinweis
🟡

Begrenztes Risiko

Kennzeichnungspflicht für KI-generierte InhalteArt. 50
Transparenz bei KI-InteraktionArt. 50 (1)
KI-Kompetenz sicherstellenArt. 4
🔴

Hochrisiko

Risikomanagement-SystemArt. 9
Datenqualität & GovernanceArt. 10
Technische DokumentationArt. 11
Aufzeichnung (Logging)Art. 12
Transparenz & InformationenArt. 13
Menschliche AufsichtArt. 14
Genauigkeit & RobustheitArt. 15
CybersicherheitArt. 15
Information der ArbeitnehmervertretungArt. 26 (7)
Betreiberpflichten nach Art. 26Art. 26

Art. 26 Abs. 7 – Informationspflicht gegenüber Mitarbeitenden

Arbeitgeber, die Hochrisiko-KI-Systeme am Arbeitsplatz einsetzen, müssen die Arbeitnehmervertretung und betroffene Mitarbeitende VOR dem Einsatz informieren. Diese Pflicht gilt unabhängig von anderen arbeitsrechtlichen Informationspflichten.

Betriebsrat-Beteiligung (deutsches Recht)

Der EU AI Act ersetzt nicht die Beteiligungsrechte des Betriebsrats. Nach deutschem Betriebsverfassungsgesetz (BetrVG) bestehen Mitbestimmungsrechte bei der Einführung technischer Einrichtungen zur Überwachung (§ 87 Abs. 1 Nr. 6 BetrVG) sowie bei Fragen der Personalplanung und -auswahl. Beide Regelungsebenen (EU AI Act + BetrVG) müssen beachtet werden.

Schulungsmaterial · KI in HR & EU AI Act·KI-Wissen Team·Aktualisiert: 22. Februar 2026
Zurück
Artikel 50: Kennzeichnung
Weiter
Vom Betreiber zum Anbieter