Datenbasiert entscheiden

Der European AI Act: Das müssen HR-Abteilungen darüber wissen

Wissen Sie, wie der neue EU AI Act Ihre HR-Prozesse verändern wird? Von Risikobewertung bis hin zu innovativen Chancen – wir beantworten die wichtigen Fragen für Personalverantwortliche und Hersteller von KI-Software.

Lange haben HR-Entscheider auf den European AI Act gewartet. Nachdem er im März 2024 verabschiedet wurde, fragen sich nun viele: Was bedeutet der Vorschlag konkret für mich – und meine HR-Abteilung? Und was gilt es jetzt zu tun?

Begonnen bereits im April 2021, finalisiert im März 2024 markiert der EU AI Act einen Meilenstein in der EU-Gesetzgebung. Die Grundidee des neuen KI-Gesetzes lässt sich so formulieren: Der AI Act zielt darauf ab, das Vertrauen in KI zu stärken, die Grundrechte zu schützen und die Sicherheit und Haftung zu gewährleisten. Er stellt einen signifikanten Fortschritt in den Bestrebungen der EU dar, eine neue Stufe der Aufsicht über die vielversprechende, aber auch risikobehaftete Technologie einzuführen – vergleichbar mit der Regulierung in der Gesundheits- und Bankenbranche.

In diesem Artikel gehen wir auf folgende Themen ein:

Pflicht zu mehr Transparenz

Der neue AI Act betrifft in erster Linie Anbieter, Hersteller, Importeure, Vertriebspartner und Nutzer von KI-Systemen. Er etabliert für sie detaillierte Verpflichtungen und legt strenge Anforderungen in diesem Sektor fest – allerdings für die Hauptakteure, wie zum Beispiel den Hersteller von ChatGPT OpenAI. Generell ist hier der Tenor: Das KI-Gesetz zielt darauf ab, Innovation zu fördern, während gleichzeitig sichergestellt werden soll, dass KI-Systeme transparent, nachvollziehbar, nicht diskriminierend und umweltfreundlich sind.

General Purpose-KI-Systeme (GPAI-Systeme) und die GPAI-Modelle, auf denen sie basieren, müssen bestimmte Transparenzanforderungen erfüllen, einschließlich der Einhaltung des EU-Urheberrechts und der Veröffentlichung detaillierter Zusammenfassungen der Inhalte, die für das Training verwendet wurden. Allein dieser Punkt könnte für die Hersteller schwierig werden, da sich zum Beispiel OpenAI bisher nur ungern und unscharf dazu äußert, wie sein Star-Produkt ChatGPT genau trainiert wurde.

Leistungsfähigere GPAI-Modelle, die systemische Risiken darstellen könnten, werden zusätzlichen Anforderungen unterliegen, einschließlich der Durchführung von Modellbewertungen, der Bewertung und Minderung systemischer Risiken sowie der Berichterstattung über Vorfälle.

Zusätzlich sollen künstlich erzeugte oder manipulierte Bilder, Audio- oder Videoinhalte („Deepfakes“) eindeutig als solche gekennzeichnet werden.

Aber auch die HR-Abteilungen von Unternehmen, die KI nutzen oder nutzen wollen, um ihre Personalprozesse zu optimieren, kommen nicht umher, sich mit dem Thema intensiv zu beschäftigen. Bei Nichtbefolgung drohen erhebliche regulatorische Strafen, zivilrechtliche Klagen und individuelle Beschwerden.

Wo ist der EU AI Act für KI im HR-Bereich relevant?

Der AI Act verfolgt einen Risikobasierten Ansatz und unterscheidet zwischen vier Risikostufen von KI-Anwendungen: verboten, hochriskant, begrenzt und minimal riskant. Für HR-Abteilungen sind vor allem die hochriskanten und die begrenzten KI-Anwendungen relevant, da sie besondere Anforderungen an die Transparenz, die Qualität und die Überprüfbarkeit der KI-Systeme stellen.

Insgesamt gibt es 4 Stufen im EU AI Act:

1. Unannehmbares Risiko: Bestimmte KI-Anwendungen, die Bürgerrechte bedrohen, wie Systeme zur Kategorisierung nach biometrischen Daten oder zur Manipulation von Menschen sind verboten.

2. Hochriskante KI-Anwendungen: Anwendungsfälle, die in sensiblen Bereichen wie Gesundheit, Bildung, Beschäftigung oder Justiz eingesetzt werden und die Rechte oder die Sicherheit von Menschen erheblich beeinflussen können, gelten als hochriskant. Beispiele im Human-Resources-Bereich sind KI-Systeme, die Bewerber auswählen, Mitarbeiter bewerten oder entlassen oder die Gehälter und Karrierechancen bestimmen.

Was gilt es zu beachten:
Für diese Hochrisiko-Systeme gelten strenge Anforderungen wie Risikoanalysen, Dokumentationspflichten, menschliche Aufsicht etc.

3. Begrenzte oder minimal riskante KI-Anwendungen: Diese können menschliche Autonomie oder die Qualität der demokratischen Prozesse beeinträchtigen. Etwa KI-Systeme, die Emotionen oder Verhaltensweisen erkennen oder manipulieren oder die personalisierte Werbung oder Inhalte anbieten, gelten als begrenzt riskant. Beispiele in HR sind KI-Systeme, die Mitarbeiter motivieren, schulen oder coachen oder die die Mitarbeiterzufriedenheit oder das Engagement messen.

KI-Systeme, die Lebensläufe auf Schlüsselwörter oder bestimmte Qualifikationen scannen, sind ebenfalls minimal riskant. Diese Systeme helfen dabei, den Bewerberpool zu verkleinern, aber sie treffen keine endgültigen Entscheidungen über die Eignung eines Kandidaten.

Chatbots können einfache Anfragen von Kandidaten beantworten, wie Fragen zu Stellenbeschreibungen, Unternehmenskultur oder zum Bewerbungsverfahren. Sie bieten schnelle Antworten, ersetzen aber keine menschliche Interaktion bei komplexeren Anliegen – und gelten somit als minimal riskant.

Was gilt es zu beachten:

Für KI-Systeme mit begrenztem Risiko wie Chatbots oder Assistenzsysteme für Mitarbeiter sind laut AI Act vor allem Transparenzpflichten vorgesehen, z.B. eine Offenlegung, dass es sich um KI handelt.

4. Minimales Risiko

    Niedrigrisiko-KI-Systeme wie Spam-Filter in HR-E-Mails unterliegen kaum zusätzlichen Regularien.

    Tipp: Auf der Suche nach einer einfachen Lösung für HR-Prozesse? Testen Sie jetzt kostenlos unsere Personalmanagement Software

    Welche Pflichten haben HR-Abteilungen unter dem AI Act?

    Insgesamt zielen die Pflichten darauf ab, die Risiken von KI-Systemen im Personalbereich zu managen und Diskriminierung, Fehler sowie Verstöße gegen Grundrechte zu vermeiden. Die genaue Umsetzung bleibt jedoch eine Herausforderung für HR-Abteilungen.

    • Risikobewertung: HR-Abteilungen müssen eine Risikobewertung durchführen, um potenzielle Auswirkungen der KI-Systeme auf Grundrechte, Sicherheit und Diskriminierung zu identifizieren und zu minimieren.
    • Sicherstellung der Datenqualität: Sie müssen die Qualität der für Training, Validierung und Betrieb verwendeten Daten sicherstellen und dokumentieren, um Verzerrungen zu vermeiden.
    • Technische Robustheit und Genauigkeit: Die technische Robustheit, Genauigkeit und Sicherheit der KI-Systeme muss gewährleistet und regelmäßig überprüft werden.
    • Menschliche Aufsicht: HR-Abteilungen müssen menschliche Aufsicht über die KI-Systeme sicherstellen. Es muss möglich sein, einzugreifen und Systeme zu stoppen/korrigieren.
    • Transparenz und Dokumentation: Umfassende Dokumentations- und Transparenzpflichten gegenüber Behörden und betroffenen Personen (z.B. Bewerbern) über Funktionsweise und Risiken.
    • Konformitätsbewertung: Vor dem Einsatz muss eine Konformitätsbewertung durch unabhängige Stellen erfolgen.
    • Hohe Strafen bei Verstößen
    • Verstöße gegen die Vorgaben für Hochrisiko-KI können mit empfindlichen Strafen von bis zu 30 Millionen Euro oder 6% des weltweiten Jahresumsatzes geahndet werden

    HR-Abteilungen, die begrenzte KI-Anwendungen schon im Einsatz haben oder zukünftig nutzen wollen, müssen vor allem die Transparenz und die Wahlfreiheit der Nutzer sicherstellen.

    Sie müssen deutlich kennzeichnen, dass sie KI-Anwendungen einsetzen, die Emotionen oder Verhaltensweisen erkennen oder manipulieren oder personalisierte Werbung oder Inhalte anbieten und sie müssen den Bewerbern die Möglichkeit geben, sich von diesen KI-Anwendungen abzumelden oder deren Wirkung zu reduzieren.

    Welche Vorteile hat der AI Act für HR Abteilungen?

    Der AI Act kann für HR Abteilungen auch Vorteile bringen. Zum einen kann der AI Act das Vertrauen in KI fördern, indem er klare und einheitliche Regeln für den Einsatz von KI in der EU schafft. Dies kann die Akzeptanz und die Nutzung von KI-Anwendungen in HR erhöhen, sowohl intern als auch extern.

    Zum anderen kann der AI Act die Qualität und die Leistung von KI-Anwendungen in HR verbessern, indem er hohe Standards für die Daten, die Technik und die Ethik von KI vorgibt. Dies kann die Effizienz, die Fairness und die Innovation von KI-Anwendungen in HR steigern, und gleichzeitig die Risiken und die Haftung reduzieren.

    Die Verwendung von KI in HR-Prozessen kann bekanntlich viele Vorteile bringen, wie die Automatisierung und Beschleunigung von Routineaufgaben, die Suche nach geeigneten Kandidaten oder die Generierung von Wahrscheinlichkeitsvorhersagen, die bei HR-Entscheidungen hilfreich sein können. Allerdings gibt es auch Bedenken hinsichtlich der Abhängigkeit von der Technologie und der Möglichkeit, dass KI die Datenqualität mindern und zu fehlerhaften Einstellungsentscheidungen führen könnte.

    Fazit: Aufwand in Compliance steigt, aber auch Vertrauen in KI

    Insgesamt wird der AI Act zu mehr Compliance-Aufwand, aber auch zu mehr Vertrauen in KI-Systeme für HR-Prozesse führen. Eine frühzeitige Vorbereitung ist ratsam, um die empfindlich hohen Bußgelder zu vermeiden. HR-Abteilungen sollten sich jetzt frühzeitig auf die neuen Regeln einstellen, indem sie:

    – Bestehende KI-Systeme evaluieren und Risiken analysieren

    – Prozesse für Risikomanagement, Dokumentation und Aufsicht aufbauen

    – Mitarbeiter schulen und Kompetenzen im Umgang mit KI aufbauen – Enge Zusammenarbeit mit IT, Recht und Führungskräften aufbauen

    Weitere interessante Artikel:

    KI in der Arbeitswelt: der rechtliche Rahmen

    KI in der Datenanalyse: Welche Rolle spielt der Mensch?

    5 Gründe, warum KI die Personalverwaltung revolutionieren kann

    Wie funktioniert ein ethischer Umgang mit KI?

    ChatGPT im Unternehmenseinsatz: Probleme mit Recht und DSGVO?