HR-Management und Lohnbuchhaltung

ChatGPT im Unternehmenseinsatz: Probleme mit Recht und DSGVO?

ChatGPT von OpenAI hat eine rasante, nie dagewesene Erfolgsgeschichte hingelegt. Doch eignet sich ChatGPT für den unbedenklichen Einsatz im HR-Bereich? Unser Artikel klärt auf – auch zu Bedenken hinsichtlich Betriebsgeheimnissen und DSGVO.

ChatGPT erklärt im Büro

ChatGPT von OpenAI hat eine rasante, nie dagewesene Erfolgsgeschichte hingelegt. Doch eignet sich ChatGPT für den unbedenklichen Einsatz im HR-Bereich?

In nur fünf Tagen konnte er die Millionen User-Marke erreichen – schneller als die Rekordhalter Spotify und Instagram. Fans der KI-Lösung, die automatisiert Text zu allen möglichen Themen in erstaunlich guter Qualität generieren kann, sprechen von einem „iPhone-Moment“ für Künstliche Intelligenz, kurz KI. Tesla- und Twitter-Chef Elon Musk – selbst bis 2018 in der Unternehmensleitung von der ChatGPT-Entwickler OpenAI vertreten – erklärte in einem Interview, dass ChatGPT erstmals der KI eine Oberfläche gegeben hat. Damit sei KI für jedermann sichtbar und nutzbar geworden, und klar, wie weit die Entwicklung der Technologie inzwischen sei.

Heikles Thema im Personalbereich

Automatisierung mit KI verspricht für Unternehmen enorme Produktivitätsgewinne. Im Personalwesen winken mit ChatGPT vielfältige Einsatzmöglichkeiten: So könnte die KI helfen

  • Bewerbungen zu analysieren,
  • Vorstellungsgespräche zu führen und
  • Fragen von potenziellen Bewerbern zu beantworten.
  • Onboardings könnten unterstützt,
  • Feedback von Mitarbeitern ausgewertet und
  • Schulungsmaterialen in kürzester Zeit erstellt werden.

Große Entlastungen wären möglich und entsprechend vielfach werden diese Möglichkeiten diskutiert. Aber wäre der Einsatz von ChatGPT unter rechtlichen Aspekten in HR überhaupt zulässig? Italien hat kürzlich aufgrund von datenschutzrechtlichen Bedenken den Zugang zu ChatGPT im ganzen Land sperren lassen. Wie sieht die Lage in der HR-Arbeit aus?

ChatGPT: Wie sieht das mit der Datenweitergabe aus? Spielt DSGVO eine Rolle?

Grundsätzlich führt die Arbeit mit ChatGPT im Personalbereich oft zu einer Datenweitergabe, die einen Datenschutzverstoß bedeuten kann. Diese kann dem Arbeitgeber zugerechnet werden, wie auch die Übertragung der Daten an Server in den USA – der Betreiber OpenAI ist schließlich ein US-Unternehmen.

Ein weiteres Problem kann sich beispielsweise aus Art. 22 DSGVO ergeben. Er schützt Personen davor, ausschließlich einer automatisierten Verarbeitung beruhenden Entscheidung unterworfen zu werden. Daher dürfen wichtige HR-Prozesse wie die Erstellung von Zeugnissen, Abmahnungen oder auch der Bewerbungsprozess nicht vollständig automatisiert gestaltet werden. Es sollte stattdessen immer eine menschliche Entscheidungskompetenz einbezogen werden, um einen Verstoß zu vermeiden.

KI-Modelle wie ChatGPT sind auch immer noch auf bestimmte Aufgaben beschränkt. So sind sie nicht in der Lage, menschliche Intuition und Empathie zu ersetzen. ChatGPT automatisiert, fällt aber keine Entscheidungen. Menschliche Entscheidungskompetenz sollte hier, um potenzielle Rechtsverstöße zu vermeiden, sicherstellen, dass die KI-unterstützten Entscheidungen fair und diskriminierungsfrei sind.

Tipp: Halten Sie Ihre Mitarbeiter stets motiviert und entwickeln Sie neue Talente – entdecken Sie unsere Personalsoftware.

Weitergabe von Betriebsgeheimnissen

Ein weiterer Aspekt betrifft den Schutz von Betriebs- und Geschäftsgeheimnissen. ChatGPT kann eine praxisgerechte Antwort liefern, wenn Arbeitnehmende Angaben machen, die sich auf Betriebs- und Geschäftsgeheimnisse erstrecken. Allerdings können die Angaben laut den „Terms and Conditions“ von ChatGPT dazu genutzt werden, seine Dienste weiter zu verbessern. Daraus ergibt sich das Risiko, dass andere ChatGPT-Nutzer Zugriff auf diese sensiblen Informationen erhalten. Genau dieser Fall ist kürzlich bei Samsung passiert. Entwickler hatten Fehler im Quellcode eines neuen Programms mit ChatGPT verbessern wollen – und ihn unwissentlich gleichzeitig damit an OpenAI übermittelt.

Unternehmen sollten ihre Arbeitnehmenden daher sensibilisieren, bei der Nutzung von ChatGPT keinerlei Angaben zu Betriebs- und Geschäftsgeheimnissen zu machen, um einen vertraulichen Umgang mit solchen Informationen zu gewährleisten.

Rechtliches Glatteis: Die Urheberrechte

Schließlich stellt sich die Frage der Urheberrechte. OpenAI als Betreiber von ChatGPT kann nicht Urheber des durch den Chatbot erzeugten Outputs sein, da es sich nicht um eine persönliche geistige Schöpfung des Urhebers handelt, sondern um eine KI-basierte Neugestaltung – praktisch einen „Remix“ aus den Trainingsdaten.

Unklar bleibt dabei, ob Dritten Urheberrechte an den Ergebnissen von ChatGPT zustehen können, da andere Nutzer durch ihre Angaben den Output an anderer Stelle bewirken können. Hier gilt es die weitere Entwicklung der rechtlichen Rahmenbedingungen abzuwarten. Bis dahin begeben sich Unternehmen, die KI-erzeugte Inhalte kommerziell verwenden, in eine Grauzone, die bei Klagen teuer werden kann.

Fazit und Ausblick zu ChatGPT: Besser abwarten bis der Rahmen stimmt

Zusammenfassend ist der Einsatz von ChatGPT im Personalwesen datenschutzrechtlich immer noch problematisch. Vor allem, sobald HR-Prozesse vollständig automatisiert werden oder Arbeitnehmende Angaben zu Betriebs- und Geschäftsgeheimnissen machen. Unternehmen sollten daher darauf achten, dass immer eine menschliche Entscheidungskompetenz einbezogen wird und ihre Arbeitnehmenden sensibilisieren, keine sensiblen Informationen an ChatGPT preiszugeben. Auch die Frage der Urheberrechte ist bisher nicht abschließend geklärt und bedarf genauerer Rahmenbedingungen. Empfehlenswert ist es den Einsatz von ChatGPT auf allgemeine Einsatzgebiete, wie zum Beispiel als Ideenlieferant oder für Rohmaterial wie Vorlagen für Anschreiben einzusetzen.

Um den rechtssicheren Einsatz von KI-Modellen wie ChatGPT zu gewährleisten, müssen die derzeitigen gesetzlichen Regelungen angepasst werden, um die neuen Anforderungen zu berücksichtigen. Der EU-Gesetzgeber arbeitet derzeit an einer EU-KI-Verordnung sowie einer KI-Haftungsrichtlinie. Diese gesetzgeberischen Vorhaben können als Chance begriffen werden. Der Gesetzgeber kann Rechtslücken bezüglich der Nutzung von KI aktiv angehen und den praxisgerechten Einsatz von KI in der Arbeitswelt fördern.

Die Entwicklung von KI-Technologien und Werkzeugen läuft inzwischen in einem atemberaubenden Tempo weiter.  Es gibt auch von Software-Herstellern Bemühungen den Einsatz von generativer KI rechtsicher anzubieten. Adobe hat kürzlich mit einem neuen Bild-Generator namens Firefly gezeigt, wie rechtsichere, generative KI aussehen könnte: Hier werden nur Bild-Trainingsdaten aus der eigenen Adobe Stock-Plattform für Stock-Bilder verwendet. Die Rechte sind geklärt und Adobe betont die Urheber bei den KI-Werken gerecht zu vergüten – und anzubieten, dass sie ihre Schöpfungen gegen die Verwendung als Trainingsmaterial schützen können.

Weitere Artikel zu KI