Künstliche Intelligenz im Arbeitsrecht: Chancen, Risiken und der rechtliche Rahmen in Deutschland

Künstliche Intelligenz (KI) hält rasant Einzug in die Arbeitswelt und verändert grundlegend die Art und Weise, wie Arbeit organisiert, ausgeführt und bewertet wird. Von der automatisierten Bewerberauswahl über die Leistungsbewertung bis hin zur Steuerung ganzer Arbeitsabläufe – die Potenziale sind enorm. Doch mit den technologischen Möglichkeiten wachsen auch die komplexen rechtlichen Herausforderungen, die sich aus dem Spannungsfeld zwischen Innovation und Arbeitnehmerschutz ergeben. Das deutsche Arbeitsrecht, geprägt von der Fürsorgepflicht des Arbeitgebers und starken Arbeitnehmerrechten, muss sich diesen neuen Gegebenheiten anpassen.

KI-Einsatz im Arbeitsverhältnis: Eine rechtliche Gratwanderung

Der Einsatz von KI-Systemen im Arbeitsverhältnis ist rechtlich vielschichtig und erfordert eine sorgfältige Prüfung bestehender Gesetze sowie die Berücksichtigung neuer Regularien wie der EU-KI-Verordnung (EU AI Act). Grundsätzlich gilt: Arbeitsrecht ist in erster Linie Arbeitnehmerschutzrecht.

Automatisierung und die Pflicht zur persönlichen Leistung

Ein zentraler Aspekt ist die Frage, inwieweit Arbeitnehmende KI zur Erfüllung ihrer arbeitsvertraglichen Pflichten nutzen dürfen. Gemäß § 613 BGB müssen Arbeitnehmende ihre Arbeitsleistung grundsätzlich persönlich erbringen. Die vorherrschende Meinung stuft KI-Anwendungen jedoch als Hilfsmittel ein, ähnlich wie Suchmaschinen oder Übersetzungstools. Solange die Nutzung nicht ausdrücklich untersagt oder gesondert geregelt ist, steht der Einsatz von KI zur Unterstützung der Arbeitsleistung demnach nicht im Widerspruch zur Höchstpersönlichkeit. Arbeitgeber können die Nutzung von KI-Tools durch ihr Direktionsrecht (§ 106 GewO) erlauben, fördern oder untersagen und sollten klare Richtlinien („Guidelines“) festlegen. Bei Verstößen drohen disziplinarische Maßnahmen bis hin zur Abmahnung.

Die Rolle des EU AI Act und weitere Regelungen

Der am 1. August 2024 in Kraft getretene EU AI Act ist das „Herzstück“ der KI-Regulierung und verfolgt einen risikobasierten Ansatz. KI-Systeme, die im HR-Bereich eingesetzt werden (z.B. bei Einstellung, Aufgaben, Leistungsbewertung, Beförderung oder Kündigung), werden regelmäßig als Hochrisikosysteme eingestuft und unterliegen strengen Anforderungen. Dazu gehören Transparenzpflichten, die Einrichtung eines Risikomanagementsystems und die Gewährleistung technischer Belastbarkeit und Cybersicherheit. Neben dem AI Act sind weiterhin das Allgemeine Gleichbehandlungsgesetz (AGG), das Betriebsverfassungsgesetz (BetrVG) sowie die Datenschutz-Grundverordnung (DSGVO) und das Bundesdatenschutzgesetz (BDSG) zu beachten.

Mitbestimmung des Betriebsrats bei KI-Einsatz

Die Einführung und Nutzung von KI-Systemen im Unternehmen hat weitreichende Auswirkungen auf Arbeitsabläufe und die Arbeitnehmer. Daher spielt der Betriebsrat eine entscheidende Rolle bei der Gestaltung des KI-Einsatzes.

Umfangreiche Mitbestimmungsrechte

Das Betriebsrätemodernisierungsgesetz von 2021 hat die Rechte des Betriebsrats im Kontext von KI gestärkt. Insbesondere § 87 Abs. 1 Nr. 6 BetrVG sieht ein erzwingbares Mitbestimmungsrecht vor, wenn technische Einrichtungen eingeführt werden, die dazu bestimmt sind, das Verhalten oder die Leistung der Arbeitnehmer zu überwachen. Da KI-Systeme, die beispielsweise in der Leistungsbewertung oder der Personaleinsatzplanung zum Einsatz kommen, oft diesen Zweck erfüllen, ist die Mitbestimmung des Betriebsrats hier regelmäßig gegeben.

Darüber hinaus besteht nach § 90 Abs. 1 Nr. 3 BetrVG eine Unterrichtungs- und Beratungspflicht für den Einsatz von KI. Der Betriebsrat muss umfassend über die geplante Einführung von KI informiert und seine Position dazu angehört werden.

Sachverständigen hinzugeziehen und Grenzen der Mitbestimmung

Aufgrund der Komplexität von KI-Technologien ist es für Betriebsräte oft unerlässlich, Sachverständige hinzuzuziehen. Dies ist nun explizit in § 80 Abs. 3 BetrVG geregelt. Es ist wichtig zu verstehen, dass der Betriebsrat zwar bei bestimmten Nutzungsszenarien mitbestimmen kann, die Einführung oder die generelle Nutzung von KI durch den Betriebsrat jedoch nicht verhindert oder initiiert werden kann. Die Mitbestimmung greift, wenn die KI zur Überwachung von Leistung oder Verhalten dient oder wenn sich die Arbeitsprozesse wesentlich ändern und dies eine Betriebsänderung im Sinne des § 111 BetrVG darstellt, die ggf. einen Interessensausgleich und Sozialplan erfordert.

Algorithmische Entscheidungssysteme: Transparenz und Fairness

Algorithmische Entscheidungssysteme sind KI-basierte Tools, die Daten erfassen, auswerten und interpretieren, um Entscheidungen oder Empfehlungen abzuleiten. Sie können menschliche Entscheidungsprozesse unterstützen oder sogar ganz ersetzen, beispielsweise bei der Vorauswahl von Bewerbern.

Die „Black Box“-Problematik

Eine große Herausforderung ist die sogenannte „Black Box“-Problematik, bei der algorithmische Entscheidungen nicht immer transparent oder nachvollziehbar sind. Dies birgt die Gefahr, dass Arbeitgeber algorithmische Entscheidungen nicht erklären können, obwohl sie dafür haften. Unternehmen müssen sich darauf einstellen, dass die KI-Verordnung und die DSGVO Transparenzanforderungen an den Einsatz von KI stellen, insbesondere wenn automatisiert finale Entscheidungen getroffen werden. Es wird oft als ausreichend erachtet, wenn ein Mensch das Ergebnis stichprobenartig oder auf Plausibilität überprüft.

Algorithmisches Management

Unter „algorithmischem Management“ versteht man die Personaleinsatzplanung, Koordination und Kontrolle von Mitarbeiteraktivitäten durch Algorithmen. Dies kann von der automatisierten Zuweisung von Aufgaben bis hin zur Navigation von Mitarbeitenden in Lagerhäusern reichen. Obwohl das deutsche Arbeitsrecht keinen Grundsatz aufstellt, dass Weisungen und Entscheidungen von einem Menschen vorgenommen werden müssen, müssen die von der KI ausgeführten Weisungen dem Arbeitgeber zugerechnet werden und dürfen nicht „unbillig“ sein.

Diskriminierungsschutz bei KI-Einsatz

KI-Systeme versprechen objektivere Entscheidungen, da sie emotionslos auf Basis von Daten agieren. Doch die Realität zeigt: KI kann diskriminieren, insbesondere wenn die Trainingsdaten selbst Bias enthalten.

Das Allgemeine Gleichbehandlungsgesetz (AGG)

Das Allgemeine Gleichbehandlungsgesetz (AGG) schützt Beschäftigte vor unmittelbarer und mittelbarer Diskriminierung aufgrund von Merkmalen wie „Rasse“, ethnischer Herkunft, Geschlecht, Religion, Weltanschauung, Behinderung, Alter oder sexueller Identität. Auch bei der Nutzung von KI kann es zu Diskriminierungen kommen, die einen Verstoß gegen das AGG darstellen.

  • Unmittelbare Diskriminierung: Eine Person erfährt aufgrund eines geschützten Merkmals eine weniger günstige Behandlung als eine vergleichbare Person.
  • Mittelbare Diskriminierung: Neutral erscheinende Vorschriften oder Verfahren benachteiligen geschützte Gruppen in besonderer Weise. Dies tritt bei algorithmischen Entscheidungssystemen besonders häufig auf, da Algorithmen in großen Datensätzen Korrelationen zwischen scheinbar neutralen Variablen und geschützten Merkmalen finden können (sog. Proxy-Variablen). Ein Beispiel ist, wenn ein KI-Modell, das mit historischen, männlich dominierten Bewerbungsdaten trainiert wurde, männliche Bewerber automatisch positiver bewertet.

Arbeitgeber haften für Diskriminierungen durch KI, auch wenn diese unbeabsichtigt erfolgen. Bei einem Verstoß gegen das AGG kann die diskriminierte Person einen Anspruch auf Entschädigung und/oder Schadensersatz haben. Es obliegt dem Arbeitgeber, darzulegen, dass kein Verstoß vorliegt, sobald Indizien eine Diskriminierung vermuten lassen.

Anforderungen der KI-Verordnung

Die KI-Verordnung verpflichtet Betreiber von Hochrisiko-KI-Systemen unter anderem dazu, Maßnahmen zur Minimierung des Diskriminierungsrisikos zu ergreifen. Dazu gehört die Sicherstellung einer hinreichenden Repräsentanz der Eingabedaten im Hinblick auf den beabsichtigten Zweck des Systems.

Beschäftigtendatenschutz bei KI-Einsatz

Der Einsatz von KI im Arbeitsverhältnis ist untrennbar mit dem Beschäftigtendatenschutz verbunden. KI-Systeme verarbeiten oft eine Vielzahl personenbezogener Daten, was strenge Anforderungen an die Datenverarbeitung, -nutzung und -speicherung stellt.

DSGVO und BDSG als Kern des Schutzes

Unternehmen müssen sicherstellen, dass die Verwendung von Daten durch KI im Einklang mit der Datenschutz-Grundverordnung (DSGVO) und dem Bundesdatenschutzgesetz (BDSG) erfolgt. Dies betrifft insbesondere den Umgang mit sensiblen Daten und Geschäftsgeheimnissen. Arbeitgeber müssen technische und organisatorische Maßnahmen zur Datensicherheit ergreifen, die dem Stand der Technik entsprechen.

Transparenz und Betroffenenrechte

Ein zentraler Aspekt ist die Transparenzpflicht. Arbeitnehmende und Bewerber müssen darüber informiert werden, dass und wie ihre Daten durch KI-Systeme verarbeitet werden. Arbeitgeber müssen zudem die Betroffenenrechte gemäß Kapitel 3 der DSGVO wahren, wie das Recht auf Auskunft, Berichtigung, Löschung und Widerspruch.

Besonders kritisch ist die automatisierte Einzelentscheidung ohne menschliches Eingreifen. Gemäß Art. 22 Abs. 1 DSGVO ist eine ausschließlich auf einer automatisierten Verarbeitung beruhende Entscheidung, die rechtliche Wirkung entfaltet oder Personen in ähnlicher Weise erheblich beeinträchtigt, unzulässig. Dies gilt insbesondere für Personalentscheidungen wie die Bewerberauswahl. Die letzte Entscheidung muss von einem Menschen getroffen werden, und dieser Prozess sollte gründlich dokumentiert werden, um die menschliche Beteiligung nachweisen zu können.

Bestimmte Formen der Überwachung von Mitarbeitern, wie etwa die Emotionserkennung oder die Analyse biometrischer Daten, sind laut der KI-Verordnung in vielen Fällen verboten.

Menschliche Aufsicht: Das unverzichtbare Korrektiv

Die menschliche Aufsicht (Human Oversight) ist ein essenzielles Prinzip der europäischen KI-Regulierung und der EU-KI-Verordnung, insbesondere für Hochrisiko-KI-Systeme. Sie dient dazu, Risiken für Gesundheit, Sicherheit und Grundrechte zu minimieren, die trotz der Einhaltung anderer Anforderungen entstehen können.

Pflichten der Aufsichtspersonen

Hochrisiko-KI-Systeme müssen so konzipiert sein, dass sie von natürlichen Personen wirksam beaufsichtigt werden können. Die Aufsichtspersonen übernehmen eine zentrale Kontrollfunktion. Zu ihren Aufgaben gehören:

  • Die Überwachung des laufenden Systembetriebs.
  • Die Fähigkeit zur Interpretation von KI-Outputs.
  • Das Erkennen und Bewerten von Automatisierungsverzerrungen (Bias).
  • Die Entscheidung über die Nichtanwendung der KI oder ihrer Ergebnisse.
  • Das Eingreifen im Falle fehlerhafter oder riskanter Systemausgaben.

Aufsichtspersonen müssen die einschlägigen Fähigkeiten und Grenzen des KI-Systems verstehen und in der Lage sein, Anomalien oder unerwartete Leistungen zu erkennen und zu beheben. Sie müssen sich der Tendenz zum übermäßigen Vertrauen in KI-Ergebnisse bewusst bleiben. Unternehmen müssen geeignete Aufsichtspersonen benennen, die über die erforderlichen Kompetenzen verfügen und durch Schulungen unterstützt werden. Die Benennung eines allgemeinen „AI-Officers“ ist dabei nicht gleichzusetzen mit der Aufsicht über ein konkretes KI-System.

Umsetzung in der Praxis

Die Umsetzung der menschlichen Aufsicht erfordert ein durchdachtes Vorgehen. Dies umfasst ein Systemdesign, das technische Schnittstellen für menschliche Eingriffe bietet (z.B. Deaktivierungsfunktionen, Nachvollziehbarkeit des Outputs). Zudem ist eine klare organisatorische Einbettung durch Rollenverteilung, dokumentierte Prozesse und Meldesysteme notwendig. Kontinuierliche interne Audits und die Anpassung der Aufsichtsmaßnahmen an die Weiterentwicklung der KI-Systeme sind ebenfalls entscheidend.

Fazit

Der Einsatz von Künstlicher Intelligenz im Arbeitsverhältnis ist eine Transformation mit weitreichenden rechtlichen Implikationen. Die EU-KI-Verordnung, das Betriebsverfassungsgesetz und die Datenschutzgesetze bilden den Rahmen für einen verantwortungsvollen KI-Einsatz. Mitbestimmungsrechte des Betriebsrats sind bei der Einführung von KI-Systemen, die Leistung oder Verhalten überwachen, von zentraler Bedeutung. Der Schutz vor algorithmischer Diskriminierung erfordert sorgfältige Datenprüfung und Transparenz, während der Beschäftigtendatenschutz die Einhaltung strenger Vorschriften bei der Verarbeitung personenbezogener Daten unabdingbar macht. Die menschliche Aufsicht über Hochrisiko-KI-Systeme ist dabei das entscheidende Korrektiv, um die Grundrechte der Arbeitnehmer zu wahren und die „Black Box“-Problematik zu entschärfen. Unternehmen stehen vor der Aufgabe, diese komplexen Anforderungen proaktiv anzugehen, um die Chancen der KI zu nutzen und gleichzeitig rechtliche Risiken zu minimieren und ein faires, transparentes sowie datenschutzkonformes Arbeitsumfeld zu gewährleisten.