Künstliche Intelligenz (KI) ist längst kein Zukunftsthema mehr, sondern ein fester Bestandteil moderner Arbeitswelten. Bereits über 40 % der deutschen Unternehmen setzen KI im Jahr 2025 in ihren Betrieben ein, um Prozesse zu optimieren, Entscheidungen zu unterstützen und Arbeit effizienter zu gestalten. Gleichzeitig wirft der Einsatz der Technologie neue rechtliche Fragen auf: Welche Anwendungen sind zulässig, welche Risiken sind zu berücksichtigen, und wie können Arbeitgeber den Einsatz von KI transparent, fair und vor allem rechtssicher gestalten? Mit dem Inkrafttreten der KI-Verordnung (KI-VO oder AI Act) am 1. August 2024 haben Unternehmen nun erstmals einen verbindlichen Rechtsrahmen, der sich diesen Fragen annimmt und Vorgaben für einen sicheren, verantwortungsvollen Umgang mit KI liefert.
KI in der Arbeitspraxis: ein erster Überblick
Die Einsatzmöglichkeiten von KI im HR-Bereich sind breit gefächert. Im Recruiting kann sie den Personalbedarf analysieren, Stellenausschreibungen und Jobprofile erstellen, Bewerbungen sichten und bei der Vorauswahl geeigneter Kandidaten unterstützen. Im Onboarding kann KI gezielte Schulungen empfehlen und als digitaler Mentor fungieren. Sie kann zudem frühzeitig Risiken wie Fehlzeiten oder mögliche Kündigungen erkennen und klassische HR-Prozesse wie Reporting, Skillmanagement, Gefährdungsbeurteilungen oder die Sicherstellung geschlechtsneutraler Vergütung unterstützen.
Darüber hinaus kommt KI zunehmend in Office-Anwendungen zum Einsatz, etwa in Tools wie Microsoft Copilot. Hier unterstützt die KI Mitarbeiter bei der Erstellung von Dokumenten, Präsentationen oder E-Mails, fasst komplexe Informationen zusammen, generiert Berichte automatisch und kann bei der Analyse von Daten helfen. Auch Tools wie DeepL oder ChatGPT (sowie andere LLMs) kommen zunehmend zum Einsatz, indem sie verwendet werden, um Texte zu übersetzen, zu formulieren oder aufzubereiten. So wird KI nicht nur als operatives, sondern auch als unterstützendes Tool für produktives Arbeiten genutzt.
Gesetzliche Vorgaben für den Einsatz von KI
Der Einsatz von KI unterliegt verschiedenen Regulierungsvorgaben. Insbesondere die Vorgaben der KI-VO, des Allgemeine Gleichbehandlungsgesetzes (AGG) und der Datenschutz-Grundverordnung (DSGVO) sind zu berücksichtigen.
Die KI-VO ist der erste umfassende Rechtsakt zur Regulierung von KI. Sie schreibt die Entwicklung und Nutzung von KI in der EU vor und setzt dabei auf einen risikobasierten Ansatz. KI-Systeme werden je nach Gefahrengrad in verschiedene Kategorien eingeteilt, von minimalem Risiko über begrenztes Risiko bis hin zu Hochrisiko-Systemen. Generelle Verbote gelten für Systeme, die stark in die Privatsphäre eingreifen oder mit Grundrechten unvereinbar sind, beispielsweise Social-Scoring-Systeme, die Menschen anhand ihres Verhaltens oder sozialer Merkmale bewerten (Art. 5 Abs. 1 lit. c KI‑VO) oder solche, die Emotionen am Arbeitsplatz erkennen und bewerten (vgl. Art. 5 Abs. 1 lit. f KI-VO).
Gerade im Arbeits- und Personalbereich, etwa bei der Bewerberauswahl oder bei der Leistungsüberwachung werden KI-Anwendungen oftmals als „Hochrisiko“ eingestuft (vgl. Art. 6 Abs. 2 i.V.m. Anhang III Nr. 4 KI-VO).
Die KI-VO legt in Art. 26 klare Pflichten fest: Arbeitgeber müssen ein Risikomanagement einführen, die Datenqualität sicherstellen und sämtliche Maßnahmen, Datenverwendungen und Ergebnisse dokumentieren.
Als Betreiber von KI haben Arbeitgeber eine ausreichende KI-Kompetenz zu gewährleisten. Gem. Art. 4 i.V.m. Art. 3 Nr. 56 KI-VO sind sie verpflichtet sicherzustellen, dass ihr Personal die KI-Anwendung überwachen kann und ausreichend für die Verwendung und Überwachung geschult ist.
In Art. 50 KI-VO werden bestimmte Systeme aufgeführt, die als geringes Risiko eingestuft werden können. Hierunter fallen beispielsweise Chatbots (Art. 50 Abs. 1 KI-VO), die Erstellung synthetischer Inhalte (Art. 50 Abs. 2 KI-VO) oder Deepfakes (Art. 50 Abs. 4 KI-VO). Jedoch gelten auch hier Transparenzpflichten. Mitarbeitende müssen erkennen können, dass sie mit einer KI interagieren, und KI-generierte Inhalte wie Deepfakes müssen entsprechend gekennzeichnet werden.
Neben der KI-VO spielen das AGG und die Vorgaben der DSGVO eine zentrale Rolle. Arbeitgeber müssen transparent darlegen, wie die KI-Systeme funktionieren, welche Kriterien für Bewertungen genutzt werden und welche Maßnahmen getroffen werden, um Verzerrungen („Algorithmic Bias“) zu vermeiden. Solche Verzerrungen entstehen häufig durch einseitige oder fehlerhafte Trainingsdaten und können dazu führen, dass bestimmte Gruppen unbewusst systematisch benachteiligt werden. Im Bewerbungsverfahren kann dies schnell zu Verstößen gegen das AGG führen, etwa wenn Bewerber aufgrund ihres Alters, Geschlechts oder ihrer Herkunft schlechter bewertet werden.
Datenschutzrechtlich ist zu beachten, dass personenbezogene Daten nur für klar definierte Zwecke verarbeitet werden dürfen, unnötige Datensammlungen sind unzulässig (vgl. Art. 5 Abs. 1 lit. c DSGVO). Jede Verarbeitung personenbezogener Daten durch ein KI-System bedarf gem. Art. 6 DSGVO einer rechtlichen Grundlage. Mitarbeitende und Bewerber müssen darüber hinaus informiert werden, welche Daten die KI nutzt, zu welchem Zweck sie verarbeitet werden und welche Auswirkungen dies auf das Verfahren hat. Diese Transparenzpflichten gelten dabei gleichermaßen für Bewerbungsprozesse wie für das laufende Arbeitsverhältnis (vgl. Art. 13 DSGVO).
Darüber hinaus greift das Verbot automatisierter Einzelfallentscheidungen nach Art. 22 Abs. 1 DSGVO. Danach dürfen rechtlich relevante Entscheidungen nicht vollständig automatisiert erfolgen. KI-Tools dürfen den Entscheidungsprozess lediglich unterstützen, die finale Entscheidung muss jedoch stets von einer verantwortlichen Person getroffen werden.
Pflichten und Verantwortlichkeiten für Unternehmen
Auf Basis dieser rechtlichen Vorgaben ergeben sich für Unternehmen konkrete Pflichten, die bei der Nutzung von KI im Arbeitskontext umgesetzt werden müssen.
Wird KI als Arbeitsmittel eingesetzt, ist regelmäßig zu prüfen, ob der Betriebsrat nach § 87 Abs. 1 Nr. 6 BetrVG beteiligt werden muss. Um das Mitbestimmungsrecht auszulösen, reicht entgegen dem Wortlaut der Norm bereits die objektive Eignung zur Überwachung, sodass im Unternehmen eingesetzte KI-Tools regelmäßig der Mitbestimmungspflicht unterfallen können.
Der Einsatz von KI-Anwendungen kann unter Umständen zudem als wesentliche Veränderung der Betriebsanlagen nach § 111 S. 3 Nr. 4 BetrVG gelten. Dies ist dann der Fall, wenn entweder eine grundsätzlich neue Arbeitsmethode eingeführt wird oder die organisatorischen Auswirkungen des KI-Systems eine wesentliche Veränderung der Betriebsorganisation darstellen.
Unabhängig davon können spezielle Beteiligungsrechte für KI-Tools bestehen, wie in § 95 Abs. 2a BetrVG. Zum einen kann dem Betriebsrat ein Unterrichtungsrecht über den Einsatz der KI zu, zum anderen steht es ihm nach § 80 Abs. 3 S. 2 BetrVG offen, zur Beurteilung der Einführung und Nutzung einen Sachverständigen hinzuziehen.
Eingang in betriebliche Abläufe finden auch Large Language Models (LLMs) wie ChatGPT, Google Gemini oder Microsoft Copilot. Mitarbeiter nutzen sie zur Texterstellung, Recherche, Automatisierung administrativer Aufgaben oder als Assistenz im Arbeitsalltag. Aus arbeitsrechtlicher Sicht sollten Arbeitgeber klare Vorgaben für den Einsatz von LLMs schaffen, insbesondere hinsichtlich Vertraulichkeit und Datenschutz. Da LLMs oftmals externe Server nutzen, besteht die Gefahr, dass personenbezogene oder vertrauliche Unternehmensdaten unzulässig verarbeitet werden. Eine Weitergabe solcher Daten an LLMs kann ohne geeignete Maßnahmen gegen datenschutzrechtliche Vorgaben verstoßen. Zudem können LLMs Fehler enthalten oder unvollständig sein. Entscheidungen bedürfen daher immer einer qualifizierten menschlichen Kontrolle, um Fehleinschätzungen zu vermeiden.
Fazit und Ausblick
KI bietet im Arbeitsalltag erhebliche Chancen: effizientere Arbeit, schnellere Bewerbungsprozesse, objektivere Auswahlentscheidungen, bessere Dokumentation und effizientere HR-Abläufe. Der Einsatz von KI kann die Produktivität der Beschäftigten erhöhen, indem Routinetätigkeiten reduziert und Arbeitsabläufe strukturiert unterstützt werden. Mitarbeitende gewinnen dadurch mehr Zeit für inhaltlich anspruchsvollere Aufgaben und können ihre Ressourcen zielgerichteter einsetzen. Dabei ist entscheidend, dass die finale Verantwortung stets beim Menschen liegt: Entscheidungen, die auf KI-Ergebnissen basieren, müssen qualifiziert überprüft werden, um Fehler und Fehleinschätzungen zu vermeiden.
Darüber hinaus sollte KI stets verantwortlich und transparent eingesetzt werden. Arbeitgeber, die frühzeitig klare Regeln festlegen, Risiken prüfen und die Systeme nachvollziehbar gestalten, können die Potenziale von KI nutzen, ohne in rechtliche Schwierigkeiten zu geraten.
Die KI-Verordnung schafft den rechtlichen Rahmen. Entscheidend ist, wie Unternehmen diesen in die Praxis umsetzen, um den Umgang mit KI effizient, rechtssicher und vertrauensvoll zu gestalten.
Für weitere Informationen stehen wir Ihnen jederzeit zur Verfügung –wir unterstützen und beraten Sie gern!
