Einleitung
Die Einführung digitaler Technologien am Arbeitsplatz, einschließlich solcher, die auf künstlicher Intelligenz (KI) basieren, bringt innovative Entwicklungen, aber auch Herausforderungen und Risiken für die Sicherheit, die Gesundheit und das Wohlbefinden der Beschäftigten mit sich. Aufbauend auf ihrer vorausschauenden Arbeit initiierte die Europäische Agentur für Sicherheit und Gesundheitsschutz am Arbeitsplatz (EU-OSHA) im Jahr 2020 ein vierjähriges Forschungsprogramm zur Digitalisierung und zu Sicherheit und Gesundheit bei der Arbeit mit dem Ziel, eine evidenzbasierte Politikgestaltung zu unterstützen, indem sie tiefere Einblicke in die Auswirkungen der Digitalisierung auf die Gesundheit, die Sicherheit und das Wohlbefinden der Beschäftigten und deren Bewältigung auf der Ebene der Forschung, der Politik und der Praxis gewährt sowie Beispiele für erfolgreiche Praktiken beschreibt. In diesem Bericht werden die Ergebnisse des EU-OSHA-Projekts zu neuen Formen des Personalmanagements durch KI-basierte Systeme (AI-based worker management, AIWM) und zu Sicherheit und Gesundheit bei der Arbeit vorgestellt. Ziel des Projekts war es, Lücken, Bedürfnisse und Prioritäten im Bereich Sicherheit und Gesundheit bei der Arbeit zu ermitteln und Empfehlungen für Politik, Forschung und Praxis abzugeben, um die Entscheidungsfindung zu unterstützen, die auf einem hochrangigen Workshop zum Abschluss des Projekts diskutiert wurde. Ein separater Bericht (EU-OSHA, 2022a) gibt einen Überblick über die Auswirkungen des Einsatzes KI-gestützter Personalmanagementsysteme auf die Sicherheit und die Gesundheit bei der Arbeit. Die Untersuchung basierte auf einer umfassenden Literaturrecherche, ausführlichen Interviews mit 22 Experten auf diesem Gebiet, Konsultationen mit den nationalen Focal Points1 der EU-OSHA und statistischen Datenanalysen, einschließlich der Analyse von Daten aus der Europäischen Unternehmenserhebung der EU-OSHA über neue und aufkommende Risiken (ESENER-3).
Definition von AIWM
Nach Richman (2015) und Koontz und O‘Donnell (1955) bezeichnet das Personalmanagement einen Prozess der Überwachung und Steuerung von Beschäftigten, um unternehmerische Ziele wie die Steigerung von Produktivität und Effizienz, die Verringerung der Arbeitnehmerfluktuation und die Sicherstellung der Gesundheit und Sicherheit der Beschäftigten besser zu erreichen. Es handelt sich um einen Prozess der Organisation des Personals, der die Überwachung, Beobachtung, Kontrolle sowie Belohnungs- und Bestrafungssysteme für die Beschäftigten umfassen kann. Die Wurzeln des modernen systematischen Personalmanagements, bei dem das Personal nicht mehr ad hoc, sondern nach Leitlinien oder Plänen verwaltet wird, lassen sich bis ins späte 18. Jahrhundert zurückverfolgen, als die industrielle Revolution und die Verlagerung der Arbeit von der Landwirtschaft in die Produktion einsetzten (Deadrick, 2014). Von den Anfängen an entwickelte sich das Personalmanagement zu einer Wissenschaft, die darauf abzielt, die Effizienz der Beschäftigten zu verbessern, ohne ihre Gesundheit, Sicherheit oder ihr Wohlbefinden zu gefährden. Eine der größten Veränderungen im Personalmanagement fand mit der Einführung von persönlichen Computern am Arbeitsplatz statt, die es den Unternehmen ermöglichten, ihre Beschäftigten in größerem Umfang zu kontrollieren, zu steuern, zu beobachten und zu überwachen. Manche sind der Ansicht, dass jetzt mit dem zunehmenden Einsatz von KI-Werkzeugen am Arbeitsplatz ein ähnlicher Umbruch stattfindet.
Obwohl das Konzept der KI heutzutage von vielen Wissenschaftler:innen, Geschäftsleuten, Journalisten und Unternehmen verwendet (und missbraucht) wird, gibt es keine einheitliche und allgemein akzeptierte Definition von KI (De Mauro, 2015; OECD, 2019; Wang, 2019). Einige definieren sie ganz allgemein als ein Werkzeug, das versucht, die menschliche Intelligenz zu imitieren (Fjelland, 2020). Andere gehen einen eher technischen Weg, wie die hochrangige Expertengruppe der Europäischen Kommission für künstliche Intelligenz (2019a). Daher verwenden wir in diesem Projekt eine der aktuellsten Definitionen aus dem Vorschlag der Europäischen Kommission zur Regulierung von KI (Europäische Kommission, 2021), deren Ziel es ist, „so technologieneutral und zukunftstauglich wie möglich zu sein“ (Europäische Kommission, 2021, S. 14). Dem Vorschlag zufolge (Europäische Kommission, 2021, S. 46) bezeichnet:
„System der künstlichen Intelligenz“ (KI-System) eine Software, die mit einer oder mehreren der in Anhang I [dieses Vorschlags] aufgeführten Techniken und Konzepte entwickelt worden ist und im Hinblick auf eine Reihe von Zielen, die vom Menschen festgelegt werden, Ergebnisse wie Inhalte, Vorhersagen, Empfehlungen oder Entscheidungen hervorbringen kann, die das Umfeld beeinflussen, mit dem sie interagieren.“
Zu den relevanten Technologien und Ansätzen gehören unter anderem, aber nicht ausschließlich, maschinelles Lernen, logik- und wissensgestützte Konzepte sowie einige statistische Ansätze (Europäische Kommission, 2021). Weitere Informationen finden Sie in Anhang I des Vorschlags zur Regulierung von KI (Europäische Kommission, 2021).
Vor etwa einem Jahrzehnt begann man, KI für das Personalmanagement zu nutzen.
Auf der Grundlage von Untersuchungen der Europäischen Kommission (2021), des Wissenschaftlichen Dienstes des Europäischen Parlaments (2020a), der hochrangigen Expertengruppe für künstliche Intelligenz (2019a) und der EU-OSHA (2019) ist das auf künstlicher Intelligenz (KI) basierende Personalmanagement (AIWM) ein Oberbegriff, der sich auf ein Personalmanagementsystem bezieht, das – häufig in Echtzeit – Daten über den Arbeitsplatz, die Beschäftigten, die von ihnen ausgeführte Arbeit und die von ihnen für ihre Arbeit verwendeten (digitalen) Werkzeuge erfasst und diese Daten dann in ein KI-basiertes Modell einspeist, das automatisierte oder halbautomatische Entscheidungen trifft oder den Entscheidungsträgern Informationen zu Fragen des Personalmanagements liefert. Dies ist eine der jüngsten Entwicklungen am Arbeitsplatz, die Chancen, aber auch Risiken und Herausforderungen für die Sicherheit und Gesundheit der Beschäftigten mit sich bringt.
Zu diesen Entscheidungen und Empfehlungen können unter anderem auch die Festlegung von Arbeitsschichten und/oder die Zuweisung von Aufgaben, die Bewertung der Leistung von Beschäftigten, die Überwachung ihrer Tätigkeiten und die Abgabe von Empfehlungen zur Vermeidung von Gesundheitsrisiken gehören. Mit AIWM-Systemen möchten Unternehmen in der Regel einige ihrer Tätigkeiten automatisieren sowie die Leistung und das Engagement der Beschäftigten (EU-OSHA, 2019; PwC, 2017), die Arbeitsorganisation und Aufgabenverteilung, das Personalmanagement (Lane und Saint-Martin, 2021) sowie die Gesundheit und Sicherheit der Beschäftigten und ihr allgemeines Wohlbefinden (Badri et al., 2018) verbessern. AIWM ist ein Oberbegriff, der auch ein algorithmisches Management umfasst, das ebenfalls durch den Einsatz von Algorithmen zur Zuweisung, Überwachung und Bewertung von Arbeitsaufgaben und/oder zur Überwachung und Bewertung des Verhaltens und der Leistung von Beschäftigten durch digitale Technologien und die (halb-)automatische Umsetzung von Entscheidungen gekennzeichnet ist (Bérastégui, 2021; EU-OSHA, 2017; Kellogg et al., 2020; Mateescu und Nguyen, 2019).
Das Personalmanagement umfasst im Allgemeinen Mechanismen zur Kontrolle und Unterstützung von Beschäftigten. Es ist wichtig, darauf hinzuweisen, dass Kontrolle und Unterstützung sich nicht gegenseitig ausschließen, da viele Unternehmen oft beides zur Verwaltung des Personals einsetzen. Auf der einen Seite besteht nach Kellogg et al. (2020) das algorithmische Management (und damit auch das AIWM) – ähnlich wie jedes nicht auf dem Einsatz von KI basierende Personalmanagementsystem – aus drei Mechanismen zur Kontrolle der Beschäftigten – Führung, Bewertung und Disziplin –, die sich in sechs Untermechanismen aufteilen lassen, das sogenannte „6R“-Modell, das vollständig oder teilweise automatisiert werden kann:
- Führung – Festlegung, was in welcher Reihenfolge und in welchem Zeitraum und mit unterschiedlichem Genauigkeitsgrad ausgeführt werden muss (Kellogg et al., 2020, S. 372). Die Führung des Personals wird durch Empfehlungen implementiert – die den Beschäftigten in verschiedenen Situationen Handlungsmöglichkeiten vorschlagen – und Einschränkungen – die nur bestimmte Informationen mit den Beschäftigten teilen oder bestimmte Verhaltensweisen einschränken.
- Bewertung – „beinhaltet die Überprüfung der Beschäftigten, um Fehler zu korrigieren, die Leistung zu bewerten und diejenigen zu identifizieren, die nicht angemessen arbeiten“ (Kellogg et al., 2020, S. 369). Die Bewertung umfasst die Erfassung der Beschäftigten – die Überwachung/Untersuchung der Leistung, des Wohlbefindens und der Sicherheit der Beschäftigten – und die Bewertung – die Beurteilung der Leistung der Beschäftigten sowie die Vorhersage ihrer zukünftigen Leistung.
- Disziplin – „umfasst die Bestrafung und Belohnung von Beschäftigten, um die Zusammenarbeit zu fördern und die Einhaltung der von den Arbeitgeber:innen vorgegebenen Arbeitsabläufe durchzusetzen“ (Kellogg et al., 2020, S. 369). Dazu gehört die Ersetzung leistungsschwacher Beschäftigter und die Belohnung leistungsstarker Beschäftigter.
Andererseits umfasst das Personalmanagement und damit auch das AIWM, auch eine Vielzahl an Unterstützungsmechanismen (Browne, 2017). Dazu kann beispielsweise die Unterstützung der Beschäftigten bei der effizienteren Erfüllung ihrer Aufgaben durch verbesserte Kommunikation und Zusammenarbeit zwischen den Beschäftigten untereinander gehören (Publicis Groupe, 2018). Es umfasst auch Ansätze, die darauf abzielen, Konflikte, Mobbing und Favoritismus am Arbeitsplatz zu verhindern, z. B. durch Instrumente zur Erkennung von emotionalem Stress, was wiederum das Engagement der Beschäftigten und damit die Produktivität steigern könnte (Belton, 2019).
Nutzung des KI-basierten Personalmanagements
Das KI-basierte Personalmanagement (AIWM) umfasst eine Vielzahl an Werkzeugen, Techniken und Praktiken, was eine Analyse seiner Nutzung erschwert, zumal es keine einzige Datenbank gibt, die diese misst. Außerdem wissen einige Unternehmen möglicherweise nicht genau, welche Art von KI-Instrumenten sie verwenden oder ob die von ihnen verwendeten Instrumente überhaupt KI-basiert sind, insbesondere, wenn sie sie von Dritten kaufen oder mieten (Tambe et al., 2019). Andere Unternehmen sind möglicherweise auch nicht bereit, den Einsatz von AIWM-Systemen offen zu diskutieren (Chamorro-Premuzic, 2020). Aus diesem Grund kann der Einsatz von AIWM in erster Linie nur aus der Implementierung verschiedener KI-basierter oder KI-verwandter Technologien abgeleitet werden, die Unternehmen möglicherweise für das Personalmanagement einsetzen.
Sicher ist, dass der Einsatz von KI-Technologien in Unternehmen zunimmt (Juniper, 2021; Oracle, 2019), auch wenn in den verfügbaren Studien keine Einigkeit darüber besteht, wie viele Unternehmen derzeit KI verwenden. Laut McKinsey (2020, S. 2) haben beispielsweise im Jahr 2019 rund 58 % von 2 395 befragten Unternehmen weltweit KI in mindestens einem Bereich ihres Unternehmens eingesetzt, einschließlich im Personalmanagement. In ähnlicher Weise gaben laut einer Oracle-Studie (2019, S. 3) rund 50 % der 8 370 Personalleiter, Manager und Beschäftigten in zehn Ländern, die zu ihren Einstellungen und Verhaltensweisen in Bezug auf KI befragt wurden, an, dass sie im Jahr 2019 KI in irgendeiner Form bei ihrer Arbeit eingesetzt haben.
Laut Juniper Networks (2021, S. 3) nutzen jedoch nur 22 % der Unternehmen tatsächlich KI-Systeme, obwohl 95 % der befragten 700 Personen mit direkter Beteiligung an Plänen ihres Unternehmens im Bereich KI und maschinelles Lernen oder an deren Einsatz über verschiedene Ebenen und Branchen hinweg angeben, dass sie von der Integration von KI in ihre tägliche Arbeit profitieren würden. Auch mehrere befragte akademische KI-Experten wiesen darauf hin, dass, auch wenn einige Statistiken auf einen relativ weit verbreiteten Einsatz hindeuten, in Wirklichkeit die Mehrheit der Unternehmen einfache Algorithmen verwendet und eine Verwechslung mit KI vorliegt. Ähnlich äußerte sich ein befragter Unternehmensvertreter, der erklärte, dass KI nicht so häufig von Unternehmen eingesetzt werde und dass die Erstanwender nicht Unternehmen aus bestimmten Branchen oder Unternehmen eines bestimmten Typs sein werden, sondern diejenigen, die am innovativsten sind.
Was die Verbreitung solcher Systeme in den verschiedenen Wirtschaftszweigen angeht, so werden AIWM-Systeme Interviews zufolge stärker von Unternehmen aus Branchen genutzt, die manuell arbeiten und eine relativ große Anzahl von Routineaufgaben in einem relativ kontrollierten Umfeld ausführen. Die befragten Experten heben insbesondere die Logistik, das verarbeitende Gewerbe, das Transportwesen und das Gesundheitswesen als diejenigen hervor, die solche Systeme zuerst einführen sollten. Auch gemäß der wissenschaftlichen Literatur werden AIWM-Systeme häufiger bei Beschäftigten eingesetzt, die viele Routineaufgaben haben und daher leicht überwacht, bewertet und verwaltet werden können (Dzieza, 2020). In der Literatur wird jedoch auch darauf hingewiesen, dass der Einsatz solcher Werkzeuge auch bei geringer qualifizierten Angestellten, wie z. B. bei Beschäftigten in Callcentern, verbreitet ist, deren Arbeit ebenfalls recht routinemäßig ist (Mateescu und Nguyen, 2019). Diese Ergebnisse werden auch durch die ESENER-3-Daten gestützt, wonach Arbeitsplätze in Branchen mit manuellen Tätigkeiten wie Landwirtschaft, Bergbau und Gewinnung von Steinen und Erden sowie im verarbeitenden Gewerbe tendenziell häufiger Technologien einsetzen, die AIWM ermöglichen. Rund 23 % der Unternehmen im verarbeitenden Gewerbe setzen Maschinen, Systeme oder Computer ein, um die Leistung der Beschäftigten zu überwachen, während dies nur rund 14 % der Unternehmen in der Informations- und Kommunikationsbranche und 11 % in der Finanz- und Versicherungsbranche tun.
Laut ESENER-3 und akademischer Literatur nutzen größere Unternehmen Technologien, die AIWM-Systeme ermöglichen, eher als kleinere Unternehmen (siehe Eurofound, 2020b; Mateescu und Nguyen, 2019; Wujciak, 2019). So nutzen beispielsweise rund 6 % der Organisationen in der EU mit fünf bis neun Beschäftigten Systeme zur Überwachung der Leistung von Beschäftigten, verglichen mit 19 % der Organisationen mit mehr als 250 Beschäftigten. Wie aus den ESENER-3-Daten hervorgeht, nutzen Unternehmen mit einer Art Arbeitnehmervertretung häufiger Technologien, die AIWM ermöglichen, als Organisationen, die keine Arbeitnehmervertretung haben. Dies lässt sich dadurch erklären, dass größere Unternehmen mit mehr Beschäftigten mit größerer Wahrscheinlichkeit einen Arbeitnehmervertreter haben. Schließlich nutzen private und öffentliche Organisationen die oben genannten Technologien, die AIWM ermöglichen, in ähnlichem Umfang. So setzen beispielsweise rund 12 % der privaten Organisationen in der EU-27 (2020) Maschinen, Systeme oder Computer ein, um den Inhalt oder das Tempo der Arbeit zu bestimmen, verglichen mit 8 % im öffentlichen Sektor, während rund 9 % der privaten Organisationen Systeme zur Überwachung der Leistung der Beschäftigten einsetzen, verglichen mit rund 6 % im öffentlichen Sektor.
Ziele des Einsatzes von
AIWM-Systemen
Unternehmen setzen Veränderungen um, einschließlich der Einführung von AIWM-Systemen, um Geschäftsziele zu erreichen (Kellogg et al., 2020; Mateescu und Nguyen, 2019; PEGA, 2020). AIWM wird im Wesentlichen auf drei verschiedene Arten umgesetzt. Erstens kann AIWM eingesetzt werden, um die Effizienz und/oder Produktivität der Beschäftigten zu steigern. So können beispielsweise die Kosten durch die Automatisierung der Zeitplanung und Aufgabenzuweisung gesteuert werden (Kronos, 2018). Eine solche Automatisierung kommt den Unternehmen durch Kosteneinsparungen zugute, sie kann aber auch den Beschäftigten zugutekommen, da diese ihre Schichten ändern können, ohne sich direkt an Manager wenden zu müssen und/oder bereitwillige Kollegen finden zu müssen, die ihre Schicht übernehmen (Brione, 2020; O‘Connor, 2016). Unternehmen können auch versuchen, die Produktivität und Effizienz durch Spielifizierung zu steigern (Eurofound, 2020a; Heaven, 2020). Spielifizierung bezieht sich darauf, dass Ideen und Konzepte aus Spielen, wie z. B. Belohnungen für Meilensteine, in die Arbeitsumgebung eingebracht werden, um die Effizienz und Produktivität zu steigern (Savignac, 2019). Dadurch können die Zusammenarbeit und die Interaktion zwischen Teams gefördert, Stress reduziert und die allgemeine Zufriedenheit der Beschäftigten am Arbeitsplatz gesteigert werden (Makanawala et al., 2013). AIWM kann die Spielifizierung unterstützen, indem es personalisierte Belohnungen für jeden Beschäftigten vorschlägt, die ihm den größten Nutzen bringen würden. Darüber hinaus können AIWM-Systeme zur Steigerung von Effizienz und Produktivität eingesetzt werden, indem sie den Beschäftigten Orientierung und Anleitung bieten (Eurofound, 2020b; Wissenschaftlicher Dienst des Europäischen Parlaments, 2020; Kellogg et al., 2020; Wujciak, 2019). Dies umfasst sowohl das Abgeben von Empfehlungen – oft in Echtzeit –, im Hinblick darauf, was Beschäftigte tun sollten, als auch, sie von unerwünschten Handlungen abzuhalten (Kellogg et al., 2020).
AIWM-Systeme können auch eingesetzt werden, um den Prozess der Entscheidungsfindung im Unternehmen zu verbessern. So können Unternehmen beispielsweise Analysen von Menschen oder der Arbeitskraft einsetzen, die digitale Werkzeuge und Daten nutzen, um die Leistung der Beschäftigten zu messen, zu melden und zu verstehen (Collins et al., 2019, S. 98). Sie befassen sich mit Fragen im Zusammenhang mit der Beurteilung von Beschäftigten, der Einstellung, der Beförderung und der Karriereentwicklung, um zu ermitteln, wann Menschen wahrscheinlich ihren Arbeitsplatz verlassen, um künftige Führungskräfte auszuwählen und um nach Mustern in den Daten von Beschäftigten zu suchen, die dabei helfen können, Tendenzen in Bezug auf Anwesenheit, Arbeitsmoral und Gesundheitsprobleme auf Organisationsebene zu erkennen (Moore, 2019). Die Entscheidungsfindung kann auch durch KI-gestützte Prognosemodelle verbessert werden. Prognosemodelle, die verschiedene Faktoren im Zusammenhang mit Beschäftigten vorhersagen, wie z. B. solche, die für die Personalanalyse verwendet werden, werden häufig verwendet, um vorherzusagen, wer aus dem Personal mit der größten Wahrscheinlichkeit bald das Unternehmen verlassen wird und daher mehr Aufmerksamkeit von den Managern erhalten sollte (Punnoose und Ajit, 2016). Darüber hinaus setzen einige Unternehmen wie IBM ihren Supercomputer Watson ein, um Empfehlungen für Maßnahmen zu erhalten, die ergriffen werden können, um das Ausscheiden von Beschäftigten zu verhindern (Fisher, 2019).
Unternehmen können sich für den Einsatz von AIWM entscheiden, um die Gesundheit, die Sicherheit und/oder das Wohlbefinden der Beschäftigten zu verbessern. Die Einbindung solcher Systeme wird häufig durch die Notwendigkeit der Einhaltung von Vorschriften vorangetrieben (Zwetsloot, 2014), sie können von der Unternehmensleitung aber auch eingeführt werden, um die Produktivität und Effizienz der Beschäftigten zu verbessern, da gesunde und zufriedene Beschäftigte oft bessere Leistungen erbringen (Browne, 2017). Die meisten AIWM-Systeme, die zur Sicherstellung einer gesunden Belegschaft beitragen können, können Daten über die Beschäftigten und das Arbeitsumfeld erfassen, um Risiken für die Gesundheit, die Sicherheit und das Wohlbefinden der Beschäftigten zu ermitteln und dazu beizutragen, diese zu mindern (Belton, 2019; Till, 2016). Einige Unternehmen setzen beispielsweise Überwachungsgeräte ein, die die biometrischen Daten der Beschäftigten messen, um sicherzustellen, dass sie nicht übermüdet sind (Gianatti, 2020), was sich negativ auf ihre Arbeitsleistung auswirken und die Wahrscheinlichkeit von Unfällen erhöhen könnte (EU-OSHA, 2019). Neben den überwachungsorientierten Systemen gibt es auch mehrere proaktivere, auf das Wohlbefinden ausgerichtete Systeme, z. B. solche, die die Beschäftigten bei der Verbesserung ihres emotionalen Wohlbefindens unterstützen, was mit einer höheren Produktivität der Beschäftigten verbunden ist (Oracle und Workplace Intelligence, 2020). Ein Beispiel für solche KI-gestützten Instrumente sind Chatbots für psychische Gesundheit – Software-Roboter, die von Beschäftigten zur Kommunikation über ihre psychische Gesundheit genutzt werden können. Chatbots für psychische Gesundheit analysieren die Kommunikationsmuster von Beschäftigten und schätzen die Wahrscheinlichkeit verschiedener psychosozialer Probleme, wie z. B. seelisches Leiden, ein (Cameron et al., 2017; Oracle und Workplace Intelligence, 2020; Zel und Kongar, 2020).
Risiken der Anwendung eines
KI-gestützten Personalmanagements
Das AIWM, das eine KI-gestützte Entscheidungsfindung erleichtert, birgt, wenn es nicht vertrauensvoll und ethisch einwandfrei umgesetzt wird, wie im nächsten Abschnitt erörtert, häufig die Gefahr, dass Beschäftigte entmenschlicht und auf ein Verhalten wie Maschinen reduziert werden (Heaven, 2020; Moore, 2018; Wujciak, 2019). Insbesondere kann die Entscheidungsfähigkeit der Beschäftigten durch Nudging-Praktiken, die auf ihren persönlichen Daten beruhen und manipulativ und ethisch fragwürdig sein können, verdeckt untergraben werden (Gal et al., 2020). Darüber hinaus besteht die Gefahr, dass Beschäftigte objektiviert und wie Waren behandelt werden, wenn die Überwachung die Arbeit in eine Reihe von Datenpunkten verwandelt und den Beschäftigten die Freiheit nimmt, Entscheidungen zu treffen oder eine Persönlichkeit oder Gefühle zu haben (Colclough, 2020). Dies ist besonders problematisch bei Überwachungspraktiken, die in die Privatsphäre der Beschäftigten eindringen, was sich negativ auf ihr kreatives Denken auswirkt und ihre Unabhängigkeit im Denken einschränkt (Oliver, 2002). Diese Entmenschlichung kann als „Datafizierung“ des Arbeitsplatzes bezeichnet werden, wobei die Beschäftigten nicht als Lebewesen, sondern als Ansammlung objektiver digitaler Daten behandelt werden, die sie bei ihrer Arbeit produziert haben (Mai, 2016). Eine solche Wahrnehmung von Beschäftigten bedroht ihr Recht auf Freiheit als vernünftige und selbstbestimmte Akteure, die Entscheidungen in Übereinstimmung mit ihrem eigenen Verständnis und ihren eigenen Werten und Ansichten treffen können.
Unternehmen sowie Entwickler von AIWM-Systemen legen außerdem häufig nicht transparent offen, ob sie AIWM-Werkzeuge einsetzen und wie das Ganze funktioniert. Oft sind sich die Beschäftigten auch nicht dessen bewusst, dass sie überwacht werden oder dass ein Algorithmus und nicht ein Mensch ihre Leistung automatisch bewertet (AlgorithmWatch, 2019), obwohl dies in der Datenschutz-Grundverordnung der EU (DSGVO) ausdrücklich verboten ist. Dies könnte zu Problemen in Bezug auf Datenschutz und Privatsphäre führen. Algorithmusbasierte Praktiken im Personalmanagement können genauer gesagt in hohem Maße invasiv und in die Privatsphäre eingreifend sein (De Stefano, 2020) und ein Ungleichgewicht von Beruf und Privatleben schaffen, da die Beschäftigten auch in ihrer „freien“ Zeit „immer beobachtet“ werden (Eurofound, 2020a) und somit die Rechte der Menschen auf Privatsphäre verletzen, was sich auf die Menschenwürde auswirken könnte (Access Now, 2018).
Darüber hinaus kann das Gefühl, beobachtet zu werden, dazu führen, dass sich Beschäftigte unnatürlich verhalten, indem sie beispielsweise gezwungen werden, immer zu lächeln oder ihre wahren Gefühle, ihre Persönlichkeit oder ihre Vorlieben zu unterdrücken, um dem Algorithmus zu „gefallen“.
Ein umfassender Einsatz von AIWM-Systemen könnte auch das Arbeitstempo und den Leistungsdruck erhöhen (Felstead et al., 2019). Eine Möglichkeit, wie KI dies bewirken kann, sind Echtzeit-Empfehlungen und Anweisungen für Beschäftigte, wie sie ihre Arbeit erledigen sollen, wodurch auch Druck auf die Beschäftigten ausgeübt werden könnte, schneller zu arbeiten, was zu mehr arbeitsbedingtem Stress, negativen Auswirkungen auf die körperliche Gesundheit und Unfällen führt (Moore, 2018). So haben beispielsweise einige Beschäftigte von Amazon berichtet, dass sie aufgrund von Schwindel wegen des von einem Algorithmus vorgegebenen intensiven Arbeitstempos in Ohnmacht gefallen sind (Wujciak, 2019). Instrumente für die KI-gestützte Leistungsüberwachung könnten auch für Zusteller, Taxifahrer und andere Personen, die mit Fahrzeugen arbeiten, einen Anreiz bieten, schneller zu fahren als sicher ist, da sie dann besser bewertet werden, was aber wiederum zu mehr Verkehrsunfällen führen kann (Moore, 2018).
AIWM und algorithmische Managementsysteme könnten darüber hinaus Vorurteile, die in Unternehmen bestehen, eher verschärfen als eindämmen, wie dies der Fall ist, wenn ein KI-basiertes System beispielsweise auf der Grundlage von verzerrten Daten bei der Einstellung trainiert wird (Fernández-Martínez und Fernández, 2020). Mit anderen Worten: Obwohl ein großer Teil der Menschen die KI-gestützte Entscheidungsfindung als objektiver wahrnimmt als die menschliche Entscheidungsfindung, da sie auf ausgefeilten Konzepten und großen Datenmengen basiert (Amoore und Piotukh, 2015; Ziewitz, 2015), können solche Konzepte, die häufig aus Daten lernen und sich weiterentwickeln, in Wirklichkeit die Voreingenommenheit und die Ansichten der Menschen, die sie entwickelt haben oder die Daten, auf denen sie trainiert wurden, verstärken (EU-OSHA, 2019; Deobald et al., 2019; World Economic Forum, 2018).
Regulatorischer Rahmen
Um die möglichen negativen Auswirkungen von AIWM auf die Sicherheit und die Gesundheit bei der Arbeit abzumildern, ist eine starke regulatorische Grundlage zur Kontrolle unerlässlich.
Auf EU-Ebene gibt es bereits einige Regelungen, die dazu beitragen, die möglichen negativen Auswirkungen von AIWM zu beheben. Erstens gilt der EU-Besitzstand im Bereich Gesundheit und Sicherheit bei der Arbeit2, auch wenn er sich nicht direkt auf AIWM oder algorithmisches Management bezieht, implizit für die vom AIWM ausgehenden Risiken im Bereich Sicherheit und Gesundheit bei der Arbeit. So sieht beispielsweise die Richtlinie 2002/14/EG – Unterrichtung und Anhörung der Arbeitnehmer:innen3 – vor, dass die Beschäftigten in größeren Unternehmen4 bei Entscheidungen, die zu wesentlichen Veränderungen im Unternehmen führen könnten, angehört oder unterrichtet werden sollten. Da die Einführung von KI-basierten Werkzeugen zu solchen weitreichenden Veränderungen führen könnte, ist es daher notwendig, dass die Arbeitgeber:innen diese Veränderungen den Beschäftigten mitteilen oder diese idealerweise mit ihnen erörtern. Zweitens befasst sich die DSGVO5 direkt mit den Kernfragen des Schutzes personenbezogener Daten und der automatisierten Entscheidungsfindung, was unmittelbar auf das AIWM anwendbar ist. So räumt Artikel 22 der DSGVO den betroffenen Personen das Recht ein, nicht einer Entscheidung unterworfen zu werden, die „ausschließlich“ auf der automatisierten Verarbeitung personenbezogener Daten beruht, wenn die Entscheidung erhebliche rechtliche Folgen für die betroffene Person hat oder sie „in ähnlicher Weise erheblich beeinträchtigt“, was Fragen im Zusammenhang mit Sicherheit und Gesundheit bei der Arbeit einschließen könnte. Es wird erwartet, dass eine solche Bestimmung die Beschäftigten stärkt, indem ihnen das Recht gegeben wird, im Namen des Verantwortlichen, der die von einem KI-System automatisch getroffene Entscheidung widerrufen oder überdenken könnte, ein menschliches Eingreifen zu verlangen. Schließlich wird durch die Charta der Grundrechte der Europäischen Union, das europäische Antidiskriminierungsrecht, die europäische Menschenrechtskonvention und den allgemeinen Rahmen für die Verwirklichung der Gleichbehandlung in Beschäftigung und Beruf sichergestellt, dass die Menschenrechte in der EU auf höchstem Niveau eingehalten werden und jede direkte oder indirekte Diskriminierung aufgrund von Religion, Behinderung, Alter, sexueller Ausrichtung und anderer Gründen verboten ist. Darüber hinaus hat die Europäische Kommission im April 2021 einen Vorschlag für eine Verordnung zu einem europäischen Ansatz für KI6 ausgearbeitet, der im Falle seiner Annahme die erste EU-weite Verordnung speziell für KI wäre, die auch bestimmte AIWM-Anwendungen und -Risiken abdeckt. Die vorgeschlagene Verordnung zielt darauf ab, für einen sicheren Einsatz von KI-Systemen zu sorgen, indem einige von ihnen verboten werden, während andere als hochriskant eingestuft werden und mehr Sicherheitsvorkehrungen für den Entwurf, die Entwicklung und den Einsatz solcher Systeme gefordert werden. Zu den Systemen mit hohem Risiko, die für das AIWM relevant sind, gehören KI-Systeme, die bei der Einstellung, bei Entscheidungen über Beförderungen und Kündigungen von Beschäftigten, bei der Aufgabenzuweisung und bei der Überwachung und Bewertung der Leistung und des Verhaltens von Personen in solchen Beziehungen eingesetzt werden. Auch wenn diese Verordnung recht umfassend ist, haben viele Wissenschaftler:innen hervorgehoben, dass sie noch viele Lücken aufweist. Dazu gehört unter anderem, dass die Verordnung nicht Gegenstand des sozialen Dialogs ist und dass die Beschäftigten und ihre Vertreter im Allgemeinen nicht zu Wort kommen sowie das Fehlen klarer Bestimmungen zur Zuweisung der Haftung (Anbieter oder Nutzer); Das Fehlen der anschließenden Rechtsmittel gegen die haftbare Partei ist ein weiterer Mangel des Vorschlags (De Stefano, 2021; Ponce del Castillo, 2021).
Auf Ebene der Mitgliedstaaten sind bereits einige Vorschriften vorhanden, die sich auf KI beziehen. In vielen Fällen haben diese jedoch ein breites Anwendungsspektrum und konzentrieren sich nicht spezifisch auf AIWM und dessen Auswirkungen auf die Sicherheit und Gesundheit bei der Arbeit. So haben beispielsweise mindestens 20 von 27 EU-Mitgliedstaaten, wie auch Norwegen und die Schweiz, KI-Strategien angenommen. Ein Großteil dieser Strategien ist aber eher allgemein gehalten und beinhaltet nur selten Vorschriften, die sich explizit auf KI-Systeme beziehen, welche mit Mitarbeiter:innen interagieren oder sich direkt auf diese auswirken können. Es gibt allerdings Ausnahmen. In der Strategie Künstliche Intelligenz der deutschen Bundesregierung (2018)7 ist zum Beispiel in einer Bestimmung die Einrichtung eines KI-Observatoriums vorgesehen, um in Zusammenarbeit mit Datenschutzbehörden und Wirtschaftsverbänden gemeinsame Leitlinien und Rahmenwerke zu entwickeln, insbesondere für die Verwendung von KI in der Arbeitswelt. Zudem werden in der Strategie mehrere Gesetzesänderungen vorgeschlagen, um Beschäftigte zur Selbstbestimmung zu befähigen, zum Beispiel durch die Sicherstellung ihres Mitbestimmungsrechts und durch das Recht der Betriebsräte, am Prozess der Einführung und Nutzung von KI am Arbeitsplatz beteiligt zu werden. Ebenso werden in der nationalen KI-Strategie Frankreichs8 zwei Schlüsselaktionen vorgeschlagen, die für das AIWM und Sicherheit und Gesundheit bei der Arbeit relevant sind. Zum einen befürwortet sie die Einbeziehung von Mitarbeiter:innen als Betroffene des digitalen Wandels in Vorabgesprächen zur Nutzung von KI am Arbeitsplatz. Zum anderen wird in der Strategie auf eine Gesetzesreform gedrungen, um den Gesamtrahmen zur Regelung der Arbeitsbedingungen im digitalen Zeitalter mit besonderem Fokus auf die steigende Komplementarität von Mensch und Maschine anzupassen. Des Weiteren werden in der nationalen KI-Strategie Tschechiens9 neben anderen Bestimmungen Maßnahmen festgelegt, um den Einfluss von KI auf den Arbeitsmarkt und das System der sozialen Sicherheit anzugehen.
Neben KI-Strategien verfügen einige EU-Länder auch über andere Initiativen, die für das AIWM und dessen Auswirkungen auf Sicherheit und Gesundheit bei der Arbeit relevant sind. So wird zum Beispiel in einem vom Deutschen Gewerkschaftsbund aufgesetzten Konzeptpapier zum Einsatz und zur Verwendung von KI in der deutschen Wirtschaft10 ein sechsstufiger Prozess für den Einsatz von vertrauenswürdiger KI am Arbeitsplatz beschrieben, wobei auf jeder Stufe vor dem Prozess eine Reihe von wesentlichen Fragen zu stellen ist. In Italien hat die nationale Arbeitsaufsichtsbehörde operative Hinweise zur Installation und Verwendung von unterstützenden Instrumenten – einschließlich derjenigen, die auf KI basieren – in Callcentern formuliert, die beschreiben, wie unterschiedliche Instrumente und Softwareprogramme, die für das Personalmanagement genutzt werden können, einschließlich AIWM, in Callcentern zum Einsatz kommen können. In Spanien zielt das sogenannte „Rider-Gesetz“ darauf ab, den Beschäftigungsstatus von Lieferdienstmitarbeitern festzuschreiben und Algorithmustransparenz herzustellen (Aranguiz, 2021), was für andere Berufsgruppen ebenfalls relevant sein könnte. Das Gesetz legt für digitale Plattform-Unternehmen verpflichtend fest, dass sie hinsichtlich der Art und Weise, wie von ihnen verwendete Algorithmen und KI die Arbeitsbedingungen beeinflussen sowie hinsichtlich Profiling, Einstellungs- und Kündigungsentscheidungen Transparenz sicherstellen müssen (Pérez del Prado, 2021).
Verbleibende Lücken und Lösungswege
Obwohl die oben genannten Regulierungsinitiativen eine gute Basis bieten, um die negativen Auswirkungen von AIWM abzumildern, sind nach wie vor Lücken vorhanden. Deshalb wurden auf Grundlage der in den vorherigen Abschnitten vorgestellten Untersuchungsergebnisse einige Empfehlungen formuliert, die genutzt werden können, um die Risiken für die Sicherheit, die Gesundheit und das Wohlbefinden der Mitarbeiter, die mit der Gestaltung und Nutzung von AIWM-Systemen verbunden sind, zu mindern.
Empfehlung 1:
Ausrichtung der Gestaltung, Entwicklung und Nutzung von AIWM-Systemen auf den Menschen, sodass diese zur Unterstützung von Mitarbeitern genutzt werden können, die Kontrolle aber den Menschen überlassen bleibt. Dies würde zudem garantieren, dass menschliches Mitgefühl sowie menschliche Empathie und Fürsorge für Mitarbeiter nicht durch eine computergestützte Entscheidungsfindung ersetzt wird, die ausschließlich versucht, den Gewinn eines Unternehmens zu steigern.
Empfehlung 2:
Sicherstellung von Mitarbeiterbeteiligung und -konsultation sowie des sozialen Dialogs. Mitarbeiter sollten in die Gestaltung, Entwicklung, Testphasen, Ex-ante- und Ex-post-Bewertungen sowie in die Nutzung von KI-basierten Systemen miteinbezogen werden. Die Einbindung von Mitarbeitern in alle Phasen der KI-Entwicklung und -Nutzung wird dazu beitragen, diese Systeme vertrauenswürdig und menschenzentriert zu gestalten und dafür sorgen, dass sie unter menschlicher Kontrolle bleiben. Dies kann auch erreicht werden, indem die gemeinsame Steuerung von AIWM-Systemen durchgesetzt wird, sodass Mitarbeiter bei der Entwicklung, dem Erwerb, der Einführung und der Nutzung von AIWM ein Mitspracherecht erhalten. Dies ist wichtig, um den möglichen Risiken von AIWM auf die Sicherheit und die Gesundheit bei der Arbeit vorzubeugen.
Empfehlung 3:
Die Förderung eines ganzheitlichen Ansatzes bei der Bewertung von AIWM-Systemen beinhaltet, dass unterschiedliche Interessenträger:innen in den Bewertungsprozess miteinbezogen werden und dass sichergestellt wird, dass diese Systeme nicht in einem Vakuum bewertet werden. Dazu gehört auch die Befassung mit den Auswirkungen, die AIWM auf Mitarbeiter und die Gesellschaft insgesamt haben kann. Der Bewertungsprozess sollte zudem dynamisch gestaltet werden und keine einmalige Aktion sein, da sich KI-basierte Systeme aufgrund ihrer Selbstlernfähigkeit weiterentwickeln können, was möglicherweise dazu führt, dass bestimmte Systeme, die in der Vergangenheit als sicher eingestuft wurden, für Mitarbeiter gefährlich werden.
Empfehlung 4:
Verbesserung der Gestaltung, Entwicklung und Nutzung von KI-basierten Systemen, indem die Funktionsweise und der Zweck des AIWM transparent, nachvollziehbar und verständlich gemacht werden. Dies könnte durch die Einführung weiterer verbindlicher Auflagen für AIWM-Anbieter und -entwickler gewährleistet werden, um sicherzustellen, dass die Gesundheit, die Sicherheit und das Wohlbefinden der Mitarbeiter bereits von der Planungsphase an berücksichtigt werden. Dies sollte zudem Hand in Hand mit einer starken Durchsetzungsstrategie erfolgen, um sicherzustellen, dass sich die Unternehmen an die Vorschriften halten.
Empfehlung 5:
Festlegung eindeutiger Zuständigkeiten unter Nennung eines Ansprechpartners, der dafür verantwortlich ist, sicherzustellen, dass ein AIWM-System Mitarbeiter nicht schädigt, nicht gegen das Gesetz verstößt oder fehlerhaft funktioniert. Dies beinhaltet die Einrichtung von Überwachungsmechanismen, Abhilfemaßnahmen zur Abmilderung der negativen Auswirkungen von AIWM und eine Vorgehensweise für den Fall, dass Managern die Verwaltung des AIWM-Systems misslingt. Die Festlegung eindeutiger Zuständigkeiten könnte auch über die einfache Feststellung, dass Arbeitgeber:innen im Allgemeinen für AIWM-Systeme zuständig sind, hinausgehen, indem Unternehmen auferlegt wird, zuständige Manager namentlich aufzuführen.
Empfehlung 6:
Verbesserung der Privatsphäre der Mitarbeiter und des Datenschutzes, indem die Transparenz zur Datenerhebung und -nutzung erhöht wird und bessere Meldemechanismen im Falle einer missbräuchlichen Verwendung von AIWM-Instrumenten eingeführt werden. Insbesondere sollten Mitarbeiter das Recht haben, algorithmische Rückschlüsse zu bearbeiten oder zu blockieren und automatisierten Entscheidungen zu widersprechen. Zudem sollte ihnen vollumfängliche Freiheit gewährt werden, die Erhebung ihrer Daten abzulehnen und zwar durch zusätzliche Vorschriften, mit denen Kündigungen oder jegliche andere negative Maßnahmen gegen Mitarbeiter in diesen Fällen untersagt werden. Dies kann erweitert werden, indem sichergestellt wird, dass Mitarbeiter das Recht auf eine Erklärung für von Algorithmen getroffene Entscheidungen erhalten. Hierzu zählt, welche privaten Daten von dem Algorithmus verwendet wurden, wie diese Daten erhoben wurden und wie die Entscheidung getroffen wurde.
Empfehlung 7:
Sicherstellung des Rechts für Mitarbeiter, nicht erreichbar zu sein. Zusätzlich zu ihrem vorrangigen Ziel, Mitarbeitern das Recht zu garantieren, in ihrer Freizeit nicht erreichbar zu sein, könnte diese Empfehlung auch dazu dienen, die Privatsphäre von Mitarbeitern und den Schutz personenbezogener Daten zu gewährleisten, insbesondere, wenn sie sich auf eine unverhältnismäßige Überwachung und Aufsicht bezieht, die für einen rechtmäßigen Zweck nicht unbedingt notwendig ist.
Empfehlung 8:
Es besteht die Notwendigkeit, Informationen über AIWM und wie es sich auf die Sicherheit und die Gesundheit bei der Arbeit auswirken kann, auszutauschen, zu verbreiten und diesbezüglich ein Bewusstsein zu schaffen. Dies könnte die Einrichtung eines Dialogs relevanter Interessenträger:innen, wie die Vertreter:innen der Beschäftigten, Arbeitgeber:innen, Behörden für Sicherheit und Gesundheit bei der Arbeit, Experten und Entwickler von AIWM-Instrumenten, beinhalten. Der Dialog sollte offen sein, allen Teilnehmern ermöglichen, ihre Meinung zu äußern und sich nicht nur darauf konzentrieren, was kontrolliert, verboten oder abgemildert werden sollte, sondern auch darauf, wie KI-basierte Instrumente ethisch eingesetzt werden können.
Empfehlung 9:
Die Privatsphäre der Beschäftigten und der Datenschutz können ebenfalls gestärkt werden, indem die Kapazitäten der Arbeitsaufsichtsbehörden erhöht werden und die Zusammenarbeit mit nationalen Datenschutzbehörden verbessert wird. Dies beinhaltet die Verbesserung ihrer Kenntnisse über AIWM und wie es sich auf Sicherheit und Gesundheit bei der Arbeit auswirken könnte sowie die Bereitstellung von Instrumenten für Arbeitsaufsichtsbeamte für eine engere Zusammenarbeit mit Datenschutzbeauftragten bei Fragen, die sich darauf beziehen, inwiefern AIWM und ähnliche KI-basierte Systeme die Sicherheit und Gesundheit bei der Arbeit beeinflussen.
Empfehlung 10:
Mehr Bildungsanstrengungen, die die KI-Kompetenz der Beschäftigten und Arbeitgeber:innen stärken, indem die Qualifikation und die Entwicklung von Fähigkeiten für AIWM-Anwendungen gefördert werden. Dies würde sie dazu befähigen, AIWM-Systeme besser zu verstehen und wie wären dadurch in der Lage, ihr Recht auf Anhörung und Beteiligung bei der Gestaltung und Umsetzung solcher Systeme auszuüben. Der Schwerpunkt bei den Bildungs- und Sensibilisierungsmaßnahmen sollte darauf liegen, sicherzustellen, dass die Menschen sowie ihre Gesundheit, ihre Sicherheit und ihr Wohlergehen bei derzeitigen und zukünftigen AIWM-Systemen im Mittelpunkt stehen.
Empfehlung 11:
Sicherstellung der Transparenz zwischen Entwicklern von AIWM-Systemen und Organisationen, die diese Systeme nutzen. Dazu gehört unter anderem, dass die Unternehmen darüber informiert werden, wie ein solches Tool funktioniert, wie es Entscheidungen trifft, welche Arten von Risiken und negativen Auswirkungen entstehen können und welche Vor- und Nachteile es bringt. Wenn vollständige Transparenz jedoch nicht möglich ist, sollte eine Vereinbarung den Vorbehalt beinhalten, dass ein System in dem Fall, dass es Schaden verursacht und das nutzende Unternehmen kein Recht hat, zu verlangen, dass es verändert wird, von solchen Systementwicklern unverzüglich abgeschaltet wird.
Schlussfolgerungen
Die Nutzung von AIWM-Systemen nimmt in der Europäischen Union unternehmens- und sektorübergreifend ständig zu. Dies lässt sich durch die Tatsache erklären, dass diese Systeme es den Unternehmen ermöglichen, Produktivität und Effizienz zu verbessern. Die Einführung solcher Systeme in einem Unternehmen kann jedoch auch zu einer Vielzahl von ethischen Fragen und Datenschutzproblemen sowie zu Risiken im Zusammenhang mit Sicherheit und Gesundheit bei der Arbeit führen. Wenn AIWM-Systeme in vertrauenswürdiger und transparenter Weise auf der Grundlage der Unterrichtung, der Beteiligung, der Anhörung und des Vertrauens der Beschäftigten sowie des Grundsatzes der Minimierung der erhobenen und verwendeten Daten über Beschäftigte geschaffen und umgesetzt werden, können sie dennoch auch Möglichkeiten zur Verbesserung von Sicherheit und Gesundheit bei der Arbeit bieten. Vertrauenswürdige AIWM-Systeme können durch die Verfolgung eines Ansatzes, der auf den Menschen ausgerichtet und von der Steuerung durch den Menschen geprägt ist und der den gleichberechtigten Zugang zu Informationen für Arbeitgeber:innen, Manager:innen, Beschäftigte und ihre Vertreter garantiert, geschaffen werden; die Anhörung und Beteiligung der Beschäftigten und ihrer Vertreter bei den Entscheidungen, die in Bezug auf die Gestaltung, Entwicklung, Umsetzung und Verwendung der KI-gestützten Managementsysteme getroffen werden, sind von entscheidender Bedeutung. Hierbei gilt es auch, die menschliche Autonomie zu wahren, Schäden zu vermeiden, für Gerechtigkeit zu sorgen und die Nachvollziehbarkeit der AIWM-Systeme herzustellen. Dies kann weitgehend erreicht werden, indem die Beschäftigten und ihre Gesundheit, ihre Sicherheit und ihr Wohlergehen schon von Anfang an ab der Planungsphase der AIWM-Systeme und der diesbezüglichen anschließenden Programmierung berücksichtigt werden. Dadurch kann wiederum sichergestellt werden, dass die eingesetzte KI herkömmliche menschliche Managementpraktiken nicht ersetzt, sondern unterstützt.
Eine auf den Menschen ausgerichtete KI kann zudem weiter vorangetrieben werden, indem die Privatsphäre der Beschäftigten geschützt wird und dafür gesorgt wird, dass die gesammelten Daten nicht von AIWM-Systementwicklern oder Arbeitgeber:innen missbraucht werden. Bis zu einem gewissen Grad wird dies bereits durch die DSGVO und andere einschlägige Rechtsvorschriften sichergestellt, jedoch gibt es noch immer einige Lücken, da personenbezogene Daten, etwa das emotionale Wohlbefinden der Beschäftigten, unter Verwendung von AIWM-Systemen aus öffentlichen Daten, etwa der Körpersprache, den Gesichtsausdrücken und dem Tonfall der Beschäftigten, abgeleitet werden können. Die Privatsphäre der Beschäftigten könnte weiter gefördert werden, indem dafür gesorgt wird, dass diese ein Recht auf Erläuterung haben, wie die AIWM-Systeme funktionieren, die in Bezug auf sie verwendet werden. Hierbei ist eine Reihe von Aspekten zu erläutern, u. a., welche Arten von Daten die Systeme sammeln, wie diese Daten verwendet werden und welche Ergebnisse das System erzeugt. Zur Unterstützung der Umsetzung vertrauenswürdiger KI ist es ferner wichtig, für eine starke Sensibilisierung und einen starken Wissensaufbau im Hinblick auf die KI-gestützten Tools am Arbeitsplatz, ihre allgemeine Funktionsweise und ihre möglichen Auswirkungen auf Beschäftigte zu sorgen. Daher sollten die politischen Maßnahmen einen intensiven Wissensaustausch und sozialen Dialog zwischen den Entwicklern von AIWM-Tools, Unternehmen, Beschäftigten und anderen einschlägigen Interessenträger:innen fördern, wobei die Gesundheit, die Sicherheit und das Wohlergehen der Menschen im Mittelpunkt der Erörterungen stehen. Außerdem sollte die Politik eine angemessene Aus- und Fortbildung aller Interessenträger:innen fördern, die mit der Schaffung, Umsetzung und Verwendung von AIWM-Systemen im Zusammenhang stehen, wobei die Menschen stets in den Mittelpunkt zu stellen sind.
Literaturverzeichnis
Access Now (2018), Human rights in the age of artificial intelligence, Access Now, https://www.accessnow.org/cms/assets/uploads/2018/11/AI-and-Human-Rights.pdf
AlgorithmWatch (2019), Atlas of automation, Automated decision-making and participation in Germany, AlgorithmWatch, https://atlas.algorithmwatch.org/wp-content/uploads/2019/04/Atlas_of_Automation_by_AlgorithmWatch.pdf
Amoore, L. und Piotukh, V. (2015), Algorithmic life: Calculative devices in the age of big data Taylor und Francis.
Aranguiz, A. (2. September 2021), Platforms put a spoke in the wheels of Spain’s ‘riders’ law’, Social Europe, https://socialeurope.eu/platforms-put-a-spoke-in-the-wheels-of-spains-riders-law
Badri, A., Boudreau-Trudel, B. und Souissi, A. S. (2018), Occupational health and safety in the industry 4.0 era: A cause for major concern? Safety Science, Bd. 109, S. 403–411 https://doi.org/10.1016/j.ssci.2018.06.012
Belton, P. (12. April 2019), How does it feel to be watched at work all the time? BBC News, https://www.bbc.com/news/business-47879798
Bérastégui, P. (2021), Exposure to psychosocial risk factors in the gig economy: A systematic review, Europäisches Gewerkschaftsinstitut, https://www.etui.org/sites/default/files/2021– 02/Exposure%20to%20psychosocial%20risk%20factors%20in%20the%20gig%20economy-a%20systematic%20review-2021.pdf
Brione, P. (2020), My boss the algorithm: An ethical look at algorithms in the workplace, Advisory, Conciliation and Arbitration Service, https://www.acas.org.uk/my-boss-the-algorithm-an-ethical-look-at-algorithms-in-the-workplace
Browne, S. (2017), HR on purpose: Developing deliberate people passion, Society For Human Resource Management
Cameron, G., Cameron, D., Megaw, G., Bond, R., Mulvenna, M., O’Neill, S., Armour, C. und McTear, M. (2017), Towards a chatbot for digital counselling, in: L. Hall, T. Flint, S. O’Hara und P. Turner (Hg.), Proceedings of the 31st International BCS Human Computer Interaction Conference (HCI 2017), BCS Learning and Development Ltd., S. 1–7
Chamorro-Premuzic, T. (2020), Can surveillance AI make the workplace safe?, MIT Sloan Management Review, Bd. 62, Ausgabe 1, S. 13–15, https://sloanreview.mit.edu/article/can-surveillance-ai-make-the-workplace-safe/
Colclough, C. (3. September 2020), Workers’ rights: Negotiating and co-governing digital systems at work, Social Europe, https://www.socialeurope.eu/workers-rights-negotiating-and-co-governing-digital-systems-at-work
Collins, L., Fineman, D. R. und Tshuchica, A. (2017), People analytics: Recalculating the route, Deloitte Insights, https://www2.deloitte.com/us/en/insights/focus/human-capital-trends/2017/people-analytics-in-hr.html
De Mauro, A., Greco, M. und Grimaldi, M. (2015), What is big data? A consensual definition and a review of key research topics, AIP Conference Proceedings, Bd. 1644, Ausgabe 1, S. 97–104. https://doi.org/10.1063/1.4907823
De Stefano, V. (2020), Algorithmic bosses and what to do about them: Automation, artificial intelligence and labour protection, in: D. Marino und M. Monaca (Hg.), Economic and policy implications of artificial intelligence, Studies in systems, decision and control, Bd. 288, Springer, S. 65–86.
De Stefano, V. (16. April 2021), The EU Proposed Regulation on AI: A threat to labour protection?, Global Workplace Law & Policy, http://regulatingforglobalization.com/2021/04/16/the-eu-proposed-regulation-on-ai-a-threat-to-labour-protection/
Deobald, U. L., Busch, T., Schank, C., Weibel, A., Schafheitle, S., Wildhaber, I. und Kasper, G. (2019), The challenges of algorithm-based HR decision-making for personal integrity, Journal of Business Ethics, Bd. 160, Ausgabe 2, S. 377–392, https://doi.org/10.1007/s10551–019–04204– w
Dzieza, J. (27. Februar 2020), How hard will the robots make us work?, The Verge, https://www.theverge.com/2020/2/27/21155254/automation-robots-unemployment-jobs-vs-human-google-amazon
Europäische Agentur für Sicherheit und Gesundheitsschutz am Arbeitsplatz (EU-OSHA) (2017), Monitoring technology: The 21st century’s pursuit of wellbeing?, https://oshwiki.eu/wiki/Monitoring_technology:_the_21st_ Century%27s_pursuit_of_wellbeing%3F
Europäische Agentur für Sicherheit und Gesundheitsschutz am Arbeitsplatz (EU-OSHA) (2019), OSH and the future of work: Benefits and risks of artificial intelligence tools in workplaces, Diskussionspapier, https://osha.europa.eu/sites/default/files/2021–11/OSH_ future_of_work_artificial_intelligence.pdf
Europäische Agentur für Sicherheit und Gesundheitsschutz am Arbeitsplatz (EU-OSHA) (2020a), ESENER 2019: Was lernen wir daraus über Sicherheit und Gesundheit in Europas Betrieben?, Kurzbericht, https://osha.europa.eu/sites/default/files/ESENER_2019_Policy_brief_EN.pdf
Europäische Agentur für Sicherheit und Gesundheitsschutz am Arbeitsplatz (EU-OSHA) (2020b), ESENER 3: Technischer Bericht, endgültige Fassung (14.1.2020), https://oshwiki.eu/images/a/aa/Technical_Report_ESENER3_Final.pdf
Europäische Agentur für Sicherheit und Gesundheitsschutz am Arbeitsplatz (EU-OSHA) (2021a), Digital platform work and occupational safety and health: A review, https://osha.europa.eu/en/publications/le-travail-sur-plateformes-numeriques-et-la-sante-et-la-securite-au-travail-analyse
Europäische Agentur für Sicherheit und Gesundheitsschutz am Arbeitsplatz (EU-OSHA) (2021b), Teleworking during the COVID-19 pandemic: risks and prevention strategies, https://osha.europa.eu/en/publications/teleworking-during-covid-19-pandemic-risks-and-prevention-strategies/view
Europäische Agentur für Sicherheit und Gesundheitsschutz am Arbeitsplatz (EU-OSHA) (2022a), Artificial intelligence for worker management: implications for Occupational Safety and Health
Europäische Agentur für Sicherheit und Gesundheitsschutz am Arbeitsplatz (EU-OSHA) (2022b), Advanced robotics, artificial intelligence and the automation of tasks: definitions, uses, policies and strategies and Occupational Safety and Health, https://osha.europa.eu/en/publications/advanced-robotics-artificial-intelligence-and-automation-tasks-definitions-uses-policies-and-strategies-and-occupational-safety-and-health
Europäische Agentur für Sicherheit und Gesundheitsschutz am Arbeitsplatz (EU-OSHA) (2022c), Spanien: das „Rider-Gesetz“, eine neue Rechtsvorschrift über digitale plattformbasierte Arbeit, https://osha.europa.eu/en/publications/spain-riders-law-new-regulation-digital-platform-work
Eurofound (2020a), Telework and ICT-based mobile work: Flexible working in the digital age, Reihe „New forms of employment“, Amt für Veröffentlichungen der Europäischen Union, https://www.eurofound.europa.eu/en/publications/2019/telework-and-ict-based-mobile-work-flexible-working-digital-age
Eurofound (2020b), Working conditions, Employee monitoring and surveillance: The challenges of digitalisation, Amt für Veröffentlichungen der Europäischen Union, https://www.eurofound.europa.eu/en/publications/2020/employee-monitoring-and-surveillance-challenges-digitalisation
Europäische Kommission (21. April 2021), Vorschlag für eine Verordnung des Europäischen Parlaments und des Rates zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz (Gesetz über künstliche Intelligenz) und zur Änderung bestimmter Rechtsakte der Union, Europäische Kommission, COM(2021) 206 final, https://eur-lex.europa.eu/resource.html?uri=cellar:e0649735-a372–11eb-9585– 01aa75ed71a1.0001.02/DOC_1&format=PDF
Wissenschaftlicher Dienst des Europäischen Parlaments (2020), Data subjects, digital surveillance, AI and the future of work, https://www.europarl.europa.eu/RegData/etudes/STUD/2020/656305/EPRS_STU(2020)6563 05_EN.pdf
Felstead, A., Gallie, D., Green, F. und Henseke, G. (2019), The determinants of skills use and work pressure: A longitudinal analysis, Economic and Industrial Democracy, Bd. 40, Ausgabe 3, S. 730–754, https://doi.org/10.1177/0143831X16656412
Fernández-Martínez, C. und Fernández, A. (2020), AI and recruiting software: Ethical and legal implications, Paladyn, Journal of Behavioral Robotics, Bd. 11, Ausgabe 1, S. 199–216, https://doi.org/10.1515/pjbr-2020–0030
Fisher, A. (1. August 2019), HR managers, with a little help from AI, can decide your next pay hike, The Print, https://theprint.in/features/hr-managers-with-a-little-help-from-ai-can-decide-your-next-pay-hike/270927/
Gal, U., Jensen, T. B. und Stein, M. K. (2020), Breaking the vicious cycle of algorithmic management: A virtue ethics approach to people analytics, Information and Organization, Bd. 30, Ausgabe 2, Artikel 100301, https://doi.org/10.1016/j.infoandorg.2020.100301
Heaven, W. D. (4. Juni 2020), This startup is using AI to give workers a “productivity score”, MIT Technology Review, https://www.technologyreview.com/2020/06/04/1002671/startup-ai-workers-productivity-score-bias-machine-learning-business-covid/
Hochrangige Expertengruppe für künstliche Intelligenz (2019), A definition of artificial intelligence: Main capabilities and scientific disciplines, Europäische Kommission, https://digital-strategy.ec.europa.eu/en/library/definition-artificial-intelligence-main-capabilities-and-scientific-disciplines
Juniper Networks (2021), AI is Set to Accelerate… Is Your Organization Ready?, https://www.juniper.net/content/dam/www/assets/additional-resources/us/en/juniper-ai-research-paper.pdf
Kellogg, K. C., Valentine, M. A. und Christin, A. (2020), Algorithms at work: The new contested terrain of control, Academy of Management Annals, Bd. 14, Ausgabe 1, S. 366–410, https://doi.org/10.5465/annals.2018.0174
Koontz, H. und O’Donnell, C.: (1955), Principles of management: An analysis of managerial functions, McGraw-Hill
Kronos (2018), Employee scheduling, https://www.kronos.com/2018/products/employee-scheduling
Lane, M. und Saint-Martin, A. (2021), The impact of artificial intelligence on the labour market: What do we know so far?, OECD Social, Employment and Migration Working Papers, Nr. 256, OECD Publishing, https://doi.org/10.1787/7c895724-en
Mai, J. E. (2016), Big data privacy: The datafication of personal information, The Information Society, Bd. 32, Ausgabe 3, S. 192–199, https://doi.org/10.1080/01972243.2016.1153010
Mateescu, A. und Nguyen, A. (6. Februar 2019), Explainer: Algorithmic management in the workplace, Data & Society, https://datasociety.net/library/explainer-algorithmic-management-in-the-workplace/
Moore, P. V. (2018), The threat of physical and psychosocial violence and harassment in digitalized work, Internationale Arbeitsorganisation, https://www.ilo.org/wcmsp5/groups/public/—ed_dialogue/—actrav/documents/publication/wcms_617062.pdf
O’Connor, S. (8. September 2016), When your boss is an algorithm, Financial Times, https://www.ft.com/content/88fdc58e-754f-11e6-b60a-de4532d5ea35
OECD (2019), Künstliche Intelligenz in der Gesellschaft, OECD Publishing, https://www.oecd.org/publications/artificial-intelligence-in-society-eedfee77-en.htm
Oliver, H. (2002), Email and internet monitoring in the workplace: Information privacy and contracting-out, Industrial Law Journal, Bd. 31, Ausgabe 4, S. 321–352, https://doi.org/10.1093/ilj/31.4.321
Oracle (2019), From fear to enthusiasm: Artificial intelligence is winning more hearts and minds in the workplace, https://www.oracle.com/webfolder/s/assets/ebook/ai-work/index.html
Oracle und Workplace Intelligence (2020), As uncertainty remains, anxiety and stress reach a tipping point at work: Artificial intelligence fills the gaps in workplace mental health support, Oracle, https://www.oracle.com/a/ocom/docs/oracle-hcm-ai-at-work.pdf
PEGA (2020), The future of work, New perspectives on disruption & transformation, https://www.pega.com/insights/resources/future-work-new-perspectives-disruption-transformation
Pérez del Prado, D. (2021), The legal framework of platform work in Spain: The new Spanish “Riders’ Law”, Comparative Labor Law & Policy Journal, Dispatch Nr. 36 – Spanien, https://cllpj.law.illinois.edu/content/dispatches/2021/Dispatch-No.-36.pdf
Ponce del Castillo, A. (2021), The AI regulation: Entering an AI regulatory winter? Why an ad hoc directive on AI in employment is required, ETUI Forschungsbericht – Kurzbericht 2021.07, https://ssrn.com/abstract=3873786
Publicis Groupe (2018), Publicis Groupe and Microsoft announce partnership for Marcel AI Platform, Publicis Groupe, https://www.publicisgroupe.com/sites/default/files/press-release/Press_Release_PG_MSFT_290118_DEF.pdf
Punnoose, R. und Ajit, P. (2016), Prediction of employee turnover in organizations using machine learning algorithms, International Journal of Advanced Research in Artificial Intelligence, Bd. 5, Ausgabe 9, S. 22–26, http://dx.doi.org/10.14569/IJARAI.2016.050904
PwC (2019), A virtual partnership? How artificial intelligence will disrupt project management and change the role of project managers, https://www.pwc.com/m1/en/publications/documents/virtual-partnership-artificial-ntelligence-disrupt-project-management-change-role-project-managers-final.pdf
Richman, N. (2015), Human resource management and human resource development: Evolution and contributions, Creighton Journal of Interdisciplinary Leadership, Bd. 1, Ausgabe 2, S. 120– 129, http://hdl.handle.net/10504/109172
Savignac, E. (2019), La gamification du travail: L’ordre du jeu, ISTE Group.
Tambe, P., Cappelli, P. und Yakubovich, V. (2019), Artificial intelligence in human resources management: Challenges and a path forward, California Management Review, Bd. 61, Ausgabe 4, S. 15–42, https://doi.org/10.1177/0008125619867910
Teh, C. (16. Juni 2021), ‘Every smile you fake’ — An AI emotion-recognition system can assess how ‘happy’ China’s workers are in the office, Insider, https://www.insider.com/ai-emotion-recognition-system-tracks-how-happy-chinas-workers-are-2021– 6#:~:text=‘Every%20smile%20you%20fake‘
Till, C. (6. April 2016), Why do companies want us to be healthy? Corporate wellness, self-tracking and philanthrocapitalism, This is Not a Sociology Blog, https://christopherharpertill.wordpress.com/2016/04/06/why-do-companies-want-us-to-be-healthy-corporate-wellness-self-tracking-and-philanthrocapitalism/
Wang, P. (2019), On defining artificial intelligence, Journal of Artificial General Intelligence, Bd. 10, Ausgabe 2, S. 1–37, https://doi.org/10.2478/jagi-2019–0002
Weltwirtschaftsforum (2018), How to prevent discriminatory outcomes in machine learning, Global Future Council on Human Rights 2016–2018, http://www3.weforum.org/docs/WEF_40065_White_Paper_How_to_Prevent_Discriminatory_ Outcomes_in_Machine_Learning.pdf
Wujciak, M. (18. Oktober 2019), 4 Companies using machine learning to keep a close eye on employees, CCW Digital, https://www.customercontactweekdigital.com/tools-technologies/articles/4-companies-using-machine-learning-to-keep-a-close-eye-on-employees
Zel, S. und Kongar, E. (2020), Transforming digital employee experience with artificial intelligence, in: 2020 IEEE/ITU International Conference on Artificial Intelligence for Good (AI4G), S. 176–179, https://doi.org/10.1109/AI4G50087.2020.9311088
Ziewitz, M. (2015), Governing algorithms: Myth, mess, and methods, Science, Technology, & Human Values, Bd. 41, Ausgabe 1, S. 3–16, https://doi.org/10.1177/0162243915608948
Zwetsloot, G. I. J. M. (2014), What are occupational safety and health management systems and why do companies implement them?, https://oshwiki.eu/wiki/What_are_occupational_safety_and_health_management_systems_an d_why_do_companies_implement_them%3F
1 Offizielle Vertreter der EU-OSHA in der EU-27 (2020) sowie den Ländern der Europäischen Freihandelsassoziation (EFTA). In den meisten Fällen dienen die nationalen Behörden für Sicherheit und Gesundheit bei der Arbeit als Vertreter. Weitere Informationen unter: https://osha.europa.eu/en/about-eu-osha/national-focal-points/focal-points-index
2 Siehe: https://eur-lex.europa.eu/legal-content/EN/ALL/?uri=celex%3A31989L0391
4 Die Richtlinie gilt für Unternehmen mit 50 Mitarbeitern in mehreren EU-Ländern oder 20 Mitarbeitern in einem Mitgliedstaat.
5 Siehe: https://eur-lex.europa.eu/eli/reg/2016/679/oj
6 Siehe: https://eur-lex.europa.eu/legal-content/EN/TXT/?qid=1623335154975&uri=CELEX%3A52021PC0206
7 Siehe: https://ai-watch.ec.europa.eu/countries/germany/germany-ai-strategy-report_en
8 Siehe: https://ai-watch.ec.europa.eu/countries/france/france-ai-strategy-report_en
9 Siehe: https://www.mpo.cz/assets/en/guidepost/for-the-media/press-releases/2019/5/NAIS_eng_web.pdf
10 Siehe: https://www.dgb.de/downloadcenter/++co++b794879a-9f2e-11ea-a8e8–52540088cada
Europäische Agentur für Sicherheit und Gesundheitsschutz am Arbeitsplatz
Verfasser: Aleksandr Christenko, Vaida Jankauskaite, Agne Paliokaite (Visionary Analytics), Egidius Leon van den Broek, Karin Reinhold,
Marina Järvis (Tallin University of Technology).
Projektmanagement: Emmanuelle Brun, Maurizio Curtarelli,
Europäische Agentur für Sicherheit und Gesundheitsschutz am Arbeitsplatz (EU-OSHA).
Dieser Bericht wurde von der Europäischen Agentur für Sicherheit und Gesundheitsschutz am Arbeitsplatz (EU-OSHA) in Auftrag gegeben. Die Inhalte, einschließlich aller geäußerten Meinungen und/oder Schlussfolgerungen, sind ausschließlich diejenigen der Verfasser und geben nicht zwingend die Auffassung der EU-OSHA wieder.


