Transparenz von Entscheidungen durch Künstliche Intelligenz im HR
Künstliche Intelligenz (KI) hat Potenzial, Human-Resources-Management-(HRM)-Prozesse umfassend abzubilden, d. h. vom Recruiting über das Onboarding, Weiterbildung, Karriereplanung, Performance Evaluation, Gehaltsberechnungen, Personalplanung etc. zu unterstützen (Vrontis et al., 2022). Bei der hier eingesetzten KI handelt es sich nicht um generative KI oder eine Super-Intelligenz, sondern in den meisten Fällen um supervised, in einigen Fällen auch um unsupervised Machine Learning Algorithmen (Faqihi & Miah, 2023). Diese Form der Algorithmen benötigt Menschen für die Bestimmung der Verknüpfung der Eingabe mit der Ausgabe, also einer genauen Angabe, was in welcher Form vom Algorithmus zu tun ist (Toreini et al., 2020). Des Weiteren braucht es Menschen, welche das KI-System regelmäßig mit Daten versorgen, d. h. zum Beispiel Mitarbeiter, die ihre Lerndaten korrekt und regelmäßig angeben; oder Recruitingverantwortliche und Führungskräfte, die das KI-unterstützte System verwenden und Feedback geben, ob sie Empfehlungen umsetzen oder nicht. Zu guter Letzt braucht es auch Menschen, die kontrollieren, ob die Ergebnisse und Empfehlungen nachvollziehbar und sinnvoll in dem verwendeten Kontext sind (Shin, 2021; Toreini et al., 2020).
Transparenz von Entscheidungen
Transparenz im organisationalen Kontext bezieht sich darauf, die Stakeholder über Entscheidungen zu informieren, den Prozess der zur Entscheidung führt, offenzulegen, und über Gründe, die zur Entscheidung geführt haben, zu informieren (De Fine Licht & De Fine Licht, 2020). Transparenz ist auch ein Kernprinzip der DSGVO, in der es in Art. 5 u. a. heißt, dass personenbezogene Daten, »auf rechtmäßige Weise, nach Treu und Glauben und in einer für die betroffene Person nachvollziehbaren Weise verarbeitet werden (›Rechtmäßigkeit, Verarbeitung nach Treu und Glauben, Transparenz‹) Art. 5(1)(a)«; und »für festgelegte, eindeutige und legitime Zwecke erhoben werden und (…) weiterverarbeitet werden. Art. 5(1)(b)«. Der Erwägungsgrund 71 der DSGVO spricht zudem von einer Transparenz i.S.d. Rechtes einer »Erläuterung der nach einer entsprechenden Bewertung getroffenen Entscheidung sowie des Rechts auf Anfechtung der Entscheidung.«
Ein erster Schritt in Richtung Transparenz besteht daher darin, dass Unternehmen im Sinne der DSGVO ihre Mitarbeiter über die Sammlung und Analyse von Daten inkl. Zweck informieren und diese der Verwendung zustimmen (Felzmann et al., 2019). Des Weiteren werden die KI-generierten Ergebnisses (von Data-Analysten und Fachexperten) mit Kriterien hinterlegt, d. h. z. B. wird lernenden Personen eine Begründung angegeben, worauf sich die Empfehlung für das nächste Lernthema ergibt, oder das Recruiting erhält eine Information auf Basis welcher Kriterien bestimmte Bewerbende als passend empfohlen werden.
Diese Vorgehensweise führt insgesamt zur Transparenz von Lerndaten und Entscheidungspräferenzen von Mitarbeitern, Transparenz von festgelegten Kriterien für bestimmte Positionen und entsprechender Personalauswahl, oder sichtbar gemachter Entscheidungspräferenzen von Führungskräften. Was in diesem Kontext für die Anwender wohl nicht transparent gemacht wird, ist der Source Code und damit die Rechenleistung des Algorithmus selbst.
Die Schöne …
Transparenz kann von den Anwendern positiv wahrgenommen werden. Zum einen führen transparente Kriterien für Auswahl von Lernempfehlungen, Karriereempfehlungen, Empfehlungen für Gehaltserhöhungen, Mitarbeiterbesetzungen etc. zu einer Nachvollziehbarkeit von KI-generierten Ergebnissen und Empfehlungen, können besprochen, argumentiert oder auch angefochten werden. Des Weiteren hätte ein eventuell vorliegender Bias das Potenzial, aufgefunden zu werden und könnte beseitigt werden. Ein spannender Aspekt für Mitarbeiter könnte auch sein, dass diese einen erweiterten Zugang zu z. B. Karriere- und Weiterbildungsoptionen erlangen und selbstständig interessante Möglichkeiten in Betracht ziehen und verfolgen können.
… und das Biest
Auf der anderen Seite könnte Transparenz von den Anwendern als Hindernis gesehen werden. Empfehlungen, die schwarz auf weiß, mit Kriterien hinterlegt, vom System ausgegeben werden, haben eine starke Präsenz, evtl. stärker als meine eigenen Gedanken zu dem Thema? Zum Beispiel haben nun Führungskräfte zusätzlich zu ihrer eigenen Informations- und Verhandlungsstrategie noch einen weiteren Faktor, den sie berücksichtigen müssen und den sie in die Entscheidungsbegründung miteinbeziehen, d. h. entweder damit oder dagegen argumentieren müssen. Das erfordert Zeit und Kompetenz, dies zu tun. Dazu gehört auch, dass Anwender letztendlich die Verantwortung über ihre Entscheidungen tragen und daher die vom System gemachten Empfehlungen als eigene verantworten oder eigens getroffene Entscheidung – gegenüber System und Betroffenen – kommunizieren müssen.
Um gute Ergebnisse zu erzielen, bedarf es guter Daten (Vrontis et al., 2022), d. h. viele Informationsangaben seitens der Anwendenden wirken sich potenziell positiv auf die KI-generierten Ergebnisse aus. Das führt im Umkehrschluss zu einer potenziell erhöhten Transparenz und Informationsmacht des Unternehmens. Bei Mitarbeitenden kann hier ein Widerstand dahingehend aufkommen, dass Informationen auch anderweitig genutzt werden könnten, auch wenn dieses rechtlich gar nicht erlaubt oder vorgesehen ist.
Fazit
Diese Abwägung könnte noch weiter vertieft und aus verschiedenen Perspektiven beleuchtet werden. Es wird jedoch bereits absehbar, dass die Transparenz zwei Seiten einer Medaille beinhaltet und es von Vorteil sein könnte, wenn Anwender von KI-Systemen im HR sich ihrer eigenen Präferenzen, Entscheidungskriterien und Muster bewusst werden, um diese mit dem System abstimmen zu können, Zweifel äußern zu können, Adaptionen zu fordern und Sinnhaftigkeit nachvollziehen zu können.