• Keine Ergebnisse gefunden

Die Akzeptanz von auf künstlicher Intelligenz basierten Recruiting Tools durch HR-Manager:innen 1

N/A
N/A
Protected

Academic year: 2022

Aktie "Die Akzeptanz von auf künstlicher Intelligenz basierten Recruiting Tools durch HR-Manager:innen 1"

Copied!
18
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

Intelligenz basierten Recruiting Tools durch HR-Manager:innen 1

Abstract

Zunehmend kommen im Personalwesen Tools unter Verwendung künstlicher Intelligenz zum Einsatz. Dies sind vorrangig Expert Systems und prädiktive

Modelle, die in der Bewertung von Bewerbungen zum Einsatz kommen, außerdem werden zunehmend Natural Language Processing und Image und Video Processing angewendet. Diesen Tools wird, nicht zuletzt aufgrund von Medienberichten zu diskriminierenden Werkzeugen, von HR-Praktiker:innen ein hoher Grad an Skepsis entgegengebracht. Das Ziel dieses Beitrags ist, eine kritische Reflexion des bisherigen Forschungsstands zur Akzeptanz von KI-basierten Recruiting Tools zu präsentieren, mögliche Modelle vorzustellen und in Folge ein theoretisches Modell als Grundlage für weitere, empirische Forschung zu präsentieren. Folglich werden in diesem Beitrag zwei häufig verwendete Modelle zur Erklärung der Verhaltensabsichten bei der Nutzung von KI-basierten Tools bzw. e-HRM-Tools vorgestellt. Diese Modelle, das Technologie- akzeptanzmodell und das Modell der einheitlichen Theorie der Technologieakzeptanz, wurden in einer Reihe von Studien erfolgreich angewendet und weiterentwickelt. Daneben gibt es jedoch auch eine Reihe anderer Faktoren, die als Prädiktoren für die Absicht, KI-basierte Tools in anderen Kontexten zu nutzen, untersucht wurden. Dazu gehören die berufliche Identität, die Technologiebereitschaft und die wahrgenommene Bedrohung des eigenen Fachwissens durch KI-basierte Werkzeuge. Auf der Grundlage der bestehenden Modelle und dieser zusätzlichen Faktoren wird in diesem Beitrag ein integratives Modell für die Akzeptanz von auf künstlicher Intelligenz basierenden Rekrutierungstools durch Personalmanager:innen vorgeschlagen.

Tools using artificial intelligence are increasingly deployed in personnel management. Primarily expert systems and predictive modelling are employed in the evaluation of job candidates, but also Natural Language Processing and Image and Video Processing are utilized in growing number. HR practitioners view these tools with a high degree of skepticism, not least due to media reports on discriminatory tools. This paper aims to present a critical reflection of the current state of research on the acceptance of AI-based recruiting tools, to introduce possible models, and subsequently to present a theoretical model as a basis for further empirical research. As such, the paper describes two frequently used models for explaining behavioral intent to using AI-based tools and e-HRM tools, respectively. These models, the technology acceptance model and the unified theory of tech- nology acceptance model, have successfully been applied and further developed in a number of studies. Next to these models, however, various other factors have also been explored as predictors of behavioral intent to use AI-based tools in other contexts. These other factors include professional identity, technology readiness, and the perceived threat AI-based tools pose for one’s professional expertise. Based on the existing models and these additional factors, this paper proposes an inte- grative model for the acceptance of artificial intelligence-based recruiting tools by HR managers.

1 Dieses Paper entstand im Rahmen des Stadt Wien Kompetenzteams „New Work-New Business“, das durch die MA 23 der Stadt Wien finanziell gefördert wird.

Barbara Waldhauser FH des BFI Wien

(2)

1 Einleitung

Verschiedene Aufgaben im Human Resource Management (HRM) befinden sich im Zuge der digitalen Transformation in einem Zustand teilweise drastischer Veränderung. Personalauswahl- verfahren, die typischerweise eine Einstufung der Kandidat:innen auf der Grundlage papier- basierter Tests oder Dokumente und in persönlichen Gesprächen oder Beobachtungen vor- sahen, haben sich mit der Einführung des elektronischen HRM geändert (eHRM; Lochner/Preuß 2018). Diese jüngsten Entwicklungen wurden zwar nicht überall umgesetzt, werden aber im Per- sonalwesen (HR) zunehmend akzeptiert (Marler/Fisher 2013; Oswald et al. 2020). Auch wenn eHRM noch nicht im vollen Umfang in allen Unternehmen genutzt wird, sind die Early Adopters bereits zum nächsten Schritt der Digitalisierung von HR-Aufgaben übergegangen und haben damit begonnen, auf künstlicher Intelligenz (KI) basierende HR-Lösungen zu implementieren.

Im Bereich von Recruiting und Personalauswahl stellen diese KI-basierten HR-Tools vorrangig Expert Systems und prädiktive Modellierung dar, wobei zunehmend auch Natural Language Pro- cessing und Image und Video Processing zum Einsatz kommen. Expert Systems, bei denen Auswahlentscheidungen (Hooper et al. 1998) bzw. Auswahlrankings (Faliagka et al. 2012) auf Basis prädeterminierter oder erlernter Algorithmen getroffen werden, lieferten in Studien Ent- scheidungen bzw. Rankings, die sich nicht wesentlich von dem von Menschen getroffenen Votum unterschieden. Auch im Fall von Entscheidungen, die auf Basis komplexer Textformen getroffen wurden (Campion et al. 2016), zeigt sich die Eignung von prädiktiver Modellierung für den Auswahlprozess. Trotz dieser und weiterer Befunde, die eine Steigerung der Effizienz von Recruiting-Prozessen insbesondere in der Vorauswahl bei hoher Entscheidungsqualität nahe- legen (Campion/Campion 2020; Hickman et al. 2019; Langer et al. 2020; Short et al. 2018; Speer 2018), bleibt ein hoher Grad an Skepsis gegenüber diesen Auswahltools bei HR-Praktiker:innen.

Die zu beobachtende Skepsis kann unter anderem auf Beispiele zurückgeführt werden, bei denen Algorithmen aus früheren, von Menschen getroffenen Auswahl- und Beförderungsentscheidun- gen rassistische, fähigkeitsbezogene und geschlechtsspezifische Voreingenommenheit erlernt und reproduziert hatten (Lochner/Preuß 2018). Diese teilweise breit publizierten Worst-Case- Beispiele wie z.B. bei Amazon (Hamilton 2018) unterstützen Annahmen von mangelnder Fairness von AI-basierten Recruiting-Entscheidungen (Ochmann/Laumer 2019). An anderer Stelle wird argumentiert, dass es mangels Interesse für analytische Prozesse unter HR-Fachleuten geringe Fortschritte in der Entwicklung von HR-Analytik gibt (Angrave et al. 2016). Während Angrave et al. (2016) nur wenige Belege für diese Schlussfolgerung liefern, scheint diese Aus sage dennoch mit dem allgemeinen Verständnis der HR-Rollen als Strategic Partner, Administrative Expert, Change Agent und Employee Champion (Ulrich 1997) in Verbindung zu stehen.

Im Allgemeinen finden sich in der wissenschaftlichen Literatur bislang jedoch nur wenige Untersuchungen, die diese Skepsis und/oder Faktoren zum Inhalt haben, die die Absicht eines:einer Personalverantwortlichen, KI-basierte Instrumente zu verwenden, beeinträchtigen könnten. Auf dieser Grundlage erläutert dieser Beitrag, welche Faktoren bislang in der Literatur

(3)

ermittelt wurden und leitet Hypothesen dazu ab, welche Faktoren die Absicht von HR-Fachleuten, KI- basierte Instrumente zur Auswahl zu verwenden, am besten erklären. Dieser Artikel verfolgt das Ziel, eine kritische Reflexion des bisherigen Forschungsstands zu präsentieren, mögliche Modelle zur Akzeptanz von KI-basierten Recruiting Tools vorzustellen und in Folge ein theore- tisches Modell als Grundlage für weitere, empirische Forschung zu präsentieren.

2 Theoretische Grundlagen zu Technologieakzeptanz und Anwendungsintention

Die meisten Studien, die sich mit der Nutzungsabsicht oder der tatsächlichen Nutzung von KI-basierten Tools wie Expert Systems (Liker/Sindi 1997), Sprachassistenten (Nasirian et al.

2017) oder Voice-User-Interface-Systemen (Nguyen et al. 2018), Social- (de Graaf/Ben Allouch 2013; Heerink et al. 2009), Bildungs- (Conti et al. 2016) und Service-Robotern (Wirtz et al. 2018) befassen, basieren auf dem Technologieakzeptanzmodell (TAM; Davis 1985; Davis et al. 1989) oder der Unified Theory of Technology Acceptance and Use of Technology (UTAUT; Venkatesh et al. 2016; Venkatesh et al. 2003; Venkatesh/Morris 2000; Venkatesh/Zhang 2010).

Das Technologieakzeptanzmodell wurde mit dem Ziel entwickelt, die „Wirkung von System- merkmalen auf die Benutzerakzeptanz von computergestützten Informationssystemen“

( Davis 1985: 2) zu testen. Die relevanten Systemeigenschaften, die Davis untersucht, sind der wahrgenommene Anwendungsnutzen (perceived usefulness – PU), „[d]as Ausmaß, in dem ein Individuum glaubt, dass die Verwendung eines bestimmten Systems seine oder ihre Arbeits- leistung verbessern würde“ (Davis 1985: 85) und die wahrgenommene Anwendungsfreundlich- keit (perceived ease of use – PEU), „[d]as Ausmaß, in dem ein Individuum glaubt, dass die Ver- wendung eines bestimmten Systems frei von physischen und mentalen Anstrengungen wäre“

(Davis 1985: 85). Aufbauend auf der Theorie des überlegten Handelns (Fishbein/Ajzen 1975) beschreibt Davis‘ Modell die Verhaltensabsicht (behavioural intention – BI) als die wichtigste Determinante für die tatsächliche Nutzung eines Systems, die er als Technologieakzeptanz konzeptualisiert. BI wird wiederum von PU und direkt und indirekt, über PU, von PEU beeinflusst.

Abbildung 1: Technologieakzeptanzmodell

Tatsächliches Verwenden Wahrgenommener

Anwendungsnutzen (PU)

Wahrgenommene Anwendungsfreundlichkeit

Verhaltensabsicht (BI)

Quelle: Davis 1985

(4)

Die UTAUT stellt ein integriertes Modell zur Erklärung der Akzeptanz von IT-Anwendungen dar, das auf acht verschiedenen Modellen/Theorien aufbaut und diese integriert: die Theorie des überlegten Handelns (Fishbein/Ajzen 1975), die Theorie des geplanten Verhaltens (Ajzen 1985), das Technologieakzeptanzmodell (Davis et al. 1992), das kombinierte Technologieakzeptanz- und Theorie-des-geplanten-Verhaltens-Modell (Taylor/Todd 1995), das Modell der PC-Nutzung (Thompson et al. 1991), die Innovationsdiffusionstheorie (Rogers 1983) und die sozial-kognitive Theorie (Compeau/Higgins 1995). Es umfasst verschiedene Elemente aus den unterschied- lichen Theorien, wie in Abbildung 1 dargestellt.

Abbildung 2: Unified Theory of Acceptance Model

Erwartete Anstrengung Erwartete Leistung

Erleichternde Rahmenbedingungen

Verhaltensabsicht Tatsächliches Verhalten

Freiwilligkeit der Verwendung Erfahrung

Gender Alter

Sozialer Einfluss

Quelle: Venkatesh/Davis 2000

Die erwartete Leistung in diesem Modell entspricht dem wahrgenommenen Anwendungsnutzen im TAM, die erwartete Anstrengung entspricht der wahrgenommenen Anwendungsfreundlich- keit. Sozialer Einfluss beschreibt die Wahrnehmung Einzelner, „dass wichtige andere glauben, dass er oder sie das neue System nutzen sollte“ (Venkatesh et al. 2003: 451); erleichternde Rahmenbedingungen drücken den Grad der organisatorischen und technischen Unterstützung aus, die der:die Einzelne wahrnimmt.

3 Forschungsstand zur Anwendung KI-basierter Instrumente im HRM

Der Forschungsfokus in Hinblick auf KI-basierte Instrumente im HRM lag anfänglich auf der Akzeptanz der Tools durch Bewerber:innen. Beispielhaft ist hier die Arbeit von van Esch und Kolleg:innen zu nennen. Die Neuartigkeit der Erfahrung, die Motivation zur Nutzung der Technologie und die Angst sowie weitere Prädikatoren für die Bereitschaft, eine Bewerbung mittels eines KI-basierten Tools einzureichen, werden hier untersucht (van Esch et al. 2019).

(5)

Andere Einflussfaktoren, die untersucht wurden, waren die Nutzung sozialer Medien, intrinsische Motivation, Fairness und wahrgenommene Trendiness (van Esch/Black 2019) sowie das Zusam- menwirken von Nutzung sozialer Medien, Trendiness aus Sicht der Bewerber:innen und deren Erfahrung in der Nutzung biometrischer Daten (van Esch et al. 2020). Damit zeigen sich Erfah- rung mit der Rolle sozialer Medien, Trendiness und Motivation der Bewerber:innen als wieder- kehrende Faktoren.

Jüngere Forschung berücksichtigt auch die Sichtweise von HR-Manager:innen und stützt sich dabei teilweise auf die genannten Modelle bzw. integriert auch andere Aspekte, wie z.B. die wahrgenommene Fairness im Prozess und das Vertrauen in die Systeme.

Pillai und Sivathanu (2020) untersuchen die Prädiktoren für die Annahme und tatsächliche Nutzung von KI-Technologien für die Talentakquise durch HR-Manager:innen. Ihre Studie baut auf dem Framework Technologie-Organisation-Umwelt auf, das sie in das Task-Technology-Fit- Modell integrieren. Jenes beschreiben sie als besser geeignet für ihren Zweck (im Gegensatz z.B. zum TAM), da es die organisatorische Perspektive einbezieht. Ein interessanter Aspekt in der Studie ist die „Stickiness“, die sie als „das Ausmaß, in dem Personalverantwortliche die traditionellen Methoden, Instrumente und Techniken der Talentakquise wiederverwenden“ defi- nieren (Pillai/Sivathanu 2020: 2605). Ihr Modell berücksichtigt mehrere Faktoren im Zusammen- hang mit dem Technologie-Organisation-Umwelt-Framework als Prädiktoren für die Akzeptanz von KI für die Talentakquise, die dann die tatsächliche Nutzung beeinflusst – diese Beziehung (Akzeptanz – tatsächliche Nutzung) wird durch das Festhalten an traditionellen Methoden ( Stickiness) beeinflusst. Zusätzlich wird die tatsächliche Nutzung durch den Task-Technology- Fit beeinflusst. Die organisationale Komponente im Modell wird allerdings nur in der Wahrneh- mung durch die Personalverantwortlichen gemessen, was eine gewisse Verzerrung bewirken kann. Alles in allem weisen die Faktoren eine gewisse Ähnlichkeit mit der UTAUT auf. Die Ergeb- nisse der empirischen Untersuchung mit 512 Teilnehmer:innen, die bereits Erfahrung mit dem Einsatz von KI-basierten Tools für die Talentakquise hatten, legen ein hohes Erklärungspotential des Modells nahe.

Ochmann und Laumer (2019) greifen im Rahmen einer Interviewstudie insbesondere den bereits aus Bewerber:innen-Sicht als relevant identifizierten Aspekt der Fairness beim Einsatz von KI im Bereich der Personalbeschaffung auf. Die Interviewpartner:innen wurden aus verschiedenen Bereichen ausgewählt, darunter auch, aber nicht ausschließlich, Expert:innen für Personal- management. Auf der Grundlage ihrer Interviewergebnisse identifizieren Ochmann und Laumer folgende Faktoren, die auf die wahrgenommene Fairness und damit der Einstellung gegenüber KI-basierten Recruiting Tools wirken: den Grad der durch KI gewährleisteten Vielfalt, die Be- rücksichtigung von ethischen Aspekten, die Wahrnehmung, dass KI zu unvoreingenommenen Entscheidungen und weniger Diskriminierung führt, und die Transparenz von KI-basierten Ent- scheidungen und wahrgenommener Fairness. Das so entwickelte Modell definiert damit ver- schiedene Subaspekte von Fairness und zeigt, dass die interviewten Personen verschiedene breit diskutierte Risikofaktoren thematisiert hatten: mangelnde Transparenz der Funktionsweise

(6)

der eingesetzten Algorithmen und die Angst, dass der Einsatz von KI-basierten Recruitingtools bereits vorhandene Biases reproduziert und damit zu diskriminierenden Entscheidungen führt.

Betrachtet man ein KI-basiertes System zur Talentakquise als nur dann nützlich, wenn es zu transparenten und fairen Entscheidungen führt, könnte man argumentieren, dass die Ergebnisse von Ochmann und Laumer eine Ergänzung des TAM darstellen.

Andere Studien betrachten die Relevanz des UTAUT (Alam et al. 2020) sowie das Vertrauen in die KI-gestützten Entscheidungen (Niehueser/Boak 2020) im Kontext von KI-basierter Talent- akquise. Allerdings weisen beide der genannten Studien Qualitätsprobleme und Unklarheiten in der theoretischen Fundierung wie auch in der empirischen Vorgehensweise auf. Damit bleibt eine gewisse Forschungslücke zu den Faktoren, die die Akzeptanz von KI-basierten Recruiting- Tools durch HR-Manager:innen beeinflussen.

4 Anwendung der gängigen Modelle im Kontext von Künstlicher Intelligenz und EHRM

Angesichts dieser Forschungslücke werden in weiterer Folge Befunde der Literatur zur Anwen- dung des TAM und der UTAUT im Kontext von KI-basierten Tools im Allgemeinen dargestellt.

Beide Modelle, das TAM und die UTAUT, wurden im Zusammenhang mit KI-basierten Anwen- dungen erweitert und angepasst. Liker und Sindi (1997) beispielsweise entwickeln unter Bezug- nahme auf die Theorie des überlegten Handelns (TRA; Fishbein/Ajzen 1975) und unter Einbe- ziehung von Elementen des TAM ein Modell für die Akzeptanz von Expert Systems durch die Nutzer:innen, das in großen US-amerikanischen Wirtschaftsprüfungsunternehmen getestet wurde, die kürzlich ein Expert System eingeführt hatten. Neben PU und PEU beziehen sie auch die wahrgenommenen Auswirkungen auf das berufliche Fortkommen, auf die Arbeitsplatz- sicherheit und auf die Wertschätzung ihrer Fähigkeiten in das Modell ein; sie argumentie- ren, dass Expert Systems potenziell Expert:innen ersetzen. Somit enthält dieses Modell eine Risiko- oder Bedrohungskomponente, die in anderen Modellen fehlt. Interessanterweise ergab die empirische Prüfung des Modells, dass die wahrgenommenen Auswirkungen auf das beruf- liche Fortkommen und die Arbeitsplatzsicherheit nicht mit der Einstellung zur Nutzung des Sys- tems oder der Absicht, das System zu nutzen, in Zusammenhang stehen (Liker/Sindi 1997). Die wahrgenommenen Auswirkungen auf geschätzte Fähigkeiten, also die Bedrohung des Status als Expert:in, wirkten sich jedoch auf die PU, die Einstellung gegenüber dem System und die Absicht, das System zu nutzen, aus. Eine mögliche Erklärung für die mangelnde Relevanz der Risikokomponente könnte die Geschlechterzusammensetzung der Befragten sein. Wie Nguyen et al. (2018) in ihrer Studie zur Nutzungsabsicht einer Voice-User-Schnittstelle zeigen, wird die Beziehung zwischen Risiko und Nutzungsabsicht durch das Geschlecht beeinflusst. Aufgrund dieser widersprüchlichen Ergebnisse zur Rolle des Risikos bei der Prognose der Absicht, ein KI-basiertes System zu nutzen, müssen die mit der KI-Nutzung verbundenen Risiken weiter er- forscht werden. Um einen besseren Überblick über die vorhandene Literatur zur Akzeptanz von KI-basierten Systemen zu erhalten, finden sich in Tabelle 1 zusammengefasst die berücksichti- gen Variablen und die Ergebnisse der hier genannten Studien.

(7)

Tabelle 1: Überblick Studien zur Akzeptanz von KI-basierten Tools

StudieModellErgebnisvariableUnabhängige VariablenErgebnisse Liker/Sindi (1997)TAM, TRAIntention zur Nutzung von Expert Systems PEU und PU wahrgenommene Auswirkungen (PI) auf wert- gesctzte Fähigkeiten, Karriere, Arbeitsplatz- sicherheit, subjektive Normen, Alter, Einstellung gegenüber dem Expert System

Einstellung zur Systemnutzung sagt BI nicht voraus. PEU wirkt sich auf PU und PI auf die Karriere aus. Alter beeinflusst PI auf geschätzte Fähigkeiten, die wiederum PI auf Karriere und Arbeitsplatzsicherheit beeinflussen, sowie die Einstellung zur Nutzung und BI, subjektive Normen prognostizieren die Einstellung zur Systemnutzung. Nasirian et al. (2017)andereBI zur Nutzung des Sprachassis- tenzsystems

Qualität, Vertrauen, pernliche Innovati- onskraft, Geschlecht, Bildung, Verspieltheit, Bequemlichkeit

Nur die Informationsqualität beeinflusst das Vertrauen. Vertrauen und pernlicher Innovationsgrad erkren die Nutzungsabsicht. Persönliche Innovativität ist kein Moderator. Nguyen et al. (2018)Abgeleitet von TAMBI zur Verwen- dung einer sprachgesteuer- ten Benutzer- oberfläche

Informations- und Systemqualität, Informations- und Systemzufriedenheit, PEU, PU, Selbstwirksamkeitserwartung, Spaß, Vertrauen, wahrgenommenes Risiko Einstellung gegenüber der VUI-Nutzung

PEU beeinflusst direkt und indirekt über PU die BI, PU direkt. Geschlechtsspezifische Unterschiede in Bezug auf den Einfluss von Vertrauen, wahrgenommenem Risiko, SE und PEU. Conti et al. (2016)UTAUTBI zur Nutzung von RoboternPEU, PU, wahrgenommene Anpassungsfähig- keit, soziale Präsenz, wahrgenommene Kontakt- freudigkeit, Spaß, Einstellung, sozialer Einfluss, Ängstlichkeit, Vertrauen

UTAUT-Modell ist anwendbar. de Graaf/ Ben Allouch (2013)

UTAUTtatsächlicher Einsatz eines sozialen Roboters Anpassungshigkeit, Benutzerfreundlichkeit, tzlichkeit, Intelligenz Antromorphismus, Realismus, Geselligkeit, Kameradschaft, Attraktivität, Vergnügen sozial-normative Überzeugungen und Kontrollüberzeugungen

Akzeptanz sozialer Roboter muss utilitaristische und he- donistische Variablen umfassen; Benutzermerkmale sind nur für eine kleine Anzahl von Variablen signifikant – z. B. Geschlecht für die Einstellung gegenüber Robotern, Alter r den sozialen Einfluss. Heerink et al. (2009)UTAUTtatsächlicher Einsatz eines sozialen Roboters

Angst, Einstellungen, förderliche Bedingungen, Nutzungsabsicht, wahrgenommene Anpassungshigkeit, wahrgenommenes Sppotenzial, PEU, wahrgenommene soziale Kompetenz, wahrgenommene tzlichkeit, sozialer Einfluss, soziale Psenz, Vertrauen, Nutzung PEU und Einstellung sagen die Nutzungsabsicht voraus, BI sagt die Nutzung voraus. Wahrgenommene Anpassungsfähigkeit sagt PU voraus, soziale Psenz sagt wahrgenommene Freude voraus, Vertrauen sagt wahrgenommene Sozialkompetenz voraus, wahr- genommene Sozialkompetenz sagt soziale Psenz voraus. Angst (z. B.) sagt weder PU noch PEU signifi- kant voraus, Vertrauen ist für die Nutzungsabsicht nicht relevant.

(8)

Der Vergleich von Studien über die Akzeptanz von KI-basierten Systemen zeigt die gängige Praxis der Verwendung von Verhaltensintentionen als Ergebnisvariable. Ein wahrscheinlicher Grund dafür ist, dass die Menschen eher Verhaltensabsichten haben, KI-basierte Systeme zu nutzen oder nicht zu nutzen, als tatsächliche Erfahrungen mit ihnen zu besitzen. Dies stellt jedoch keine Einschränkung für Studien dar, die diese Strategie verfolgen, da es ausreichend Unterstützung durch Forschung gibt, die KI als Prädiktor für die tatsächliche Nutzung validiert (Davis et al. 1989; Heerink et al. 2009; Oostrom et al. 2013; Rauniar et al. 2014; Turner et al. 2010).

Neben den Studien zur Akzeptanz von KI-basierten Anwendungen gibt es ein breites Spektrum an Untersuchungen zur Einstellung und Akzeptanz von EHRM-Funktionen (Chakraborty/Mansor 2013; Erdoğmuş/Esen 2011; Kashi/Zheng 2013; Maican et al. 2018; Obeidat 2016; Oostrom et al. 2013; Stone/Lukaszewski 2009; Stone et al. 2013; Voermans/van Veldhoven 2007; Yusliza/

Ramayah 2012; Yusoff et al. 2015). Auch diese Studien bauen meist auf dem TAM und UTAUT auf und erweitern diese, um die Akzeptanz von EHRM-Instrumenten besser zu erforschen. Dies lässt sich am besten als Erweiterungen erklären, die individuelle Unterschiede in der Persön- lichkeit, technologiebezogene individuelle Unterschiede wie Computerselbstwirksamkeit oder Technologiebereitschaft sowie Unterschiede in der beruflichen Identität und den HR-Rollen- präferenzen berücksichtigen.

Oostrom et al. (2013) beispielsweise beziehen Offenheit für Erfahrungen und Neurotizismus sowie die technologiespezifischen Variablen persönliche Innovationsbereitschaft in puncto Informationstechnologie und Computerselbstwirksamkeitserwartung (SE) in das TAM ein und untersuchen die Rolle dieser zusätzlichen Faktoren als Prädiktoren für PU und PEU. Sie fanden heraus, dass die persönliche Innovationsfähigkeit ein wichtiger Prädiktor sowohl für PU als auch für PEU ist und dass die Computerselbstwirksamkeitserwartung (SE) mit PEU, aber nicht mit PU assoziiert ist. Die Persönlichkeitsfaktoren Offenheit für neue Erfahrungen und Neurotizismus sagten keine der relevanten Variablen signifikant voraus. Ähnlich wie Oostrom et al. (2013) fanden Maican et al. (2018) heraus, dass Selbstwirksamkeitsüberzeugung ein wichtiger Prädiktor für Anstrengungserwartung ist, die das konzeptionelle Äquivalent zu PU im UTAUT-Modell darstellt. Die zweite Komponente, die sie dem ursprünglichen UTAUT-Modell als signifikanten Beitrag hinzufügten, war Technologieangst, während individuelle Persönlichkeits- unterschiede als nicht relevant befunden wurden. Im Einklang mit Forschungsergebnissen aus anderen Be reichen ( Pajares 1996; Zeldin et al. 2008) wird SE als Variable identifiziert, die im Kontext der Technologieakzeptanz durch das Geschlecht moderiert wird (Maican et al. 2018;

Malaquias et al. 2018; Teo/Zhou 2014).

Ein etwas anderes Konzept als die technologiebezogene Selbstwirksamkeitserwartung, die die Einschätzung einer Person, Technologie für einen bestimmten Zweck zu nutzen (Bandura 1997;

Maican et al. 2018), beschreibt, ist die Technologiebereitschaft. Sie ist definiert als „die Neigung von Menschen, neue Technologien anzunehmen und zu nutzen, um Ziele im Privatleben und bei der Arbeit zu erreichen“ (Parasuraman 2000: 308) und wird anhand einer vierdimensionalen Skala konzeptualisiert: Optimismus, Innovationsfreude, Unbehagen und Unsicherheit. Alle vier

(9)

Dimensionen sind im Zusammenhang mit der Einstellung zu Technologie zu verstehen.

Erdoğmuş and Esen (2011) kombinieren das TAM und das Technology Readiness Model, um die Akzeptanz von EHRM-Systemen zu untersuchen. Sie stellen fest, dass sowohl Optimismus als auch Innovationsfähigkeit Prädiktoren für PEU und PU sind, nicht aber für Unbehagen oder Unsicherheit. Dies deutet auf ein gewisses Maß an Überschneidungen mit den Ergebnissen zu persönlicher Innovationsfähigkeit und Technologieakzeptanz hin, aber nicht mit den Ergebnis- sen zu Bedrohung/Risiko und Technologieakzeptanz.

Und schließlich wurde die Akzeptanz von EHRM-Systemen im Zusammenhang mit der beruf- lichen und personalwirtschaftlichen Rollenidentität untersucht. Voermans und van Veldhoven (2007) untersuchen die Einstellung zu e-HRM, indem sie das TAM mit Ulrichs (1997) Modell für HR-Rollen kombinieren. Sie finden heraus, dass eine Präferenz für die Rolle Strategic Partner und eine Präferenz für die Rolle Employee-Champion negativ mit der Einstellung zu e-HRM assoziiert ist. Diese Effekte sind stärker als die Effekte von PEU und PU bei Führungskräften und stärker als der Effekt von IT-Kenntnissen bei Führungskräften und Mitarbeiter:innen. Dies deutet darauf hin, dass die Rollenwahrnehmung relevant sein könnte. Bei der Erörterung der Grenzen ihrer Studie erwähnen Voermans und van Veldhoven Probleme bei der Anpassung der Ulrich-Skala zur Messung der Rollenpräferenz und nicht der tatsächlichen Rolle. Diese Ergebnisse werden teilweise von Yusoff et al. (2015) unterstützt, die in ähnlicher Weise das TAM und das Modell von Ulrich (1997) kombinieren und feststellen, dass die Wahrnehmung von HR als strategischem Partner sowie als Change Agent positiv mit der Einstellung gegenüber e-HRM verbunden ist. Im Gegensatz zu Voermans und van Veldhoven wurde kein signifikanter Zusammenhang zwischen der Rolle des Employee Champion und der Einstellung festgestellt.

5 Alternative Modelle und Ansätze

Diese Forschungsergebnisse zur Relevanz der HR-Rollenidentität sind insofern interessant, als sie  sich mit anderen Untersuchungen zur Einstellung gegenüber KI und Expert Systems ( Jussupow/Spohrer/Dibbern, et al. 2018; Jussupow/Spohrer/Heinzl, et al. 2018; Liker/Sindi 1997) sowie mit Untersuchungen zur beruflichen Identität von HR-Fachkräften (Haines III/Saba 2012) decken. Die Studie von Liker und Sindi (1997) bezieht die berufliche Identität nicht direkt als Kon- strukt in ihr Modell ein. Allerdings wurde die wahrgenommene Auswirkung auf die wertgeschätz- ten Fähigkeiten, die sich (wie bereits erwähnt) auf die PU, die Einstellung gegenüber dem System sowie die Absicht, das System zu nutzen, auswirkt, im Kontext von Expert Systems konstruiert, die potenziell Expert:innen ersetzen. Jussupow, Spohrer, Dibbern, et al. (2018) scheinen in ihrer Vorstudie zur Akzeptanz von Expert Systems durch Ärztinnen und Ärzte auf einer ähn lichen Annahme aufzubauen, wenn sie diese als potenzielle Bedrohung ihrer beruflichen Identität be- schreiben, da sie ihren „Entscheidungsprozess und ihre Rolle als Wissensexperten“ ( Jussupow/

Spohrer, Dibbern, et al. 2018: 4) beeinträchtigen würden.

(10)

Diese Rolle der Wissensexpert:innen ist auch eine wichtige Prämisse in der Studie von Hekman et al. (2009) über die Akzeptanz eines neuen E-Mail-basierten Kommunikationssystems durch Ärzt:innen. Bei der Untersuchung der Rolle des sozialen Einflusses der Verwaltung als Determinante für die Annahme des neuen Systems stellen sie fest, dass der soziale Einfluss am stärksten ist, wenn die organisatorische Identität stark und die berufliche Identität schwach ist.

Hekman et al. (2009) erklären diese Ergebnisse damit, dass die Ärztinnen und Ärzte die Verwal- tungsangestellten nicht als echte Mitglieder ihres Berufsstandes betrachten und ihr Ziel darin besteht, „fast unabhängig von Kosten- oder Einnahmeerwägungen eine Dienstleistung höchster Qualität (im Sinne des Berufsstandes) anzubieten“ (S. 1326). Es wäre interessant zu sehen, ob die Ergebnisse von Hekman et al. (2009) auf HR-Fachkräfte übertragbar sind, die nach Haines III und Saba (2012) durch Ausbildung und berufliche Sozialisation verinnerlichte rollenbezogene Erwartungen und eine starke berufliche Identität erwerben, die bedroht sein kann, wenn ihnen die Möglichkeit verwehrt wird, ihre Rolle voll auszuüben. Es wäre auch spannend zu erheben, ob die (teilweise) Übertragung von Auswahlentscheidungen von Personalfachleuten auf KI-basierte Rekrutierungstools ähnliche Gefühle der Bedrohung auslöst.

Diese Annahme wird teilweise durch Untersuchungen zur beruflichen Rollenidentität in der Personalbranche gestützt, die zeigen, dass sich die berufliche Identität im Laufe der Jahre von einer eher operativen zu einer eher strategischen Identität gewandelt hat. Außerdem befinden sich HR-Fachleute oft in gegensätzlichen Rollen (Caldwell 2003) oder werden in verschiedenen Rollen wahrgenommen. Dieser Balanceakt wird auch in der Studie von Heizmann und Fox (2017) deutlich, die feststellen, dass sich HR-Business-Partner in zahlreichen widersprüchlichen Rollen wiederfinden. Lang und Rego (2015) untersuchen diese Spannungen ebenfalls und kommen auf der Grundlage einer Interviewstudie zu dem Schluss, dass diese höchstwahrscheinlich aus einer „Sandwich“-Position, knappen Ressourcen und Konflikten mit dem Linienmanagement resultieren und dass HR-Fachleute dazu neigen, mit diesen Spannungen umzugehen, indem sie ihre berufliche Identität unterschiedlich gewichten: entweder als Service-orientiert, strategisch beratend, kontrollierend oder durch den Aufbau von professionellem Kapital durch Qualifizierung stärkend. Diese Ergebnisse unterstützen die Einbeziehung der Rollenidentität in die Über legungen zur Nutzung von KI-basierten Recruiting-Tools durch Personalverantwortliche.

6 Integratives Modell für die Akzeptanz von auf künstlicher Intelligenz basierten Recruiting Tools durch HR-Manager:innen

Die Untersuchung der vorhandenen Literatur hat gezeigt, dass es derzeit nur wenige Studien über die Akzeptanz von KI-basierten Tools zur Talentakquisition gibt. Es existiert jedoch ein breites Spektrum an Forschungsarbeiten, die sich mit der Akzeptanz von KI-basierten Tools in anderen Kontexten als dem Personalwesen befassen. Diese Studien wenden meist das Technologieakzeptanzmodell oder die einheitliche Theorie der Akzeptanz und Nutzung von Technologie (UTAUT) an. Das TAM und die UTAUT sind auch die am häufigsten verwendeten

(11)

Modelle in der Forschung zur Akzeptanz von e-HRM-Tools. In beiden Kontexten wurden diese Modelle in vielfältiger Weise angepasst und erweitert. Neben Faktoren wie Geschlecht, Alter und Persönlichkeitsmerkmalen hat die bisherige Forschung auch eine Reihe von technologie- be zogenen Merkmalen wie Technologiebereitschaft und Selbstwirksamkeitsüberzeugung untersucht. In Anbetracht der potenziellen Auswirkungen von Expert Systems auf Entscheidungs- prozesse und der möglichen Bedrohung für die Identität von Fachleuten, hat die Forschung auch die Rolle der beruflichen und organisatorischen Identität bei der Akzeptanz von Expert Systems und Diagnose instrumenten untersucht. Dieser Aspekt erscheint besonders wichtig im Hinblick auf die Forschung zur HR-Rolle und zur beruflichen Identität von HR-Fachkräften, die nachweislich psychischen Stress verursacht, wenn sie bedroht wird. Bisher ist er aber weder im Kontext von KI-basierten HR-Tools noch dem eHRM im Allgemeinen ausreichend erforscht.

Aufbauend auf den hier vorgestellten Forschungsstand wird ein erweitertes und angepasstes Modell vorgeschlagen. Dieses verfolgt das Ziel, zu untersuchen, welche Faktoren die Absicht von Personalverantwortlichen, KI-gestützte Recruiting Tools zu nutzen, am besten erklären.

Abbildung 3: Integratives Modell für die Akzeptanz von auf künstlicher Intelligenz basierten Recruiting Tools durch HR-Manager:innen

Wahrgenommene Bedrohung der Expertise Professionelle Identität

Wahrgenommener

Anwendungsnutzen Verwendungs-

intention Technologiebereitschaft

Das vorgeschlagene Modell berücksichtigt Technologiebereitschaft, den wahrgenommenen Anwendungsnutzen, professionelle Identität und wahrgenommene Identität als direkte und i n- direkte Prädiktoren für Verwendungsintention. Dabei wird angenommen, dass die Verwendungs- intention bestimmt wird durch (a) die Technologiebereitschaft, (b) den wahrgenommenen Anwendungsnutzen und (c) die wahrgenommene Bedrohung der Expertise. Dabei wirken sowohl wahrgenommene Bedrohung der Expertise als auch Technologiebereitschaft direkt auf die Ver- wendungsintention als auch indirekt durch den wahrgenommenen Anwendungsnutzen. Es wird antizipiert, dass professionelle Identität sowohl den wahrgenommenen Anwendungsnutzen als auch die wahrgenommene Bedrohung der Expertise beeinflusst.

(12)

7 Conclusio

Das Ziel dieses Beitrages war, Faktoren zu identifizieren, die geeignet sind, die Verwendungs- intention von KI-basierten HR-Tools durch HR-Manager:innen zu prognostizieren. Eine Be stands - aufnahme der vorhandenen Literatur zeigt, dass bislang vorrangig die Bewerber:innen-Sicht- weise betrachtet wurde und nur einige wenige Studien zur Verwendungsintention von HR- Manager:innen vorliegen. Es zeigt sich jedoch, dass sowohl im Kontext von e-HRM-Tools als auch im Kontext anderer KI-basierter Tools regelmäßig das Technologieakzeptanzmodell oder das Unified Theory of Acceptance Model in ihrer Grundform oder in Abwandlungen zur Anwendung kommen. Neben den Elementen dieser Modelle in ihrer Grundform wurden auch die potenzielle Relevanz der professionellen Identität, die Technologiebereitschaft und die wahrgenommene Bedrohung der Expertise durch KI als mögliche Einflussfaktoren für die Verwendungsintention von KI-basierten Tools diskutiert. Auf Basis der aus der bisherigen Literatur abgeleiteten Schlüsse wurde ein Integratives Modell für die Akzeptanz von auf künstlicher Intelligenz basierten Recruiting-Tools durch HR-Manager:innen vorgeschlagen, welches in weiterer Folge empirisch zu überprüfen ist.

8 Literaturverzeichnis

Ajzen, Icek (1985): From intentions to actions: A theory of planned behavior. In: Kuhl, Julius / Beckman, Jürgen (eds.): Action control. New York: Springer, 11-39.

Alam, Mohammad Sarwar / Dhar, Sanjib Sutra / Munira, Kazi Sirajum (2020): HR Professionals’

Intention to Adopt and Use of Artificial Intelligence in Recruiting Talents. In: Business Perspective Review, 2(2), 15-30.

Angrave, David / Charlwood, Andy / Kirkpatrick, Ian / Lawrence, Mark / Stuart, Mark (2016): HR and analytics: why HR is set to fail the big data challenge. In: Human Resource Management Journal, 26(1), 1-11.

Bandura, Albert (1997): Self-efficacy: The exercise of control. New York: W H. Freeman.

Caldwell, Raymond (2003): The changing roles of personnel managers: old ambiguities, new uncertainties. In: Journal of Management Studies, 40(4), 983-1004.

Campion, E. D. / Campion, M. A. (2020): Using Computer-assisted Text Analysis (CATA) to Inform Employment Decisions: Approaches, Software, and Findings. In: Buckley, M. Ronald / Anthony, R.

Wheeler / John, E. Baur / Jonathon, R. B. Halbesleben (eds.): Research in Personnel and Human Resources Management. Bigley: Emerald Publishing Limited, 285-325.

(13)

Campion, M. C. / Campion, M. A. / Campion, E. D. / Reider, M. H. (2016): Initial investigation into computer scoring of candidate essays for personnel selection. In: J Appl Psychol, 101(7), 958-75.

Chakraborty, Ananya Raka / Mansor, Nur Naha Abu (2013): Adoption of human resource informa- tion system: A theoretical analysis. In: Procedia-Social and Behavioral Sciences, (75), 473-478.

Compeau, Deborah R. / Higgins, Christopher A (1995): Application of social cognitive theory to training for computer skills. In: Information Systems Research, 6(2), 118-143.

Conti, Daniela / Di  Nuovo, Santo / Buono, Serafino / Di  Nuovo, Alessandro (2016): Robots in Education and Care of Children with Developmental Disabilities: A Study on Acceptance by Experienced and Future Professionals. In: International Journal of Social Robotics, 9(1), 51-62.

Davis, Fred D. (1985): A technology acceptance model for empirically testing new end-user infor- mation systems: Theory and results. Massachusetts Institute of Technology.

Davis, Fred D. / Bagozzi, Richard P. / Warshaw, Paul R. (1989): User acceptance of computer technology: a comparison of two theoretical models. In: Management science, 35(8), 982-1003.

Davis, Fred D. / Bagozzi, Richard P. / Warshaw, Paul R. (1992): Extrinsic and intrinsic motivation to use computers in the workplace 1. In: Journal of Applied Social Psychology, 22(14), 1111-1132.

de Graaf, Maartje M. A. / Ben Allouch, Somaya (2013): Exploring influencing variables for the acceptance of social robots. In: Robotics and Autonomous Systems, 61(12), 1476-1486.

Erdoğmuş, Nihat / Esen, Murat (2011): An investigation of the effects of technology readiness on technology acceptance in e-HRM. In: Procedia-Social and Behavioral Sciences, (24), 487-495.

van Esch, Patrick / Black, J. Stewart / Ferolie, Joseph (2019): Marketing AI recruitment: The next phase in job application and selection. In: Computers in Human Behavior, (90), 215-222.

van Esch, Patrick / Black, J. Stewart (2019): Factors that influence new generation candidates to engage with and complete digital, AI-enabled recruiting. In: Business Horizons, 62(6), 729-739.

van Esch, Patrick / Stewart Black, J. / Franklin, Drew / Harder, Mark (2020): AI-enabled bio- metrics in recruiting: Insights from marketers for managers. In: Australasian Marketing Journal (AMJ).

Faliagka, Evanthia / Ramantas, Kostas / Tsakalidis, Athanasios / Tzimas, Giannis (2012): Appli- cation of machine learning algorithms to an online recruitment system. In: Proc. International Conference on Internet and Web Applications and Services. Citeseer.

(14)

Fishbein, Martin / Ajzen, Icek (1975): Belief, attitude, intention and behavior: An introduction to theory and research. Reading, MA: Addison Wesley.

Haines III, Victor Y / Saba, Tania (2012): Challenges to professional identities and emotional exhaustion. In: Career Development International, 17(2), 120-136.

Hamilton, I. A. (2018): Why it’s totally unsurprising that Amazon’s recruitment AI was biased against women. In: Business Insider.

Heerink, M. / Krose, B. / Evers, V. / Wielinga, B. (2009): Measuring acceptance of an assistive social robot: a suggested toolkit. In: RO-MAN 2009 - The 18th IEEE International Symposium on Robot and Human Interactive Communication, 528-533.

Heizmann, Helena / Fox, Stephen (2017): O Partner, Where Art Thou? A critical discursive analysis of HR managers’ struggle for legitimacy. In: The International Journal of Human Resource Management, 30, 1-23.

Hekman, David R. / Steensma, H. Kevin / Bigley, Gregory A. / Hereford, James F. (2009): Effects of organizational and professional identification on the relationship between administrators’

social influence and professional employees’ adoption of new work behavior. In: Journal of Applied Psychology, 94(5), 1325.

Hickman, Louis / Tay, Louis / Woo, Sang Eun (2019): Validity Evidence for Off-the-Shelf Language-Based Personality Assessment Using Video Interviews: Convergent and Discriminant Relationships with Self and Observer Ratings. In: Personnel Assessment and Decisions, 5(3), 3.

Hooper, Rebecca Storey / Galvin, Thomas P. / Kilmer, Robert A. /Liebowitz, Jay (1998): Use of an expert system in a personnel selection process. In: Expert Systems with Applications, 14(4), 425-432.

Jussupow, Ekaterina / Spohrer, Kai / Dibbern, Jens / Heinzl, Armin (2018): AI changes who we are –doesn’t it? Intelligent decision support and physicians’ professional identity. In: Research- in-Progress Papers 53.

Jussupow, Ekaterina / Spohrer, Kai / Heinzl, Armin / Link, Carolin (2018): I am; We are-Conceptu- alizing Professional Identity Threats from Information Technology.

Kashi, Kia / Zheng, Connie (2013): Extending Technology Acceptance Model to the E‐recruitment Context in I ran. In: International Journal of Selection and Assessment, 21(1), 121-129.

(15)

Lang, Rainhart / Rego, Kerstin (2015): German Human Resource Management professionals under tensions: A Bourdieusian approach. In: German Journal of Human Resource Management, 29(3-4), 259-279.

Langer, Markus / König, Cornelius J. / Busch, Vivien (2020): Changing the means of managerial work: effects of automated decision support systems on personnel selection tasks. In: Journal of Business and Psychology, (36), 1-19.

Liker, Jeffrey K. / Sindi, Ahmed A. (1997): User acceptance of expert systems: a test of the theory of reasoned action. In: Journal of Engineering and Technology Management, 14(2), 147-173.

Lochner, Katharina / Preuß, Achim (2018): Digitales Recruiting. Die Evolution des Assessments mittels künstlicher Intelligenz. In: Gruppe. Interaktion. Organisation. Zeitschrift für Angewandte Organisationspsychologie (GIO), 49(3), 193-202.

Maican, Catalin / Cazan, Ana-Maria / Lixandroiu, Radu (2018): A study on academic staff perso- nality and technology acceptance: The case of communication and collaboration applications.

In: Computers & Education, 128, 113-131.

Malaquias, Rodrigo F. / Malaquias, Fernanda F. O. / Hwang, Yujong (2018): Understanding techno- logy acceptance features in learning through a serious game. In: Computers in Human Behavior, 87, 395-402.

Marler, Janet H. / Fisher, Sandra L. (2013): An evidence-based review of e-HRM and strategic human resource management. In: Human Resource Management Review, 23(1), 18-36.

Nasirian, Farzaneh / Ahmadian, Mohsen / Lee, One-Ki Daniel (2017): AI-Based Voice Assistant Systems: Evaluating from the Interaction and Trust Perspectives. In: Twenty-third Americas Conference on Information Systems. Boston.

Nguyen, Quynh N. / Ta, Anh / Prybutok, Victor (2018): An Integrated Model of Voice-User Inter- face Continuance Intention: The Gender Effect. In: International Journal of Human–Computer Interaction, 1-16.

Niehueser, Wilfried / Boak, George (2020): Introducing artificial intelligence into a human resources function. In: Industrial and Commercial Training, 52(2), 121-130.

Obeidat, Shatha M. (2016): The link between e-HRM use and HRM effectiveness: an empirical study. In: Personnel Review, 45(6), 1281-1301.

Ochmann, Jessica / Laumer, Sven (2019): Fairness as a Determinant of AI Adoption in Recruiting:

An Interview-based Study. In: DIGIT ‘19. Munich.

(16)

Oostrom, Janneke K. / van der Linden, Dimitri / Born, Marise Ph. / van der Molen, Henk T. (2013):

New technology in personnel selection: How recruiter characteristics affect the adoption of new selection technology. In: Computers in Human Behavior, 29(6), 2404-2415.

Oswald, Frederick L. / Behrend, Tara S. / Putka, Dan J. / Sinar, Evan (2020): Big data in industrial- organizational psychology and human resource management: Forward progress for organizati- onal research and practice. In: Annual Review of Organizational Psychology and Organizational Behavior, 7, 505-533.

Pajares, Frank (1996): Self-efficacy beliefs in academic settings. In: Review of educational research, 66(4), 543-578.

Parasuraman, A. (2000): Technology Readiness Index (TRI): A Multiple-Item Scale to Measure Readiness to Embrace New Technologies. In: Journal of Service Research, 2(4), 307.

Pillai, Rajasshrie / Sivathanu, Brijesh (2020): Adoption of artificial intelligence (AI) for talent acquisition in IT/ITeS organizations. In: Benchmarking: An International Journal, 27(9), 2599-2629.

Rauniar, Rupak / Rawski, Greg / Yang, Jei / Johnson, Ben (2014): Technology acceptance model (TAM) and social media usage: an empirical study on Facebook. In: Journal of Enterprise Infor- mation Management, 27(1), 6-30.

Rogers, Everett M. (1983): Diffusion of innovations. New York: The Free Press.

Short, Jeremy C. / McKenny, Aaron F. / Reid, Shane W. (2018): More than words? Computer-aided text analysis in organizational behavior and psychology research. In: Annual Review of Organiza- tional Psychology and Organizational Behavior, 5, 415-435.

Speer, Andrew B. (2018): Quantifying with words: An investigation of the validity of narrative- derived performance scores. In: Personnel Psychology, 71(3), 299-333.

Stone, Dianna L. / Lukaszewski, Kimberly M. (2009): An expanded model of the factors affec- ting the acceptance and effectiveness of electronic human resource management systems. In:

Human Resource Management Review, 19(2), 134-143.

Stone, Dianna L. / Lukaszewski, Kimberly M. / Stone-Romero, Eugene F. / Johnson, Teresa L.

(2013): Factors affecting the effectiveness and acceptance of electronic selection systems. In:

Human Resource Management Review, 23(1), 50-70.

Taylor, Shirley / Todd, Peter A. (1995): Understanding information technology usage: A test of competing models. In: Information Systems Research, 6(2), 144-176.

(17)

Teo, Timothy / Zhou, Mingming (2014): Explaining the intention to use technology among university students: a structural equation modeling approach. In: Journal of Computing in Higher education, 26(2), 124-142.

Thompson, Ronald L. / Higgins, Christopher A. / Howell, Jane M. (1991): Personal computing:

toward a conceptual model of utilization. In: MIS Quarterly, 15(1), 125-143.

Turner, Mark / Kitchenham, Barbara / Brereton, Pearl / Charters, Stuart / Budgen, David (2010):

Does the technology acceptance model predict actual use? A systematic literature review. In:

Information and Software Technology, 52(5), 463-479.

Ulrich, David (1997): Human resource champions: The next agenda for adding value and delive- ring results. Boston: Harvard Business Press.

Venkatesh, Viswanath / Davis, Fred D. (2000): A Theoretical Extension of the Technology Accep- tance Model: Four Longitudinal Field Studies. In: Management science, 46(2), 186-204.

Venkatesh, Viswanath / Morris, Michael G. (2000): Why Don’t Men Ever Stop to Ask for Direc- tions? Gender, Social Influence, and Their Role in Technology Acceptance and Usage Behavior.

In: MIS Quarterly, 24(1), 115-139.

Venkatesh, Viswanath / Morris, Michael G. / Davis, Gordon B. / Davis, Fred D. (2003): User Acceptance of Information Technology: Toward a Unified View. In: MIS Quarterly, 27(3), 425-478.

Venkatesh, Viswanath / Thong, James Y.L. / Xin, Xu (2016): Unified Theory of Acceptance and Use of Technology: A Synthesis and the Road Ahead. In: Journal of the Association for Informa- tion Systems, 17(5), 328-376.

Venkatesh, Viswanath / Zhang, Xiaojun (2010): Unified theory of acceptance and use of techno- logy: US vs. China. In: Journal of global information technology management, 13(1), 5-27.

Voermans, M. / van Veldhoven, M. (2007): Attitude towards E-HRM: an empirical study at Philips.

In: Personnel Review, 36(6), 887-902.

Wirtz, Jochen / Patterson, Paul G. / Kunz, Werner H. / Gruber, Thorsten / Lu, Vinh Nhat / Paluch, Stefanie / Martins, Antje (2018): Brave new world: service robots in the frontline. In: Journal of Service Management, 29(5), 907-931.

Yusliza, My / Ramayah, T. (2012): Determinants of Attitude Towards E-HRM: an Empirical Study Among HR Professionals. In: Procedia - Social and Behavioral Sciences, 57, 312-319.

(18)

Yusoff, Yusliza M. / Ramayah, T. / Othman, Nur-Zahiyah (2015): Why examining adoption factors, HR role and attitude towards using E-HRM is the start-off in determining the successfulness of green HRM. In: Journal of Advanced Management Science, 3(4), 337-343.

Zeldin, Amy / Britner, Shari L. / Pajares, F. (2008): A comparative study of the self‐efficacy beliefs of successful men and women in mathematics, science, and technology careers. In: J. Res. Sci.

Teach., 45(9), 1036-1058.

Referenzen

ÄHNLICHE DOKUMENTE

Im organisatorischen Bereich müssen die inzwischen entwickelten Nutzungsmöglichkeiten (siehe [Kai04]) für den Einsatz in der Lehre, im Klinikbetrieb und für die Weiterbildung über

9 In der Standardansicht können Sie bei Anzeige festlegen, ob Sie eine Symbolleiste unterhalb des angezeigten fertigen Inhaltstyps einblenden wollen, durch die man den

Die veröffentlichte Arbeit 3DCapsule (Cheraghian and Petersson 2019) bietet, basierend auf der Vorverarbeitung von PointNet, einen alternativen Classifier, der nicht

Diese werden auf Basis ethischer Modelle, wie dem PAPA-Modell (Mason 1986), dem AI4People-Modell (Floridi et al. 2018) sowie veröffentlichter KI-Ethik-Prinzipien (Jobin et al.

In unseren drei kompakten Online-Seminaren lernen Berufs- und Praxisbildner/innen die relevanten Plattformen wie beispielsweise Miro, Mentimeter, Zoom und Trello sowie

3.3.1 Schema für das Lernen: Modell, Verlustfunktion und

NEHER Future Tools GmbH – eine Firma im beschaulichen Telfs in Tirol wird seit 2011 vom 32-jähringen Jungunterneh- mer Andreas Goldberger geführt, der sich durch sein um-

Im Szenario gehen wir davon aus, dass ein solches Assistenzsystem in etwa 5 Jahren breite Anwendung finden kann und Ärzte ihre Patienten auf dieser Basis beraten können.. Durch