L’Intelligence artificielle au service de la lutte contre les discriminations dans le recrutement: nouvelles promesses et nouveaux risques

Fiche de lecture  :

Référence au format APA :

Lacroux, A., & Martin-Lacroux, C. (2021). L’Intelligence artificielle au service de la lutte contre les discriminations dans le recrutement: nouvelles promesses et nouveaux risques. Revue management et avenir, (2), 121-142.

Mots clés de l’article :

Synthèse :

Préambule : Wendy Hall, auteur d’un rapport sur l’intelligence artificielle, a récemment mis en lumière un célèbre adage des spécialistes de l’analyse de données en notant : “Nous parlions autrefois de déchets en, déchets dehors ; maintenant, avec l’IA, nous parlons de biais en, biais dehors”. Cela illustre le paradoxe des outils de recrutement basés sur l’IA qui sont présentés comme des armes pour un recrutement “objectif”, mais qui ne tiennent pas toujours leurs promesses et peuvent même causer de nouveaux biais de décision chez les recruteurs. L’IA est une notion large et floue, utilisée lorsqu’un système informatique peut prendre une décision basée sur des données. Les algorithmes de machine learning sont capables de faire des prédictions, tandis que les algorithmes de deep learning cherchent à imiter le fonctionnement du cerveau humain. Le recrutement est l’un des domaines dans lesquels l’IA gagne rapidement du terrain, avec des arguments tels qu’un processus plus rapide, plus efficace et plus inclusif, ainsi qu’une promesse de diversité dans le recrutement. Cependant, cette promesse est encore partiellement illusoire en raison du fonctionnement même des algorithmes qui sont des “boîtes noires” peu transparentes et basées sur des données historiques qui peuvent être biaisées.

  1. IA et recrutement : des instruments diversifiés au service d’une promesse d’objectivité

1.1. Méthodologie de l’étude

Les auteurs ont effectué une étude de la littérature en utilisant une méthode de revue de littérature couramment utilisée pour explorer des concepts émergents, en particulier dans le domaine des NTIC (nouvelles technologies de l’information et de la communication). Ils ont procédé en trois étapes pour collecter les documents pertinents pour notre recherche. Dans la première étape, nous avons utilisé une requête générale “intelligence artificielle” sur les principaux journaux spécialisés en RH et recrutement, qui nous a donné peu de résultats (12 articles), indiquant la récente émergence du sujet dans la littérature en RH. Ensuite, nous avons élargi la recherche aux revues académiques spécialisées en management et psychologie des organisations en précisant la requête avec les termes “intelligence artificielle + embauche/recrutement/sélection du personnel”. Ils ont utilisé les bases de données scientifiques Google Scholar, EBSCO Business source complete et Cairn pour les articles en français. Les résultats (19 articles dans la base EBSCO Business source complete) ont conduit à une extension de la recherche aux sources variées telles que les rapports de recherche, les sites professionnels et la presse générale, dans les domaines juridique et informatique. Les 198 références obtenues à la fin de ces trois étapes constituent la base de notre étude.

1.2. Un état des lieux des usages de l’IA dans le recrutement

Le sujet du recrutement assisté par l’IA fait partie du domaine plus large des outils analytiques en RH, les avantages et les inconvénients de ces outils sont de plus en plus discutés. Il n’y a pas encore un champ de recherche stabilisé dans ce domaine et il y a un écart important entre l’utilisation de ces outils dans les entreprises et la publication de travaux scientifiques sur le sujet. Dans la pratique, l’introduction d’algorithmes d’IA impacte toutes les étapes des processus RH et les solutions se développent rapidement. En France, en 2019, 50% des professionnels RH utilisaient au moins un outil basé sur l’IA. Le marché du recrutement prédictif est en croissance rapide grâce aux startups. Le but de ces entreprises n’est pas de remplacer les recruteurs, mais de les “augmenter” en utilisant l’IA pour les aider dans leur travail, en insistant sur le fait que la décision finale reste entre les mains du recruteur humain.

1.3. Les promesses des créateurs des solutions de recrutement prédictif

Les défenseurs des outils d’IA de recrutement prétendent qu’ils améliorent la rapidité, l’efficacité et l’inclusivité du processus de recrutement en éliminant les biais discriminatoires à toutes les étapes. Pendant la phase de sourcing, la collecte de données sur les réseaux sociaux pour optimiser la concordance entre l’offre et la demande est considérée comme importante. L’utilisation de robots pour explorer les réseaux sociaux à la recherche de données personnelles utilisables pour des algorithmes de prédiction se généralise. En ce qui concerne la rédaction d’annonces, des outils sémantiques peuvent diagnostiquer les risques discriminatoires et les rendre plus inclusifs. La phase de présélection peut être effectuée sans CV grâce à des tests psychométriques et à l’évaluation des compétences. La phase d’entretien peut être préenregistrée et analysée automatiquement. Les algorithmes peuvent analyser le discours et les critères non verbaux. Cependant, ces outils doivent être utilisés avec précaution pour éviter les erreurs et les biais indésirables.

1.4. Des signaux d’alerte à ne pas négliger

Les premiers résultats montrent que l’efficacité des méthodes fondées sur l’IA pour éliminer les discriminations peut être mise en doute. Par exemple, Amazon a développé un modèle prédictif en 2014 qui classait les candidatures féminines dans une position inférieure en raison de la formation de l’algorithme sur une base comprenant des recrutements discriminatoires. Cette illustration montre les limites de l’élimination des biais de sélection en raison de la faible qualité des données et de la méthodologie d’apprentissage. L’analyse de la littérature sur les biais associés à l’utilisation de l’IA dans le recrutement sera effectuée en trois étapes : la période avant le recrutement, la phase de sélection et la phase de choix final. Il existe trois types de biais liés aux systèmes informatiques : les biais préexistants dans les données, les biais techniques causés par le système et les biais émergents causés par l’utilisateur du système.

  1. IA et recrutement : des biais à toutes les étapes ?

2.1. Les biais préexistants : quand les données sont faussées

2.1.1. Le problème des données d’entraînement : « bias in bias out ? »

Les données d’entraînement sont la base sur laquelle les tests de validation et d’ajustement des modèles prédictifs sont effectués dans le domaine du recrutement. Ce sont principalement des données sur les candidats qui ont postulé et les caractéristiques sont comparées à celles des salariés engagés. Cependant, cette étape peut multiplier les biais les plus difficiles à combattre, tels que les biais institutionnels ou structurels incorporés dans les données d’entraînement. De plus, les algorithmes basés sur l’apprentissage supervisé peuvent entraîner un clonage des candidats et renforcer les stéréotypes. Si les données d’entraînement sont biaisées, cela peut mener à des discriminations. Les biais liés aux données d’entraînement clonent la population des employés existants et ne se limitent pas à la discrimination sexiste ou raciste.

2.1.2. La programmation : les algorithmes ont-ils un « genre » ?

Il est mentionné dans le texte que dans le milieu des programmeurs informatiques, les hommes diplômés sont largement surreprésentés. Cela peut avoir un impact sur le choix des critères pour le calcul du score de recommandation. Par exemple, une pondération excessive accordée aux résultats de tests en logique mathématique pour le recrutement d’un manager peut surévaluer les candidats masculins ayant une culture mathématique, même si ce n’est pas nécessairement un indicateur des capacités de gestion. Les algorithmes de traitement du langage naturel peuvent également reproduire des stéréotypes de genre qui apparaissent dans les documents écrits.

2.1.3. Les biais liés au sourcing

Certaines pratiques de recrutement peuvent aboutir à de la discrimination sans que les recruteurs en soient conscients. Par exemple, l’algorithme de Linkedin Talent Match peut suggérer des candidats en fonction des choix antérieurs des employeurs, ce qui peut entraîner une discrimination. Des études montrent également que les femmes et les minorités peuvent être évaluées de manière défavorable sur les réseaux sociaux. De plus, la collecte automatique d’informations sur les réseaux sociaux peut poser un problème de vie privée et nuire à l’attractivité de l’entreprise.

2.2. Les biais pendant le recrutement : des biais classiques aux biais algorithmiques

2.2.1. Les biais discriminatoires liés aux tests : des problèmes bien connus

Plusieurs études ont montré que les tests cognitifs peuvent être biaisés, que ce soit sur papier ou numérique. Le stéréotype peut causer un stress chez un sujet, ce qui peut affecter les performances sur les tests cognitifs utilisés en recrutement. Par exemple, les femmes ont tendance à s’autocensurer dans les réponses aux tests à choix multiples, ce qui peut donner un avantage aux hommes. La gamification peut aider à dédramatiser les tests, mais elle peut également présenter des biais, comme un avantage pour les jeunes générations qui sont plus à l’aise avec les écrans.

2.2.2. Les entretiens différés : une fausse bonne idée ?

Les entretiens en face à face sont préférés aux entretiens différés ou asynchrones selon les recherches. Ceux-ci sont considérés comme moins équitables, plus intrusifs, avec moins de contrôle perçu par le candidat et moins de présence sociale que les visioconférences.

2.2.3. Les biais techniques et algorithmiques : quand la machine se trompe

Les algorithmes peuvent être victimes de différents types de biais. Les premiers sont dus à des erreurs techniques, telles que la mauvaise reconnaissance des expressions faciales. Les biais algorithmiques peuvent également provenir du fonctionnement normal de l’algorithme, qui est influencé par les données d’entraînement. Cela peut entraîner des prédictions biaisées lorsque les corrélations dans les données sont fallacieuses. Dans l’apprentissage profond, il existe un “effet boîte noire”, ce qui signifie que le mode de décision de l’algorithme est complexe et difficile à connaître. Enfin, les biais peuvent provenir de la logique sous-jacente à la programmation, telle que l’association entre les expressions faciales et les capacités de leadership.

2.3. Les biais en phase de choix : de l’aide à la décision à ladécision automatisée ?

2.3.1. La présentation des choix : aide ou incitation ?

Les outils de recrutement prédictif sont défendus par les promoteurs en disant que la décision finale appartient toujours à un humain. Les algorithmes de recommandation influencent cependant fortement le choix des candidats à rencontrer, utilisant des approches probabilistes pour donner des résultats en classement sans marge d’erreur. Les travaux de Tversky et Kahnemann ont montré des biais décisionnels dus à la présentation des solutions, comme le biais d’ancrage et l’effet de cadrage, qui peuvent influencer fortement les décisions en présence de risques. Lorsque les résultats sont présentés sous forme de classement ou de sélection, il y a un fort risque de biais de présentation, où les premiers candidats reçoivent une forte préférence, même si les scores agrégés peuvent être proches de ceux de candidats non présentés lorsque le nombre de dossiers examinés est important.

2.3.2. Le biais d’automation : quand l’humain suit aveuglément la machine

Le biais d’automation survient lorsque le recruteur accorde une importance excessive aux informations fournies par l’algorithme de recommandation. Les premiers candidats recommandés ont une forte probabilité d’être choisis en raison de la confiance dans l’algorithme et de la difficulté de la tâche. Cependant, la confiance accordée à l’algorithm est supérieure chez les décideurs peu expérimentés, selon une étude. La Commission nationale de l’informatique et des libertés souligne que les décisions basées sur un traitement automatisé sont interdites.

  1. Discussion : Peut-on corriger les algorithmes pour les rendre plus « vertueux » ?

3.1. La correction ex-post des biais

3.1.1. Première piste : agir sur la présentation des résultats (ex-post)

La première solution consiste à inclure une dose de hasard dans la présentation des résultats pour éviter les biais dans la décision du recruteur. On peut même aller plus loin en utilisant davantage de hasard en utilisant le tirage au sort pour choisir parmi plusieurs candidats avec un niveau élevé de correspondance avec le poste. Cette approche apparemment irrationnelle serait bien acceptée par les candidats dans les situations de décisions multicritères selon certaines études.

3.1.2. Deuxième piste : agir sur les critères de sélection

La deuxième solution pour éviter les biais dans le recrutement consiste à rendre les systèmes aveugles aux caractéristiques sociodémographiques telles que le sexe ou l’origine en ne prenant en compte que des termes techniques. Cependant, cette approche de l’équité est considérée comme naive en raison de son inefficacité face aux biais structurels et des indices subtils que le recruteur peut utiliser. Des simulations montrent que la suppression de certaines caractéristiques sociodémographiques n’a pas d’impact sur les résultats des algorithmes en raison de leur corrélation avec d’autres indicateurs sociodémographiques plus subtils.

3.1.3. Troisième piste : redresser les données d’apprentissage

La troisième méthode pour combattre les biais de discrimination dans les algorithmes de recrutement consiste à redresser et à pondérer les données d’apprentissage en faveur des catégories discriminées. Cela permet d’obtenir un pool de candidats plus diversifié et un recrutement plus inclusif, mais va à l’encontre de la philosophie de l’égalité en France. Les algorithmes de deep learning sont difficiles à corriger en raison de leur opacité et les entreprises ne sont pas disposées à révéler leur avantage concurrentiel.

3.2. Le problème des critères de justice et de « l’explicabilité » des algorithmes

L’utilisation d’algorithmes de recrutement prédictifs est un sujet complexe qui allie statistiques et philosophie, avec des défis scientifiques liés à l’explicabilité des décisions prises. La législation française exige l’explication des décisions administratives obtenues par traitement automatique sur demande. La question de l’équité des critères décisionnels dans les algorithmes de recrutement est un sujet complexe qui est difficile à résoudre en raison de la difficulté de combiner efficacité et équité. Les boîtes noires dans les algorithmes divisent les chercheurs, certains considérant l’impossibilité d’expliquer comme une menace pour la démocratie, tandis que d’autres considèrent que la fiabilité des prédictions est plus importante. La valeur d’un modèle est mesurée par sa capacité à prédire correctement la réalité selon l’instrumentalisme méthodologique positiviste.

  1. Conclusion et pistes de recherche : quels défis pour les gestionnaires RH face au risque de biais liés à l’IA dans le recrutement ?

4.1. Premier défi : gérer le dilemme entre efficacité des algorithmes et protection des données personnelles

L’IA dans le recrutement peut engendrer de nouveaux risques, tels que la vie privée et les biais algorithmiques. Les responsables RH doivent donc gérer les risques techniques et juridiques associés à l’utilisation de l’IA. Les tensions entre les data scientists et les juristes dans les entreprises se concentrent sur les données personnelles. Certaines entreprises, telles que Google et Microsoft, recrutent des profils combinant les compétences en data science et en droit pour résoudre ces conflits. L’éthique des outils de recrutement assistés par IA est un enjeu majeur qui nécessite une prudence dans leur utilisation et des recherches transdisciplinaires impliquant le droit, le management et l’informatique.

4.2. Deuxième défi : résister à l’illusion technologique

Il est important de remettre en question la mythologie entourant l’IA dans le recrutement en RH. Les experts en IA reconnaissent que les algorithmes actuels manquent de bon sens et ne peuvent pas faire des raisonnements causaux. Les algorithmes actuels se basent sur des corrélations simple et peuvent créer des corrélations erronées. Pour réduire l’effet de la “boîte noire” de l’IA, il est suggéré de développer des algorithmes basés sur l’inférence causale, qui modélisent les causes précises. Cela nécessite une recherche pluridisciplinaire qui inclut la psychologie du travail et les sciences de la décision.

4.3. Troisième défi : optimiser la transparence et l’explicabilité

Le sujet de l’explicabilité et de la transparence des algorithmes de deep learning n’a pas encore été adéquatement abordé, malgré les recommandations du rapport Villani en 2018 pour reconsidérer la validation des outils. Les algorithmes de deep learning ne sont valides que sur la base de leur capacité prédictive, ce qui ne permet pas d’expliquer leur fonctionnement. La transparence des algorithmes peut également entraîner des conséquences paradoxales, telles que le piratage par les candidats pour ajuster leur réponse.

4.4. Quatrième défi : interroger la validité prédictive des solutions d’IA (le problème du « bon candidat »)

Le jugement de l’efficacité des algorithmes de recrutement est difficile car les prédictions peuvent influencer les comportements des recruteurs et reproduire les discriminations existantes. La validité des outils de sélection digitaux est un sujet de recherche nouveau et il n’y a pas suffisamment de résultats pour guider les praticiens. Les outils d’IA promettent une individualisation du recrutement, mais il y a un risque de stéréotypage et de discrimination. Il est important de surveiller l’expérience des candidats pendant le processus de recrutement pour éviter les commentaires négatifs sur les plateformes d’évaluation. L’étude de la réaction des candidats confrontés à un recrutement digitalisé est un domaine de recherche en développement.

Références bibliographiques

AGUADO D., ANDRÉS J., GARCÍA-IZQUIERDO A.L. & RODRÍGUEZ J. (2019),

“LinkedIn ‘Big Four’ : Job Performance Validation in the ICT Sector”, Journal

of Work and Organizational Psychology, Vol. 35, n°2, p. 53‑64.

ANGRAVE D., CHARLWOOD A., KIRKPATRICK I., LAWRENCE M. & STUART M.

(2016), “HR and analytics : Why HR is set to fail the big data challenge”, Human

Resource Management Journal, Vol. 26, n°1, p. 1-11.

BALDIGA K. (2013), “Gender differences in willingness to guess”,

Management Science, Vol. 60, n°2, p. 434-448.

BAROCAS S. (2014), “Data mining and the discourse on discrimination”,

Proceedings of the Data Ethics Workshop, Conference on Knowledge Discovery

and Data Mining.

BAROCAS S. & SELBST A.D. (2016), “Big data’s disparate impact”, California

Law Review, n° 104, p. 671. SSRN : https ://ssrn.com/abstract=2477899

BEAR S., RAHMAN N. & POST C. (2010), “The Impact of Board Diversity and

Gender Composition on Corporate Social Responsibility and Firm Reputation”,

Journal of Business Ethics, Vol. 97, n° 2, p. 207‑221.

BENDER A.F., KLARSFELD A. & LAUFER J. (2010), “Equality and diversity

in the French context”. In International Handbook on Diversity Management

at Work : Country Perspectives on Diversity and Equal Treatment, A. Klarsfeld

(Ed.), Edward Elgar, Cheltenham.

BERK R., HEIDARI H., JABBARI S., KEARNS M. & ROTH A. (2018), “Fairness

in criminal justice risk assessments : The state of the art”, Sociological Methods

& Research, p. 1-42.

BESSE P. (2020), « Détecter et évaluer les risques des impacts discriminatoires

des algorithmes d’IA », hal-02616963, 19.

BOLUKBASI T., CHANG K.W., ZOU J.Y., SALIGRAMA V. & KALAI A.T. (2016),

“Man is to computer programmer as woman is to homemaker ? Debiasing word

embeddings”, Advances in neural information processing systems, p. 4349-4357.

BRENNER F.S., ORTNER T.M. & FAY D. (2016), “Asynchronous Video

Interviewing as a New Technology in Personnel Selection : The Applicant’s

Point of View”, Frontiers in Psychology, Vol. 7, p. 863.

BUOLAMWINI J. & GEBRU T. (2018), “Gender shades : Intersectional accuracy

disparities in commercial gender classification”, Proceedings of Machine

Learning Research, Vol. 81, p. 77-91.

BURRELL J. (2016), “How the machine ‘thinks’ : Understanding opacity in

machine learning algorithms”, Big Data & Society, Vol. 3, n°1, p. 1-12.

CHAPMAN D.S., UGGERSLEV K.L. & WEBSTER J. (2003), “Applicant reactions

to face-to-face and technology-médiated interviews : A field investigation”,

Journal of Applied Psychology, Vol. 88, n°5, p. 944‑953.

CHEN C., CRIVELLI C., GARROD O.G., SCHYNS P.G., FERNÁNDEZ-DOLS J.M.

& JACK R.E. (2018), “Distinct facial expressions represent pain and pleasure

across cultures”, Proceedings of the National Academy of Sciences, Vol. 115,

n°43, p. E10013-E10021.

CORON C. (2019), « Big Data et pratiques de GRH », Management & Data

Science, Vol. 3, n°1, p. 1‑9.

CORON C. (2020), « L’utilisation des données personnelles dans les algorithmes

en gestion des resources humaines », RIMHE, n°39, p. 95‑106.

CRASWELL N., ZOETER O., TAYLOR M. & RAMSEY B. (2008), “An experimental

comparison of click position-bias models”, Proceedings of the 2008

international conference on web search and data mining, p. 87-94.

DE-ARTEAGA M., ROMANOV A., WALLACH H., CHAYES J., BORGS C.,

CHOULDECHOVA A., GEYIK S., KENTHAPADI K. & KALAI A.T. (2019), “Bias

in bios : A case study of semantic representation bias in a high-stakes setting”,

Proceedings of the Conference on Fairness, Accountability, and Transparency,

120-128.

DEROUS E. & DECOSTER J. (2017), “Implicit Age Cues in Resumes : Subtle

Effects on Hiring Discrimination”, Frontiers in Psychology, 8, p. 1321.

FRIEDMAN B. & NISSENBAUM H. (1996), “Bias in Computer Systems”, ACM

Trans. Inf. Syst., Vol. 14, n°3, p. 330-347.

FRIEDMAN M. (1984), “The methodology of positive economics”. In The

Philosophy of Economics, Daniel M. Hausman (Ed), Cambridge University Press,

Cambridge.

GALOIS-FAURIE I. & LACROUX A. (2014), « ‘Serious games’ et recrutement :

Quels enjeux de recherche en gestion des ressources humaines ? », @GRH,

Vol. 10, n°1, p. 11-35.

GARG N., SCHIEBINGER L., JURAFSKY D. & ZOU J. (2018), “Word embeddings

quantify 100 years of gender and ethnic stereotypes”, Proceedings of

the National Academy of Sciences, Vol. 115, n°16, p. 3635‑3644.

GAUCHER D., FRIESEN J. & KAY A.C. (2011), “Evidence that gendered wording

in job advertisements exists and sustains gender inequality”, Journal of

Personality and Social Psychology, Vol. 101, n°1, p. 109‑128.

GODDARD K., ROUDSARI A. & WYATT J.C. (2011), “Automation bias : A

systematic review of frequency, effect médiators, and mitigators”, Journal of

the American Medical Informatics Association, Vol. 19, n°1, p. 121-127.

HARDT M., PRICE E. & SREBRO N. (2016), “Equality of opportunity in

supervised learning”, Advances in neural information processing systems,

  1. 3315-3323.

HEAVEN D. (2019), “Why deep-learning AIs are so easy to fool”, Nature,

Vol. 574, p. 163.

HIEMSTRA A.M.F., OOSTROM J.K., DEROUS E., SERLIE A.W. & BORN M.P.

(2019), “Applicant perceptions of initial job candidate screening with asynchronous

job interviews : Does personality matter ?”, Journal of Personnel

Psychology, Vol. 18, n°3, p. 138‑147.

HOOGENDOORN S. & VAN PRAAG M. (2012), Ethnic diversity and team

performance : A field experiment, http ://papers.ssrn.com/sol3/papers.

cfm ?abstract_id=2105284

HORTON J.J. (2017), “The Effects of Algorithmic Labor Market

Recommendations : Evidence from a Field Experiment”, Journal of Labor

Economics, Vol. 35, n°2, p. 345-385.

KALISCH M., MÄCHLER M., COLOMBO D., MAATHUIS M.H. & BÜHLMANN P.

(2012), “Causal Inference Using Graphical Models with the R Package pcalg”,

Journal of Statistical Software, Vol. 47, n°1, p. 1‑26.

KILBERTUS N., CARULLA M.R., PARASCANDOLO G., HARDT M., JANZING D.

& SCHÖLKOPF B. (2017), “Avoiding discrimination through causal reasoning”,

Advances in Neural Information Processing Systems, p. 656-666.

KÜHBERGER A. (1998), “The Influence of Framing on Risky Decisions : A

Meta-analysis”, Organizational Behavior and Human Decision Processes, Vol. 75,

n°1, p. 23‑55.

LIND E.A. & VAN DEN BOS K. (2002), “When fairness works : Toward a

general theory of uncertainty management”, Research in organizational behavior,

24, 181-224.

LOHR S. (2013), “Sizing Up Big Data, Broadening Beyond the Internet”,

Bits Blog New York Times. https ://bits.blogs.nytimes.com/2013/06/19/

sizing-up-big-data-broadening-beyond-the-internet/

LOGG J.M., MINSON J.A. & MOORE D.A. (2019), “Algorithm appreciation :

People prefer algorithmic to human judgment”, Organizational Behavior &

Human Decision Processes, Vol. 151, p. 90‑103.

MARLER J.H. & BOUDREAU J.W. (2017), “An evidence-based review of HR

Analytics”, The International Journal of Human Resource Management, Vol. 28,

n°1, p. 3-26.

MENON V.M. & RAHULNATH H.A. (2016), “A novel approach to evaluate

and rank candidates in a recruitment process by estimating emotional intelligence

through social média data”, 2016 International Conference on Next

Generation Intelligent Systems (ICNGIS), p. 1‑6.

NG E.S.W. & SEARS G.J. (2010), “The effect of adverse impact in selection

practices on organizational diversity : A field study”, The International Journal

of Human Resource Management, Vol. 21, n°9, p. 1454‑1471.

O’NEIL C. (2017), Weapons of math destruction : How big data increases

inequality and threatens democracy, Crown, New York.

PARASURAMAN R. & RILEY V. (1997), “Humans and automation : Use,

misuse, disuse, abuse”, Human factors, Vol. 39, n°2, p. 230-253.

PASQUALE F. (2015), The black box society, Harvard University Press,

Cambridge.

PEARL J. & MACKENZIE D. (2018), The book of why : The new science of

cause and effect, Basic Books.

PILLEMER J., GRAHAM E.R. & BURKE D.M. (2014), “The face says it all :

CEOs, gender, and predicting corporate performance”, The Leadership Quarterly,

Vol. 25, n°5, p. 855‑864.

RULE N.O. & AMBADY N. (2011), “Face and fortune : Inferences of personality

from Managing Partners’ faces predict their law firms’ financial success”,

The Leadership Quarterly, Vol. 22, n°4, p. 690‑696.

RULE N.O., ISHII K. & AMBADY N. (2011), “Cross-cultural impressions of

leaders’ faces : Consensus and predictive validity”, International Journal of

Intercultural Relations, Vol. 35, n° 36, p. 833‑841.

SCHMIDT F.L. & HUNTER J.E. (1998), “The validity and utility of selection

methods in personnel psychology : Practical and theoretical implications of

85 years of research findings”, Psychological bulletin, Vol. 124, n°2, p. 262-274.

SCHMIDT F.L., OH I.S. & SHAFFER J.A. (2016), “The Validity and Utility

of Selection Methods in Personnel Psychology : Practical and Theoretical

Implications of 100 Years…”, Fox School of Business Research Paper, p. 1-74.

SEARS G.J., ZHANG H., WIESNER W.H., HACKETT R.D. & YUAN Y. (2013),

“A comparative assessment of videoconference and face-to-face employment

interviews”, Management Decision, Vol. 51, n°8, p. 1733‑1752.

SERMONDADAZ S. (2018), « Yann LeCun : L’IA a moins de sens commun

qu’un rat », Sciences et Avenir (site web).

STEE LE C.M. & ARONSON J. (1995), “Stereotype threat and the intellectual

test performance of African Americans”, Journal of personality and social

psychology, Vol. 69, n°5, p. 797-811.

STOUGHTON J.W., THOMPSON L.F. & MEADE A.W. (2015), “Examining

Applicant Reactions to the Use of Social Networking Websites in Pre-

Employment Screening”, Journal of Business and Psychology, Vol. 30, n°1, p. 73‑88.

SUEN H.Y., CHEN M.Y.C. & LU S.H. (2019), “Does the use of synchrony and

artificial intelligence in video interviews affect interview ratings and applicant

attitudes ?”, Computers in Human Behavior, n°98, p. 93‑101.

TAMBE P., CAPPELLI P. & YAKUBOVICH V. ( 2019), “ Artificial

Intelligence in Human Resources Management : Challenges and a Path

Forward”, California Management Review, Vol.61, n°4), 15‑42. https ://doi.

org/10.1177/0008125619867910

TODOROV A., OLIVOLA C.Y., DOTSCH R. & MENDE-SIEDLECKI P. (2015),

“Social Attributions from Faces : Determinants, Consequences, Accuracy, and

Functional Significance”, Annual Review of Psychology, Vol. 66, n°1, p. 519‑545.

TVERSKY A. & KAHNEMAN D. (1974), “Judgment under Uncertainty :

Heuristics and Biases”, Science, Vol. 185 n°4157, p. 1124‑1131.

VAN HOYE G. (2013), “Word of mouth as a recruitment source : An integrative

model”. In The OxfordHandbook of Recruitment, K. Y. T.Yu & D. M.Cable

(Eds.), Oxford University Press, Oxford.

VAN IDDEKINGE C.H., LANIVICH S.E., ROTH P.L. & JUNCO E. (2016), “Social

média for selection ? Validity and adverse impact potential of a Facebook-based

assessment”, Journal of Management, Vol. 42, n° 7, p. 1811‑1835.

VILLANI C., SCHOENAUER M., BONNET Y., BERTHET C., CORNUT A.-C.,

LEVIN F., & RONDEPIERRE B. (2018), « Donner un sens à l’intelligence artificielle

» (236p.) [Rapport de la Mission Villani sur l’intelligence artificielle].

WOODS S.A., AHMED S., NIKOLAOU I., COSTA A.C. & ANDERSON N.R. (2019),

“Personnel selection in the digital age : A review of validity and applicant

reactions, and future research challenges”, European Journal of Work and

Organizational Psychology, p. 1‑14.

WOODS S.A. & WEST M.A. (2019), The Psychology of Work and Organizations,

Cengage Learning EMEA, Andover.