Les techniques d’embauche empêchent-elles les préjugés ou les améliorent-ils? Cette question fondamentale est apparue comme un point de tension entre les partisans de la technologie et ses sceptiques, mais l’atteinte de la réponse est plus complexe qu’elle n’apparaît. L’emploi n’est guère un choix, mais plutôt l’aboutissement d’une série de décisions séquentielles plus compactes. Les algorithmes jouent différents rôles tout au long de ce processus: certains orientent les offres d’emploi vers des candidats spécifiques, tandis que d’autres signalent des candidats inactifs. Les outils prédictifs d’analyse et de pointage de crédit reprennent, et la sélection des superviseurs permet d’évaluer les compétences des candidats de nouvelles façons, en utilisant chaque norme et chaque nouvelle donnée. Nombreux sont ceux qui croient que les techniques peuvent aider les producteurs de choix humain à éviter leurs propres préjugés, en ajoutant une cohérence dans l’utilisation des services de procédure. Mais les algorithmes introduisent de nouveaux dangers qui leur appartiennent. Ils peuvent reproduire des biais institutionnels et historiques, amplifiant les désavantages cachés dans des informations telles que la fréquentation d’une université ou d’un collège ou les scores d’évaluation de la performance.

Que les algorithmes éliminent une part de subjectivité de l’utilisation des services de processus, les êtres humains continuent d’être grandement associés aux décisions d’embauche finales. Les arguments qui définissent des ensembles de règles «objectifs» comme étant plus justes et plus précis que des êtres humains faillibles négligent de noter pleinement que, dans de nombreux cas, jouent également un rôle. Pour comprendre les biais liés à l’utilisation des services d’un ensemble de règles et de moyens de les atténuer, nous devons apprendre comment les technologies prédictives fonctionnent à chaque étape de la procédure de sélection. Même s’ils partagent souvent les bases de la compréhension de l’unité, les ressources utilisées auparavant peuvent être fondamentalement meilleures que celles utilisées plus tard. Même les outils qui semblent effectuer exactement le même processus peuvent s’appuyer sur des informations de types totalement différents, ou sur des estimations existantes selon des méthodes radicalement différentes. Notre examen des ressources prédictives tout au long de l’approche de sélection aide vraiment à clarifier ce que font exactement les «algorithmes de recrutement», et comment et où un biais peut entrer dans la méthode. Malheureusement, nous avons constaté que la plupart des algorithmes de sélection dériveraient automatiquement vers les préjugés. Bien que leur contribution potentielle à la réduction des préjugés sociaux ne doive pas être réduite, seules les ressources qui s’attaquent de manière proactive à des disparités plus profondes vous permettront d’espérer que la technologie moderne prédictive contribuera à encourager la valeur nette de la maison, au lieu de l’éroder. L’utilisation des services de processus commence bien avant qu’un demandeur d’emploi ne soumette un logiciel.

Au stade du «sourcing» ou de l’embauche, aide prédictive à l’innovation technologique destinée à promouvoir les possibilités d’emploi, informe les demandeurs d’emploi sur les emplois les plus susceptibles de plaire, et propose aux employeurs potentiels des candidats potentiels à la surface. Pour attirer des individus, de nombreuses entreprises utilisent des programmes d’annonces algorithmiques et des panneaux de tâches pour atteindre les chercheurs d’emploi les plus «pertinents». Ces méthodes, qui promettent aux entreprises une meilleure utilisation des budgets de dépenses de recrutement, produisent généralement des estimations remarquablement superficielles: elles ne prédisent pas qui peut réussir dans le poste, mais qui cliquera probablement simplement sur cette offre d’emploi. Ces prévisions font souvent en sorte que les offres d’emploi soient fournies de manière à soutenir les stéréotypes sexuels et raciaux, même lorsque les entreprises n’ont pas ce genre d’intention. Dans une recherche que nous avons menée récemment avec des collègues de la Northeastern University ou d’un collège et de l’USC, nous avons notamment constaté que les annonces généralement ciblées sur Facebook ou sur MySpace pour des postes de caissiers sur le marché alimentaire avaient été prouvées devant un public composé de 85% de femmes. avec les compagnies de taxi ont accompagné les téléspectateurs qui avaient été environ 75% de couleur noire. C’est vraiment une circonstance parfaite de votre algorithme reproduisant les préjugés du monde réel, sans implication humaine. Entre-temps, des panneaux de tâches personnalisés tels que ZipRecruiter tentent de comprendre automatiquement les préférences des recruteurs et utilisent toutes ces estimations pour solliciter des personnes similaires.

À l’instar de Facebook ou de Twitter, ces techniques de recommandation professionnelles sont conçues pour atteindre et reproduire les habitudes dans les actions des clients, en mettant à jour les estimations de manière dynamique à mesure que les employeurs et les demandeurs d’emploi se connectent. Si la méthode remarque que les recruteurs affligent se connectent plus fréquemment avec des hommes de couleur blanche, elle peut très bien localiser les mandataires pour tous ces attributs (comme se faire appeler Jared ou jouer activement à la crosse au lycée) et reproduire cette routine. Ce type d’impact négatif peut se produire sans la nécessité d’un coaching spécifique, voire pire, sans que personne ne s’en rende compte. Les techniques de recherche ne sont probablement pas une surface de pensées pour la plupart des gens une fois qu’ils pensent «à la formule de l’algorithme d’embauche». Cependant, les sélections programmées à ce stade très précoce de l’entonnoir de sélection sont très répandues. À titre d’exemple, l’outil mis au point par Amazon pour les femmes défavorisées n’était pas une ressource de sélection permettant d’évaluer de vrais candidats, mais plutôt un outil permettant de révéler les candidats indirects que les recruteurs devaient obtenir. Les algorithmes de localisation ne rejettent peut-être pas ouvertement les gens, mais comme l’a expliqué une érudite légitime, Pauline Kim, «ne pas informer les hommes et les femmes des possibilités d’emploi est vraiment un obstacle efficace» pour les personnes à la recherche d’une carrière. Ces outils peuvent bien ne pas toujours générer des lignes de force dystopiques, mais ils jouent néanmoins un rôle important pour déterminer qui peut accéder au processus de sélection par quelque moyen que ce soit.

Comments are closed.
© Dans la prise Proudly Powered by WordPress. Theme Untitled I Designed by Ruby Entries (RSS) and Comments (RSS).