Waprint

chroniques de chroniques

Archive for mai, 2019

Sélectionné par machine

without comments

L’utilisation des services d’ensembles de règles protège-t-elle contre les préjugés ou les améliore-t-elle? Cette question essentielle est apparue comme un motif d’inquiétude pour les partisans de la technologie ainsi que pour ses sceptiques, mais il est plus compliqué d’y parvenir que de donner la bonne réponse. L’emploi n’est presque jamais un choix individuel, mais plutôt l’aboutissement d’une série de choix plus petits et séquentiels. Les techniques jouent des emplois distincts tout au long de cette technique: certaines orientent les offres d’emploi vers un certain nombre de candidats potentiels, séminaire tandis que d’autres désignent des personnes indirectes pour le recrutement. L’analyse prédictive des instruments et la cote de crédit reprennent, et aident les superviseurs à employer à examiner les compétences des prospects de manière nouvelle, en utilisant les deux informations classiques et uniques. Beaucoup pensent que les algorithmes peuvent aider les décisionnaires humains à prévenir leurs propres préjugés en ajoutant de la persistance à l’approche de recrutement. Mais les algorithmes apportent de nouveaux dangers. Ils sont capables de dupliquer des biais institutionnels et antiques, amplifiant les inconvénients cachés dans les détails de données tels que la fréquentation universitaire ou les évaluations d’analyse de performance.

Même si des ensembles de règles éliminent une part de subjectivité dans l’utilisation des services d’approche, les personnes seront toujours grandement impliquées dans la suppression des choix d’embauche. Les différends selon lesquels les techniques «objectives» sont plus justes et plus exactes que les êtres humains faillibles ne savent pas que, dans la plupart des cas, ils sont également impliqués. Pour comprendre les biais liés à l’utilisation des services d’algorithmes et aux moyens de les atténuer, nous devons apprendre comment les systèmes prédictifs fonctionnent à chaque étape de l’approche employante. Bien qu’ils révèlent généralement un élément d’ancrage dans la compréhension du dispositif, les outils utilisés précédemment pouvaient être essentiellement distincts de ceux utilisés ultérieurement. Même les ressources qui semblent effectuer le même travail pourraient dépendre d’informations d’un type totalement différent ou présenter des prophéties de manières très différentes. Notre examen des ressources prédictives tout au long du processus de sélection permet de clarifier ce que font les «algorithmes de recrutement» et où et comment les préjugés peuvent entrer dans le processus. Malheureusement, nous avons constaté que la plupart des services utilisant des algorithmes dériveraient par défaut dans la direction du biais. Même si leur contribution probable à la réduction des préjugés sociaux ne devrait pas être réduite, seules les ressources qui s’attaquent de manière proactive à des disparités encore plus profondes laisseront tout espoir que les technologies prédictives puissent contribuer à encourager l’équité plutôt que l’éroder. L’utilisation des services de l’approche commence effectivement bien avant qu’un demandeur d’emploi soumette un logiciel.

Par le biais du «point d’achat» ou du point d’inscription, l’innovation technologique prédictive aide à commercialiser les opportunités de tâches, informe les demandeurs d’emploi de placements probablement intéressants et offre aux recruteurs une surface de travail propice à une sensibilisation proactive. Pour attirer des candidats, de nombreuses entreprises utilisent des plateformes de publicité algorithmiques et des tableaux de sélection de carrière pour trouver l’une des personnes les plus «pertinentes» à la recherche d’un emploi. Ces méthodes, qui garantissent une utilisation plus efficace des fonds de l’emploi par les employeurs, génèrent généralement des estimations remarquablement superficielles: elles ne prévoient pas ce qui conduira à la réussite de la fonction, mais qui va probablement sélectionner cette tâche dans la publicité. Ces prévisions peuvent conduire à la diffusion d’annonces de travail d’une manière qui prenne en charge les stéréotypes sexistes et raciaux, même si les entreprises n’ont aucune intention de ce type. Dans une étude récente que nous avons effectuée avec des collègues de la Northeastern University et de l’USC, nous avons notamment constaté que des publicités généralement ciblées sur Fb pour des emplois de caissière dans des magasins d’alimentation étaient présentées à un public composé de 85% de femmes, tandis que à un public qui était environ 75% sombre. C’est vraiment le cas par excellence d’une formule d’algorithme reproduisant les préjugés de la vie réelle, sans implication individuelle. Entre-temps, des groupes de travail personnalisés, tels que ZipRecruiter, ont pour objectif de déterminer automatiquement les choix des recruteurs et d’utiliser toutes ces prophéties pour solliciter des candidats connexes.

À l’instar de Facebook ou de Twitter, ces techniques de recommandation professionnelles sont conçues pour atteindre et reproduire les habitudes dans les actions des clients, en mettant à jour les estimations de manière dynamique à mesure que les employeurs et les demandeurs d’emploi se connectent. Si la méthode remarque que les recruteurs affligent se connectent plus fréquemment avec des hommes de couleur blanche, elle peut très bien localiser les mandataires pour tous ces attributs (comme se faire appeler Jared ou jouer activement à la crosse au lycée) et reproduire cette routine. Ce type d’impact négatif peut se produire sans la nécessité d’un coaching spécifique, voire pire, sans que personne ne s’en rende compte. Les techniques de recherche ne sont probablement pas une surface de pensées pour la plupart des gens une fois qu’ils pensent «à la formule de l’algorithme d’embauche». Cependant, les sélections programmées à ce stade très précoce de l’entonnoir de sélection sont très répandues. À titre d’exemple, l’outil mis au point par Amazon pour les femmes défavorisées n’était pas une ressource de sélection permettant d’évaluer de vrais candidats, mais plutôt un outil permettant de révéler les candidats indirects que les recruteurs devaient obtenir. Les algorithmes de localisation ne rejettent peut-être pas ouvertement les gens, mais comme l’a expliqué une érudite légitime, Pauline Kim, «ne pas informer les hommes et les femmes des possibilités d’emploi est vraiment un obstacle efficace» pour les personnes à la recherche d’une carrière. Ces outils peuvent bien ne pas toujours générer des lignes de force dystopiques, mais ils jouent néanmoins un rôle important pour déterminer qui peut accéder au processus de sélection par quelque moyen que ce soit.

Written by admin

mai 7th, 2019 at 4:55

Posted in Uncategorized