L'intervieweur pour votre travail de rêve pourrait bientôt être un robot
Je postule pour un emploi. Mais le processus de candidature en est un Je n'ai jamais connu auparavant.
Je ne suis pas interviewé par une personne. Au lieu de cela, je suis assis à la maison, regardant mon ordinateur portable. Mes réponses sont enregistrées sur vidéo. Et si je réussirai à obtenir ce travail, ce ne sera pas un être humain qui déterminera, mais une machine.
quel épisode est ruby rose dans oitnb
Cela peut ressembler à un épisode de Charlie BrookerMiroir noir, pourtant, d'ici quelques années seulement, ce genre d'entretiens virtuels devrait devenir la norme. Les « évaluations de pré-embauche » algorithmiques, comme on les appelle, représentent déjà une entreprise de plusieurs milliards de dollars et sont susceptibles de devenir un élément essentiel des décisions d'embauche des entreprises. HireVue — l'entreprise qui mène mon entretien — est l'un des leaders dans le domaine. Basée sur les rives du Jourdain dans l'Utah, ses clients comprennent sept cents sociétés de premier ordre, des hôtels Hilton à J.P. Morgan en passant par Unilever. Je ne suis que l'un des plus de 10 millions d'employés potentiels que les algorithmes de HireVue ont déjà évalués sur la base d'entretiens vidéo similaires.
C'est ainsi que fonctionnait leur technologie d'intelligence artificielle au moment où j'ai passé mon entretien : en déployant la prochaine frontière de l'IA — « l'IA émotionnelle » — elle « lit » les candidats à un poste en analysant leur lexique, leur ton, leur cadence et leurs expressions faciales, en tenant compte jusqu'à vingt-cinq mille points de données distincts. Les résultats ont ensuite été comparés à ceux d'un candidat « idéal » pour le poste.
Le fait que je devais garder mon torse à l'écran fermement dans une silhouette en pointillé tout au long de l'interview signifiait que non seulement je me sentais comme une victime de meurtre sur une scène de crime, mais je ne pouvais pas être moi-même authentique.
En pratique, cela signifie que chaque respiration que j'ai prise, chaque pause, la hauteur à laquelle je lève mes sourcils, à quel point j'ai serré la mâchoire, à quel point mon sourire est-il large, mon choix de mots, à quelle voix j'ai parlé, ma posture, combien de fois J'ai dit euh ou euh, mon accent, même mon utilisation de préposition étaient tous enregistrés et introduits dans un algorithme de boîte noire pour déterminer si j'étais ou non une embauche appropriée pour le programme de stagiaires diplômés de Vodafone. Ou plutôt, pas moi, mais 'Irina Wertz', mon pseudonyme secret.
Les évaluations algorithmiques préalables à l'embauche sont indéniablement une solution rentable aux besoins d'embauche à grande échelle. Étant donné que les grandes entreprises reçoivent plus de cent mille candidats chaque année, l'utilisation de cette technologie permet déjà d'économiser des milliers d'heures de travail. De plus, HireVue affirme que les taux de rétention et même les performances au travail parmi les employés sélectionnés par leur système sont nettement supérieurs à la moyenne. C'est peut-être le cas, mais mon expérience du processus m'a semblé plus qu'un peu aliénante.
Alors que je répondais aux questions que je me regardais faire dans le coin de l'écran, l'expérience m'a semblé particulièrement performative, avec moi dans le rôle inquiétant d'acteur et de public.
Le fait que je devais garder mon torse à l'écran fermement dans une silhouette en pointillé tout au long de l'interview signifiait que non seulement je me sentais comme une victime de meurtre sur une scène de crime, mais je ne pouvais pas être moi-même authentique. Un certain degré d'inauthenticité est bien sûr inévitable dans tous les entretiens d'embauche, étant donné que l'on essaie de présenter une version conçue et la meilleure possible de soi, mais c'était différent. Je suis une personne expressive — je bouge quand je parle, je gesticule. Coincé dans ma silhouette, je ne pouvais même pas faire ça. Et parce que, alors que je répondais aux questions que je me regardais faire dans le coin de l'écran, l'expérience m'a semblé particulièrement performative, avec moi dans le rôle inquiétant d'acteur et de public.
En haut à droite de l'écran se trouvait un compte à rebours qui ajoutait à la nature stressante de l'expérience. On m'a alloué trois minutes pour répondre à chaque question, mais voler à l'aveugle sans tous les indices habituels que l'on obtient d'un intervieweur humain - expressions faciales, mouvements de la tête, gestes, sourires, froncements de sourcils - je ne savais pas si j'allais trop longtemps, ou si je devais utiliser tout le temps. Et non seulement je n'avais personne à qui demander, mais sans sourires, sans yeux braqués sur mon CV, sans langage corporel à analyser, je ne pouvais pas dire si mon « intervieweur » avait assez entendu parler d'une réponse particulière, aimait quoi Je disais, comprenais mes blagues, sympathisais avec mes histoires, ou avais peut-être simplement décidé que je n'étais pas le genre de candidat qu'ils recherchaient.
Dépouillé de ma pleine et complexe humanité, je devais impressionner une machine dont je ne pourrais jamais connaître le fonctionnement algorithmique de la boîte noire. Sur lequel de mes « points de données » se concentrait-il et sur lequel pesait-il le plus ?
Au fur et à mesure de l'entretien, je me sentais de plus en plus à la dérive, incapable de déterminer si je devais continuer, ralentir, changer de vitesse, changer de bord, changer de style, sourire plus, sourire moins. Vraisemblablement le candidat idéal pour un stage de fin d'études en ressources humaines chez Vodafone sourit, mais combien de fois et pour combien de temps ?
Pour être clair, ce n'était pas que j'interagissais avec une machine en soi qui me faisait me sentir si aliéné. C'était plutôt le déséquilibre du pouvoir entre la femme et la machine qui était si troublant. Dépouillé de ma pleine et complexe humanité, je devais impressionner une machine dont je ne pourrais jamais connaître le fonctionnement algorithmique de la boîte noire. Sur lequel de mes « points de données » se concentrait-il et sur lequel pesait-il le plus ? Ma voix, mon intonation, mon langage corporel ou le contenu de ce que je disais ? Quelle formule utilisait-il pour m'évaluer? Et était-ce juste ?
où a été tourné le film des bas-fonds
Son algorithme aura été formé sur des séquences vidéo d'« embauches réussies » passées ou existantes, ce qui signifie que tout biais historique (conscient ou inconscient) dans l'embauche serait probablement reproduit.
Normalement, nous ne pensons pas à la solitude dans le contexte de ce que nous fait ressentir une interaction avec une machine. Lorsque j'ai parlé de l'isolement d'une existence sans contact, j'ai insisté sur le manque de contact humain en face à face et son impact. Mais si la solitude peut aussi être causée par un sentiment d'être injustement traité et impuissant par l'État et par les politiciens, elle peut aussi provenir du fait d'être traité comme tel par les grandes entreprises et les nouvelles technologies qu'elles déploient.
où a été filmé l'aigue-marine
Car lorsqu'un employeur met notre avenir professionnel entre les mains d'un algorithme, il est difficile de croire que nous serons traités équitablement ou que nous disposerons de recours significatifs. Cela s'explique en partie par le fait qu'il est hautement contestable de savoir si les performances futures peuvent réellement être déterminées par des caractéristiques telles que les expressions faciales et le ton de la voix. En effet, en novembre 2019, le Centre d'information sur la confidentialité électronique — un organisme de recherche d'intérêt public américain renommé — a déposé une plainte formelle contre HireVue avec la Federal Trade Commission des États-Unis, citant 'l'utilisation par HireVue d'algorithmes secrets et non prouvés pour évaluer la 'capacité cognitive', les 'traits psychologiques', 'l'intelligence émotionnelle' et les 'aptitudes sociales' des candidats à un poste'. Fait intéressant, depuis début 2020, l'entreprise a cessé d'utiliser l'analyse faciale, concluant que l'analyse visuelle a moins de corrélation avec la performance au travail que d'autres éléments de l'évaluation algorithmique. D'autres entreprises continuent cependant à le faire.
Le trieur de CV à intelligence artificielle avait effectivement appris lui-même que les candidatures qui incluaient les noms d'universités réservées aux femmes ou même le mot féminin ('capitaine de l'équipe d'échecs féminine', par exemple) n'étaient pas qualifiées.
Il y a aussi la question du biais. Car bien que HireVue ait affirmé à l'époque que sa méthodologie élimine les préjugés humains, il est peu probable qu'il en soit ainsi. En effet, les algorithmes sont entraînés sur des séquences vidéo d'« embauches réussies » passées ou existantes, ce qui signifie que tout biais historique (conscient ou inconscient) dans l'embauche serait probablement reproduit.
C'est en fait précisément ce qui s'est passé chez Amazon en 2018, lorsqu'il a été révélé que le trieur de CV à intelligence artificielle de l'entreprise était rejetant systématiquement les CV des femmes , bien qu'on n'ait jamais 'dit' le sexe des candidats. Pourquoi? Il s'était effectivement appris que les candidatures qui incluaient les noms d'universités réservées aux femmes ou même le mot féminin (« capitaine de l'équipe d'échecs féminine », par exemple) n'étaient pas qualifiées. En effet, il avait été formé pour déduire si les candidats étaient « qualifiés » ou « non qualifiés » sur la base de dix années de données d'embauche dans une industrie où les hommes constituent la grande majorité des candidats et des embauches. Inutile de dire qu'il y avait très peu de capitaines d'équipes féminines d'échecs dans ce groupe.
Ajuster un algorithme pour remédier à des préjugés aussi évidents que le genre est relativement simple ; en effet, les ingénieurs d'Amazon ont facilement pu modifier le modèle pour cesser d'utiliser des termes comme celui de femmes comme motif de disqualification. Mais le défi avec l'apprentissage automatique est que même si les sources de biais les plus évidentes sont prises en compte (et le sont sans doute, dans de nombreux systèmes de ce type), qu'en est-il des points de données moins évidents et d'apparence neutre que l'on pourrait même ne pas considérer comme pouvant être biaisés ?
Extrait de Le siècle solitaire : Comment restaurer la connexion humaine dans un monde qui s'effondre,publié par Currency, une empreinte de Penguin Random House.
Le siècle solitaire par Noreena Hertz Amazon 24,99 $Acheter maintenantNote d'Ed : Cet extrait a été mis à jour pour refléter que HireVue n'utilise plus d'analyse visuelle dans son logiciel de recrutement.