Dans le hall d’attente imaginaire d’un cabinet de recrutement, deux portes se font face.À gauche, une plaque en laiton : « Recruteur ». À droite, un halo de LED : « Agent IA ».On s’attendrait à voir les candidats se ranger du côté du chaleureux sourire humain.Pourtant, dans une expérimentation grandeur nature, 78 % d’entre eux ont poussé la porte… de l’IA.
Cette scène n’est pas un effet de style. Elle est tirée d’une étude académique récente menée aux Philippines :Voice AI in Firms – A Natural Field Experiment on Automated Job Interviews (SSRN).Elle scrute ce qui se passe quand on confie 70 000 candidatures à deux interviewers différents — un humain et une IA — et, troisième cas, quand on laisse le candidat choisir.Derrière le débat public et ses caricatures, la donnée raconte ici une histoire qui mérite qu’on s’y attarde.
Ce que dit la donnée, sans bruit
Trois scénarios ont été comparés : 1) entretien humain, 2) entretien IA, 3) libre choix.La répartition, pour éviter les biais, a été randomisée : 60 % IA, 20 % humain, 20 % choix.Période : mars–juin 2025, 19 villes, 7 secteurs (technologie, assurance, télécom, retail, finance, santé, transport).Un questionnaire complémentaire a également été diffusé (19 200 sollicitations, 2 764 réponses).
- Taux d’offres : 9,73 % avec IA vs 8,70 % avec humain → +12 % d’offres.
- Démarrage du poste : 6,62 % vs 5,63 % → +18 %.
- Rétention à 1 mois : 5,42 % vs 4,62 % → +17 %.
- Satisfaction (NPS) : quasi identique (8,97/10 vs 8,84/10).
- Discrimination perçue : divisée par deux avec l’IA (3,30 % vs 5,98 %).
- Préférence quand il y a choix : 78 % des candidats optent pour l’IA (69 % en présentiel, 82 % à distance) ; même 65 % des plus sceptiques choisissent l’IA.
La machine ne charme pas : elle aligne. Et c’est parfois ce qu’on attend du recrutement.
Pourquoi l’IA « gagne » ici ?
1) Cohérence et constance
L’IA pose les mêmes questions, dans le même ordre, avec les mêmes relances. Ce cadre stable réduit les écarts de traitement et éclaire mieux les compétences réellement observables.
2) Neutralité opérationnelle
On n’efface pas tous les biais d’un coup, mais on retire des sources évidentes de discrimination perçue (apparence, âge supposé, micro-réactions). Le gain sur ce point est massif dans l’étude.
3) Sécurité psychologique
Beaucoup de candidats disent se sentir moins jugés face à une IA : moins d’enjeu social, moins d’interprétation des silences. On parle mieux quand on respire mieux.
Les angles morts à garder en tête
Un bon recruteur garde toujours un doute méthodique.
- Contexte culturel : l’étude a eu lieu aux Philippines. La confiance dans la technologie y est peut-être plus élevée qu’en Europe ; on ne transpose pas sans précaution.
- Temporalité : la rétention mesurée est à 1 mois. Quid à 6 ou 12 mois ?
- Mix de métiers : sept secteurs couverts, mais tous les métiers n’ont pas la même « interviewabilité » vocale.
- Effet d’auto-sélection : dans le scénario « choix », ceux qui préfèrent l’IA ne sont pas les mêmes que ceux qui préfèrent l’humain ; cela peut influer les taux d’offres.
Bref : une pièce importante du puzzle, pas l’image entière.
Ce que cela change pour les équipes RH
Le recrutement ne devient pas « automatique ». Il devient instrumenté. Et cela modifie le geste professionnel.
- Standardiser l’ouverture du jeu : construisez un socle de questions alignées sur les compétences attendues, partageable entre humain et IA. Un guide d’entretien clair, c’est déjà de l’équité.
- Mesurer au-delà du verdict : suivez non seulement les offres, mais aussi les démarrages, la rétention, et des signaux d’expérience candidat (NPS, stress ressenti, motif de désengagement).
- Auditer l’équité : mettez en place des revues régulières pour traquer les divergences de traitement et affiner le calibrage. L’IA produit des traces : exploitez-les.
- Garder la relation là où elle compte : confiez à l’IA le criblage ou le premier échange structuré, et réservez à l’humain les moments de finesse : projection managériale, contexte d’équipe, signaux faibles d’adhérence culturelle, conduite du choix final.
- Raconter la méthode aux candidats : transparence sur l’usage de l’IA, finalités, stockage des données ; la confiance se construit en amont.
Un mot sur l’outillage (sans pub)
Chez Nicoka, nous voyons l’IA non comme un remplacement, mais comme un cadre qui rend le jugement humain plus juste.Dans un ATS moderne, la valeur vient de la traçabilité : quels signaux ont mené à telle décision, quelles questions ont été posées, avec quels effets sur l’équité perçue et le taux d’embauche.C’est dans cet esprit que nous faisons évoluer Nicoka CABS : un pipeline limpide, des workflows explicites, des métriques qui suivent le flux (offres, démarrages, rétention courte), et des intégrations IA configurables.
- Découvrir l’approche ATS : Nicoka CABS
- Fluidifier le pipeline de candidatures et la collaboration : ATS Nicoka CABS
Méthodologie (repères)
- 70 884 candidatures déposées (67 056 retenues), 64 556 candidats uniques (≈ 8 % multi-candidatures).
- Randomisation : IA 60 % (40 103), humain 20 % (13 557), choix 20 % (13 396).
- Période : mars–juin 2025. Lieux : 19 villes aux Philippines.
- Secteurs : technologie, assurance, télécom, retail, finance, santé, transport.
- Enquête complémentaire : 19 200 sollicitations, 2 764 répondants (≈ 14 %).
Référence : Voice AI in Firms – A Natural Field Experiment on Automated Job Interviews, SSRN.
Conclusion : l’alignement plutôt que le remplacement
L’IA ne « parle » pas mieux qu’un bon recruteur. Elle cadre mieux qu’un processus inégal.Dans l’étude, cela suffit déjà à augmenter les offres, les prises de poste et la rétention courte, tout en abaissant la discrimination perçue.La suite se jouera dans la combinaison : une IA qui structure, des humains qui décident.Ce n’est pas une abdication du métier ; c’est, peut-être, son affinement.
Pour aller plus loin
- Étude SSRN : Voice AI in Firms – A Natural Field Experiment on Automated Job Interviews
- Approche produit axée traçabilité et équité : Nicoka CABS