Plusieurs milliers de demandeurs d'emploi ont engagé des poursuites judiciaires contre Workday, l'un des principaux fournisseurs américains de logiciels de gestion des ressources humaines, lui reprochant d'avoir utilisé des algorithmes d'intelligence artificielle pour écarter automatiquement leurs candidatures sur des critères sans lien avec leurs qualifications professionnelles, dont l'âge. Les actions en justice, déposées devant des tribunaux fédéraux américains, soulèvent des questions juridiques inédites sur la responsabilité des éditeurs de logiciels de recrutement lorsque leurs outils automatisés produisent des effets discriminatoires.

Un algorithme accusé de filtrer selon l'âge

Au cœur des plaintes se trouve le reproche d'un tri automatisé des CV qui, selon les requérants, désavantage systématiquement les candidats plus âgés en les éliminant avant même qu'un recruteur humain n'examine leur dossier. Les plaignants affirment que les systèmes de présélection déployés par Workday dans de nombreuses entreprises clientes auraient ainsi agi comme un filtre discriminatoire, en violation du droit fédéral américain qui interdit la discrimination à l'embauche fondée sur l'âge pour les personnes de quarante ans et plus — disposition inscrite dans l'Age Discrimination in Employment Act (ADEA) de 1967.

La particularité juridique de ces affaires tient au fait que les plaignants ne poursuivent pas directement les employeurs qui ont utilisé le logiciel, mais l'éditeur lui-même, Workday, en tant que fournisseur de technologie. Cette stratégie contentieuse teste une théorie encore peu éprouvée devant les juridictions américaines : celle de la responsabilité d'un prestataire logiciel pour les biais discriminatoires intégrés dans ses produits.

Workday conteste sa qualité d'employeur de fait

Workday a contesté sa mise en cause, faisant valoir qu'il n'est pas juridiquement un « agent de l'emploi » au sens du droit américain du travail et qu'il ne prend aucune décision d'embauche en propre. La société soutient que la responsabilité de l'utilisation de ses outils incombe aux entreprises clientes qui choisissent de les déployer. Cette ligne de défense a été partiellement retenue par un tribunal fédéral de première instance, qui avait initialement rejeté une partie des plaintes, mais des juridictions d'appel ont depuis permis à certaines procédures de se poursuivre, maintenant la pression judiciaire sur l'éditeur.

La question de savoir si un éditeur de logiciels de recrutement peut être tenu directement responsable des effets discriminatoires de ses algorithmes n'a pas encore reçu de réponse définitive de la jurisprudence fédérale américaine. Plusieurs organisations de défense des droits civiques et chercheurs spécialisés en droit du travail suivent ces affaires de près, y voyant un précédent potentiel pour l'encadrement des outils d'IA utilisés dans les processus d'embauche.

Un enjeu réglementaire croissant pour les logiciels RH automatisés

Ces poursuites s'inscrivent dans un contexte plus large de scrutin accru des outils d'IA appliqués aux ressources humaines. La ville de New York a adopté dès 2023 une législation imposant des audits de biais algorithmiques pour les outils de recrutement automatisés utilisés par les employeurs locaux. Au niveau fédéral, la Commission pour l'égalité des chances dans l'emploi (EEOC) a publié des lignes directrices rappelant que les lois anti-discrimination s'appliquent aux décisions d'embauche assistées par algorithme, quelle que soit la technologie utilisée.

Workday, dont la plateforme est utilisée par des milliers d'entreprises à travers le monde pour gérer leurs processus de recrutement, n'a pas commenté publiquement le détail des procédures en cours au moment de la publication de cet article. L'issue de ces litiges pourrait contraindre les éditeurs de solutions RH à revoir en profondeur la conception et la transparence de leurs algorithmes de présélection, dans un secteur où l'automatisation du tri des candidatures est devenue une pratique courante.