Quand les algorithmes ne reflètent pas la réalité

Quand les algorithmes ne reflètent pas la réalité

On imagine que les machines sont objectives. Eh bien, sachez-le, c’est une fake news. Les algorithmes se construisent sur des décisions passées, des décisions pas toujours très inclusives. Aujourd’hui encore, l’intelligence artificielle perpétue des stéréotypes qui nuisent au progrès social. Comment agir contre ? Explications en quatre questions.

Par Léa Taïeb

Qu’est-ce qu’un algorithme qui perpétue les stéréotypes sexistes ? 

Pour commencer cet article, donnons l’exemple de Amazon. En 2018, cette entreprise fait appel à une intelligence artificielle pour gérer ses recrutements (sélectionner le ou la meilleur.e candidat.e pour un poste vacant). Résultat : l’IA privilégie les profils masculins sur les postes “techniques”, mieux rémunérés et plus prestigieux professionnellement. Pour prendre ses décisions, l’algorithme s’est inspiré des recrutements passés sans corriger les biais sexistes qui existaient dans le système de recrutement du géant américain. Conséquence : les femmes en étant discriminées à l’embauche étaient destinées à...