#IA / L’intelligence artificielle menace-t-elle l’égalité femmes-hommes ?

⏱Temps de lecture estimé : 12 minutes

Les femmes dans le domaine de l'intelligence artificielle sont sous-représentées. Cela cause de nombreux biais algorithmiques qui aggravent des stéréotypes déjà trop présents dans notre société !

Au salon européen de l’intelligence artificielle, une conférence m’interpelle : « Women in AI ». Ce nom me semble incohérent. Pourquoi au milieu de sujets tels que l’IA dans l’assurance, la relation client, les ressources humaine ou les questions liées à l’éthique trouve-t-on cette conférence si large et floue qu’est « Women in AI ». Et pourquoi pas un « men in AI » ?

Après quelques recherches je découvre que Women in AI est en fait le nom d’une association qui se bat pour l’égalité sexuelle dans le secteur de l’intelligence artificielle. De là, je commence à réaliser toute l’importance de ce genre d’initiatives.

L’intelligence artificielle est-elle sexiste ?

La féminisation de l’IA

Le fait que les assistants personnels soient presque toujours des femmes et que les robots aient presque tous des physiques d’actrices pornos révèlent le fond du problème : ce sont principalement des hommes qui conçoivent ces outils, qui conçoivent la sexy secrétaire.

Sans parler des robots sexuels, on peut dans la vie de tous les jours se rendre facilement compte que l’IA est souvent utilisée sous les traits d’une femme. De Cortana à Alexa, les voices bots ont presque tous des voix de femmes. Si l’on se réfère à des technologies plus anciennes, les boîtes vocales sont elles aussi souvent féminines.

Les robots ne sont pas en reste. Sophia, le robot humanoïde ayant obtenue la nationalité saoudienne en 2017, a même été modelée à partir de l’actrice Audrey Hepburn.

Cela ne s’est pas fait sans raison. En effet la personnalité féminine est perçue comme moins menaçante. De nombreuses études de marché montrent qu’elle est plus acceptée. Face à une technologie qui effraie souvent et rencontre de nombreuses réticences, les entreprises font un choix qui semble naturel en féminisant leur IA.

La femme inspire plus confiance, les personnalités d’IA féminines sont donc plus faciles à adopter pour la plupart des consommateurs, qui interprètent la personnalité de l’IA à travers leurs propres préjugés (la femme secrétaire, l’intelligence sociale …).

Les biais algorithmiques

Google Traduction traduit « I’m a journalist » par « je suis un journaliste », le féminin n’existe pas. A côté de cela, il traduira « I’m a nurse » par « Je suis une infirmière », le masculin n’existe pas. Cet exemple est plutôt frappant pour illustrer les biais algorithmiques.

Google, en 2013, a créé un réseau neuronal destiné à capturer la relation entre les mots. Par exemple, l’homme est associé au roi, la femme à la reine ; ou bien la soeur à la femme et le frère à l’homme. Ce réseau était destiné à améliorer la traduction automatique et la recherche intelligente sur le web.

Cependant, plusieurs chercheurs ont révélé des problèmes de sexisme dans ce réseau neuronal. Quand on lui pose la question « l’homme est au docteur ce que la femme est à X », il répondra que X = infirmière. De la même manière « l’homme est au programmeur ce que la femme est à la ménagère ». Cela pourra causer de nombreux problèmes par la suite. Si une entreprise cherche un programmeur sur Google, les CV d’hommes seront donc mis plus en avant que ceux des femmes.

De la même façon, une IA dans l’entreprise va se nourrir des données historiques de cette dernière. Hors, elles peuvent être discriminantes. Cela cause une reproduction des mauvaises anciennes pratiques.

Si les données du monde réel sont sexistes, alors les algorithmes le seront également

Il ne faut pas penser que c’est l’IA en elle-même qui est sexiste dans ce cas, ni même le créateur de l’IA, mais ce sont les données avec lesquelles elle a été alimentée qui le sont. La base de données de ce réseau neuronal a été nourrie par les textes de Google actualité. Cet exemple révèle que le machine learning a en effet beaucoup de potentiel, mais qu’il peut amplifier le sexisme si l’on traite les données sans garantir leur neutralité au préalable.

Si les données du monde réel sont sexistes, alors les algorithmes le seront également. Si l’on ne fait pas attention, les algorithmes vont donc amplifier les biais de la société humaine.

Concernant l’importance du contrôle de ces données, on peut aussi donner l’exemple de Norman, l’IA psychopathe. Nourrie par le forum Reddit, où les internautes postent des vidéos et des photos de personnes trouvant la mort, cette IA associait alors tout à la mort violente. Cette expérience a justement été faite pour montrer le danger des biais algorithmiques.

Le manque de femmes dans les métiers de l’IA

Lorsque Siri est née en 2011, elle était incapable de renseigner les utilisateurs sur la pilule du lendemain, elle ne comprenait pas la question. Cela était tout simplement causé par le fait que l’équipe de scientifiques qui ont développé Siri était entièrement composée d’hommes, qui n’y ont donc naturellement pas pensé.

Pour limiter les biais algorithmiques de ce genre, il faut récupérer la donnée à la source, diversifier ces dernières et surtout diversifier les personnes qui travaillent sur l’intelligence artificielle. Cette diversité permettra la naissance de points de vu différents et souvent indispensables.

Mais c’est un fait, les femmes sont peu nombreuses à travailler dans l’intelligence artificielle, et même plus largement en informatique. Pourtant, pendant la seconde guerre mondiale, les femmes étaient très présentes. De nombreuses femmes ont participé à des révolutions technologiques : Margaret Hamilton qui a conçu notamment le système embarqué du programme Apollo, ou bien Rosalyne Franklin qui a participé à la découverte de l’ADN.

Les tâches informatiques étant à la base considérées comme répétitives, les femmes y étaient majoritaires. Quand l’ordinateur est entré dans la maison dans les années 80 et que l’on a pu percevoir toutes les opportunités des nouvelles technologies, la présence féminine a progressivement été effacée. Rosalyne Franklin n’a pas reçu de prix Nobel contrairement à James Dewey Watson, les publicités affichaient uniquement des garçons utilisant les ordinateurs.

les femmes sont peu nombreuses à travailler dans l’intelligence artificielle

Les hommes ont repris le contrôle du numérique. Le nombre de femmes ingénieures a fortement baissé dans la fin des années 70. Aujourd’hui le manque de femmes dans les métiers de l’IA a une cause culturelle. Au collège/lycée, on va surtout proposer aux petits garçons d’apprendre à coder. Si une fille veut faire de même, elle va se retrouver dans un environnement très masculin. Pendant les études supérieures elle sera donc désavantagée puisqu’elle n’aura pas eu les mêmes chances pendant son enfance.

L’écriture du code doit être vu comme un langage. Ce langage détermine la façon d’aborder un sujet ou de traduire une problématique. S’il n’y a pas assez de femmes qui parlent ce langage, les risques de biais sexistes seront augmentés.

Cette culture provoque une autocensure chez les femmes, qui ont des difficultés à se sentir légitimes dans certains domaines.

Il est pourtant possible de faire changer les choses en agissant notamment sur trois piliers :

  • La formation : Il faut essayer de casser ces stéréotypes dès le plus jeune âge, promouvoir la diversité dans les études scientifiques
  • L’accès au financement : le plafond de verre doit être brisé et les femmes doivent s’habituer à demander plus
  • La confiance : il s’agit dans cette démarche de mettre en avant des femmes modèles, pionnières, qui présentent leur réussite et qui montrent que cela est possible

Les initiatives pour lutter pour l’égalité des sexes

Promouvoir la femme dans l’IA

Face à ces problèmes, de nombreuses initiatives ont été prises pour lutter pour l’égalité des sexes et donc promouvoir la femme dans l’intelligence artificielle. De nombreux livres peuvent être trouvés exposant plus en détail ce sujet, comme « L’intelligence artificielle, pas sans elles ! » d’Aude bernheim et Flora Vincent.

Aude Bernheim a créé Wax-science, qui vise à promouvoir la mixité dans les sciences. Ils créent et diffusent des outils qui font prendre conscience aux personnes que la science est accessible, utile et pluridisciplinaire. C’est une plateforme permettant un accès à du contenu pertinent sur ces sujets, mais aussi une application qui permet de mesurer les ratios d’hommes et de femmes dans les secteurs scientifiques à tout stade de la carrière. A côté de cela ils organisent aussi de nombreux évènements comme des ateliers avec des enfants ou des expositions, visant à briser quelques stéréotypes concernant le milieu scientifique.

Dans le même ordre d’idées, Delphine Remy-Boutang, CEO de The Bureau, est la fondatrice pilote de la journée de la femme digitale. Cette journée a été créée en 2013 et a lieu le 14 avril. Elle permet aux femmes travaillant dans le digital de rencontrer d’autres femmes du secteur, et ainsi échanger sur les bonnes pratiques, se donner des conseils … Delphine Remy-Boutang souhaite rendre plus visibles les nombreuses filles qui travaillent dans le digital, le numérique.

De la même manière Women in AI cherche à accroître la représentation et la participation des femmes à l’IA, à travers l’éducation, un blog, des évènements ainsi que des recherches.

Désexualiser l’IA

Il est aussi important pour réduire le sexisme dans l’intelligence artificielle d’arrêter de féminiser l’IA. Cela passe par plusieurs choses. Tout d’abord, donner des noms neutres, ne finissant pas par la lettre «».

Des chercheurs danois ont notamment créé une voix neutre pour les assistants vocaux : Q . Ils ont enregistré la voix de 5 personnes, hommes et femmes, et ont modulé les enregistrements entre 145 et 175 Hertz. Cette médiane a permit la création de cette voix neutre. Ils espèrent aujourd’hui qu’elle sera utilisée par les grands du secteurs des assistants vocaux.

Et si vous vous inspiriez de cet exemple dans vos projets d’intelligence artificielle ?

ClémentineMarketing inbound manager à Vizir.co, éditeur de chatbot.