
L’interview tech et innovation
Questions - réponses pour comprendre l’actualité de la technologie, de l’intelligence artificielle et de l’innovation
Corinne Joffre, secrétaire générale de l’Institut de recherche en intelligence artificielle de Toulouse (ANITI) a élaboré un programme de formation visant à sensibiliser les utilisateurs et concepteurs d'algorithmes à la place des femmes dans l'IA et, plus largement, aux biais de genre.
Pourquoi avez-vous travaillé sur la question du genre en intelligence artificielle ?
En tant que secrétaire générale d’ANITI, mon rôle consiste à mettre en œuvre les orientations stratégiques établies par la direction. Cela inclut la participation au recrutement des chercheurs et des doctorants. Dès la création d’ANITI en 2019, j’ai pris conscience d’un déséquilibre : les dix premiers doctorants recrutés étaient exclusivement des hommes. Face à ce constat, j’ai initié une commission « mixité » avec l’objectif d’identifier les causes de cette disproportion et de proposer des actions concrètes pour favoriser une représentation féminine plus équitable.
Pourquoi cette question est-elle importante dans le domaine de l’IA ?
L’IA est un domaine technologique majeur qui façonne de plus en plus notre société. Or, comme toute technologie, elle n’est pas neutre ni exemple de biais : elle reflète les préjugés de ceux et celles qui la conçoivent et l'entraînent. Elle peut donc peut produire des biais algorithmiques discriminatoires. L’intelligence artificielle n’est pas neutre :
Or actuellement, les femmes ne représentent qu’un quart des professionnels de l’intelligence artificielle, un chiffre qui tombe à 15 % lorsque qu’on ne considère que l’aspect développement. Cette sous-représentation soulève des problématiques d'inclusivité et de diversité des perspectives ou de points de vue. Les exemples de biais algorithmiques discriminatoires sont d’ailleurs nombreux : celui du logiciel de recrutement d’Amazon qui discriminait systématiquement les candidatures féminines ou celui d’une IA de demande en ligne de passeport qui rejetait les photos de personnes asiatiques au prétexte que « leurs yeux étaient fermés ». Ces biais sont directement imputables à la conception des algorithmes et liés au manque de diversité des équipes qui en sont à l’origine.
Forte de cette prise de conscience, comment avez-vous réagi ?
J’ai décidé d’approfondir mes connaissances en sociologie du genre pour m’appuyer sur une approche scientifique. J’ai ensuite élaboré un programme de formation visant à sensibiliser les utilisateurs et concepteurs d'algorithmes à la place des femmes dans l'IA et, plus largement, aux biais de genre. Cette formation s'appuie sur une expertise interdisciplinaire, combinant informatique, sociologie et sciences de l'éducation.
A qui est destiné cette formation ?
Elle s’adresse aux personnels du rectorat, notamment aux enseignants et conseillers d’orientation. L’objectif est de leur fournir des clés de compréhension sur les biais algorithmiques et sur l'influence des systèmes de genre sur la technologie. Nous abordons le fonctionnement de l'IA, les biais présents dans les algorithmes et les données, ainsi que les stratégies pour atténuer ces biais.
Quels sont les enjeux de cette formation pour le monde du travail ?
L’influence des stéréotypes de genre commence dès le plus jeune âge. Une étude a montré qu’au CP, les filles et les garçons ont une perception égale de leurs compétences en mathématiques. Mais dès le CE1, les filles commencent à sous-estimer leurs capacités. Cela influence leurs choix d'orientation et, par conséquent, la composition des filières scientifiques et technologiques. Si nous voulons changer la donne dans le monde du travail et augmenter la présence des femmes dans l’IA, il est crucial d'agir en amont, au niveau de l'éducation. D'où l'importance de former les enseignants et le personnel éducatif pour les sensibiliser aux stéréotypes inconscients et aux leviers qu'ils peuvent activer dans leurs pratiques pédagogiques.
L’IA peut-elle devenir un outil de lutte contre les discriminations plutôt que de les perpétuer ?
Oui, en partie. L’IA a déjà permis de révéler l’ampleur des biais sexistes et raciaux dans nos sociétés ce qui a conduit à des régulations et à une réflexion approfondie sur l'éthique de ces technologies. Cependant, la question de l’égalité n’est pas prioritaire dans l’approche des entreprises et des laboratoires de recherche. L'IA reste souvent focalisée sur la performance et l'accumulation de données, souvent au détriment d'une approche plus inclusive et réfléchie. Pour inverser cette tendance, il faut des politiques volontaristes, un cadre réglementaire solide et une prise de conscience collective des implications sociales de ces biais.
La formation que vous avez conçue pourrait-elle être adaptée aux entreprises ?
Absolument. Les biais algorithmiques et les stéréotypes de genre ne se limitent pas au domaine éducatif, mais concernent également les entreprises qui déploient des systèmes d'IA. La formation pourrait être adaptée pour sensibiliser les développeurs, les managers et les décideurs à ces enjeux et aux bonnes pratiques à adopter. Il me semble pertinent de promouvoir cette formation et de collaborer étroitement avec les acteurs du monde économique pour maximiser son impact.

Journaliste et animatrice de conférences
Journaliste de presse écrite et animatrice de conférences, Valérie Ravinet s’intéresse aux sujets sociétaux aux croisement de la connaissance, de la…