Ségolène Martin est la CEO et cofondatrice de Kantify, une entreprise qui accompagne les organisations dans leur transition vers l’intelligence artificielle.

Kantify aide les organisations à élaborer leur stratégie d’Intelligence artificielle (IA) et développe des applications d’IA (machine learning, deep learning). Kantify a reçu de nombreuses récompenses pour son travail et son expertise technique. Ségolène est également depuis 2018 l’ambassadrice de Women in AI, réseau mondial de femmes expertes en IA.

Ségolène MARTIN – CEO de Kantify, Ambassadrice pour la Belgique de Women in AI – interview 27/09/2019  

 

Qu’est-ce qui vous a amenée à vous intéresser à la place des femmes dans l’intelligence artificielle (IA) ?

J’ai créé il y a 3 ans l’entreprise Kantify spécialisée dans l’intelligence artificielle. Nous aidons les organisations à comprendre comment l’IA peut leur être utile, et développons des algorithmes d’IA pour nos clients. Quand notre entreprise a commencé à grandir et que nous avons dû recruter des ingénieurs spécialisés en machine learning, statistique, informatique, je me suis rendu compte que je recevais des CV essentiellement masculins. J’ai essayé de comprendre pourquoi les femmes étaient si peu présentes malgré les opportunités formidables créées par l’IA. 

 

Vous faites partie de Women in AI depuis un peu plus d’un an, quels sont les enjeux que souhaite soutenir cette organisation ? 

Women in AI est une organisation mondiale, constituée d’expertes en intelligence artificielle dans différents domaines (corporate, startups, recherche, enseignement, …) qui vise à favoriser l’échange d’expertise, la collaboration et la promotion des femmes dans l’IA. L’organisation grandit de manière exponentielle et accueille tous les jours de nouveaux membres.  

 

Selon vous, quelle est la difficulté la plus importante aujourd’hui pour les femmes d’être représentées dans le développement de cette technologie ?

Je pense que la difficulté est essentiellement culturelle et éducative. Les femmes étant peu représentées dans les fonctions scientifiques, elles se dirigent peu vers les études scientifiques. Il n’en a pas toujours été ainsi !  

Aussi, il y existe une fausse idée qu’il faut être ingénieur pour être actif dans l’IA. En réalité, les entreprises comme Kantify n’embauchent pas que des ingénieurs. Il y a aussi des fonctions marketing, HR, etc. Les opportunités ne manquent pas. 

 

Les biais du genre sont-ils particulièrement prégnants dans l’Intelligence Artificielle ou estce plus général et liés aux nouvelles technologies au sens large ? Si oui, pouvez-vous nous donner quelques exemples ?

C’est une question qu’on nous pose très souvent dans nos formations sur l’IA, et je m’en réjouis car il est vraiment important de le comprendre.  

Non, l’IA n’est pas sexiste. Le biais, quand il y en a un, réside dans les données qu’on donne à un algorithme. Ces données, par exemple les données de recrutement, sont des données générées par des actions humaines. L’algorithme apprendra donc des biais humains éventuels pendant le recrutement de candidats.  

La clé est donc d’anticiper ces biais pendant la conception de l’algorithme et la sélection des données. Si cela est bien fait, il faut se rendre compte que l’IA a le pouvoir de prévenir les biais. On est donc bien loin d’une IA sexiste ou raciste. 

 

Au-delà des biais, voyez-vous d’autres conséquences de la faible représentation des femmes dans l’IA ?

Bien sûr. Premièrement, l’IA génère une valeur économique considérable, et cela va aller crescendo. Si les femmes ne se lancent pas dans l’IA, elles ne profiteront pas de cette création de valeur. D’autre part, il y a une pénurie de talents en IA et machine learning. Si plus de femmes s’y intéressaient, cela résoudrait une partie des problèmes de recrutement des entreprises !  

 

Comment s’assurer que l’intelligence artificielle et la digitalisation du travail ne renforce pas ces biais de genre ?

Tout d’abord, les biais ne sont pas partout. Dans les projets que nous menons dans la santé, le marketing ou la finance, la problématique des biais ne s’applique pas. 

Dans les cas où ils s’appliquent, deux recommandations s’imposent :

Premièrement, la diversité. Il faut impérativement s’assurer d’avoir des équipes diversifiées dans la conception des programmes. Je ne parle pas seulement de genre, mais d’origine ethnique ou culturelle. 

L’autre élément est l’expertise. Je ne vais pas cacher que l’intelligence artificielle est une discipline complexe. Anticiper et prévenir les biais nécessite une vraie expertise professionnelle et technique. Pour des entreprises ou organisations qui vont s’engager pour la première fois dans l’IA, je recommande vraiment de s’associer au bon partenaire technique, que ce soit Kantify ou autre.  

 

Pourra-t-on arriver à un équilibre parfait sans plus aucun biais de genre dans la technologie ? 

Je n’en suis pas sûre. La société est telle qu’on est constamment en mouvement et donc d’éventuels nouveaux biais pourraient intervenir. Rien n’est jamais figé ! Néanmoins, l’IA peut aider à prévenir les biais.