Les pièges de l’IA : Quand la technologie accroit les risques des inégalités hommes-femmes.
L’intelligence artificielle (IA) désigne l’ensemble des techniques qui permettent à une machine de simuler l’intelligence humaine, notamment pour apprendre, prédire, prendre des décisions et percevoir le monde environnant . Les outils de cette révolution numérique suscitent à la fois un espoir, mais également des craintes quant à leur rôle potentiel dans le renforcement des inégalités entre les hommes et les femmes.
De prime abord, analysons les données qui alimentent les systèmes des IA. La matière première de l’IA est la donnée informatique. Une donnée peut être une description élémentaire, un code numérique, alphabétique, image, son… Ce carburant de l’IA, nous dit-on, est construit dans un contexte historique précis, avec une intention et des objectifs bien définis. Elle est donc susceptible de contenir des biais sociaux historiques. D’ailleurs, plusieurs études ont démontré qu’il y a une sous-représentation des femmes dans l’ensemble des données scientifiques, notamment dans le domaine de la santé :« les femmes sont exclues de la construction des grands problèmes de santé publique comme le VIH, l’alcoolisme, les toxicomanies ou les maladies cardio-vasculaires, les cancers ». Si les données qu’utilisent les systèmes de l’IA dans le domaine de la santé comportent des inégalités liées au sexe, nous pouvons logiquement en déduire que cette même injustice sociale pourrait être perpétuée par les algorithmes (ensembles d’instructions ou de règles prédéfinies pour résoudre des problèmes) mis en place et entrainés avec ce biais. Il y a donc des risques de propagation des stéréotypes sexistes et même d’accentuation des inégalités entre les hommes et les femmes. Autrement dit, les inégalités de genre d’hier peuvent façonner non seulement les applications d’IA actuelles, mais aussi les technologies de demain.
Ensuite, examinons le mode de fonctionnement du système de l’intelligence artificielle(SIA). D’après des chercheuses et chercheurs chevronnés, les modèles de fonctionnement d’IA posent un véritable problème. Ils seraient capables de perpétuer des inégalités entre les genres. Selon Elon Musk, co-fondateur de la compagnie OpenAi, le modèle idéal de fonctionnement est ‘la boucle de rétroaction’. C’est à juste titre qu’il affirme:« Je pense qu’il est très important d’avoir Ensuite, examinons le mode de fonctionnement du système de l’intelligence artificielle(SIA). D’après des chercheuses et chercheurs chevronnés, les modèles de fonctionnement d’IA posent un véritable problème. Ils seraient capables de perpétuer des inégalités entre les genres. Selon Elon Musk, co-fondateur de la compagnie OpenAi, le modèle idéal de fonctionnement est ‘la boucle de rétroaction’. C’est à juste titre qu’il affirme:« Je pense qu’il est très important d’avoir une boucle de rétroaction dans laquelle vous réfléchissez constamment à ce que vous avez fait et à la façon dont vous pourriez le faire mieux ». Ce modèle désigne un processus interactif par lequel les SIA en s’appuyant sur ses propres expériences produisent des résultats continuellement recyclés ou renforcés. Ce modèle qui apparemment se corrige en apprenant de ses erreurs est capable, une fois de plus, de perpétuer et renforcer les discriminations sociales. C’est d’ailleurs ce que met en exergue, dans l’une des conférences TED (Technology Entertainment and Design), Janelle Shane chercheuse américaine en intelligence artificielle. Elle explique la décision d’Amazon d’arrêter de travailler sur un algorithme de tri des curriculum vitae en raison de sa discrimination sexuelle . Selon elle, l’outil en question s’est appuyé sur les discriminations passées de la direction de l’entreprise : le choix des candidatures masculines au détriment de celle qui est féminine. L’autonomisation du processus a donc reproduire ce biais en excluant systématiquement les candidatures féminines.
Enfin, nous pouvons analyser la transparence dans la mise au point des SIA. Une étude de l’université Stanford en Californie a révélé l’opacité et le manque de transparence des outils de l’IA. Les chercheurs de cette université ont établi un indice de transparence pour les SIA. Soumis à l’épreuve, GPT-4, le produit phare de la compagnie financé par Microsoft (OpenAI) obtient un score de seulement 48% . Les autres à savoir : Palm-2 de Google ou Claude 2 de la société Anthropic (financée par Amazon), apparaissent encore plus bas dans le classement, selon la même étude. Il est également démontré que pour des raisons de secret commercial, les organisations auteurs des SIA révèlent rarement le fonctionnement et les données utilisées de leurs outils IA. Ce défaut de transparence, nous disent certain.e.s expert.e.s scintifiques, entrave l’analyse et l’évaluation réelle des résultats de l’intelligence artificielle. Au regard de ce qui précède, nous pouvons affirmer, sans le moindre doute de nous tromper, qu’il existe un manque de transparence dans la mise au point des SIA. Par conséquent, le risque que l’IA reproduise ou exacerbe des tares de la société à savoir les inégalités basées sur le genre, les discriminations, les stéréotypes est réel et évident.
En somme, nous pouvons retenir que l’intelligence artificielle, apparemment neutre et objective présente des risques de reproduction des inégalités liées au sexe. Au-delà des inégalités liées au sexe, elle est susceptible d’affecter de nombreux aspects du fonctionnement harmonieux de la société. Il convient donc de prendre au sérieux les risques liés à l’utilisation de ces outils de haute technologie afin d’adopter des règlementations adaptées sur les plans nationaux, régionaux pour minimiser les effets négatifs de cette prouesse technologique.
Eric Nadje, diplômé de l’UQAM. Spécialiste des questions de Genre et inclusion