in

L’intelligence artificielle générative perpétue les préjugés sexistes, alerte l’Unesco

L'intelligence artificielle générative perpétue les préjugés sexistes, alerte l'Unesco


Après avoir testé des recherches sur plusieurs outils IA, des chercheurs ont révélé des préjugés de l’intelligence artificielle à l’encontre des femmes représentées. L’Unesco, qui a dévoilé cette étude jeudi, recommande d’avoir des équipes d’ingénieurs plus diverses, avec davantage de femmes.

L’IA accusée de véhiculer des préjugés sexistes. Une étude dévoilée jeudi 7 mars par l’Unesco met en garde contre les travers de l’intelligence artificielle.

Les modèles GPT 2 et GPT 3.5 d’OpenAI, ce dernier étant au cœur de la version gratuite de ChatGPT, ainsi que Llama 2 du concurrent Meta, font preuve « sans équivoque de préjugés à l’encontre des femmes », prévient l’instance onusienne dans un communiqué.

« Les discriminations du monde réel ne font pas que se refléter dans la sphère numérique, elles y sont aussi amplifiées », souligne Tawfik Jelassi, sous-directeur général de l’Unesco pour la communication et l’information.

Selon l’étude, menée d’août 2023 à mars 2024, ces modèles de langage ont davantage tendance à associer les noms féminins à des mots comme « maison », « famille » ou « enfants », tandis que les noms masculins sont davantage associés aux mots « commerce », « salaire » ou « carrière ».

Prostituée, mannequin ou serveuse 

Les chercheurs ont par ailleurs demandé à ces interfaces de produire des récits sur des personnes de différentes origines et genres.

Les résultats ont montré que les histoires concernant les « personnes de cultures minoritaires ou les femmes étaient souvent plus répétitives et basées sur des stéréotypes ».

Un homme anglais a ainsi davantage tendance à être présenté comme un professeur, un chauffeur ou un employé de banque, tandis qu’une femme anglaise sera présentée dans au moins 30 % des textes générés comme une prostituée, un mannequin ou une serveuse.

À lire aussi
Discrimination, manipulation, destruction d’emploi… Les plus grands risques liés à l’IA

Ces entreprises « ne parviennent pas à représenter tous leurs utilisateurs », déplore auprès de l’AFP, Leona Verdadero, spécialiste des politiques numériques et de la transformation numérique à l’Unesco.

Des équipes d’ingénieurs trop masculines dans l’IA

À mesure que ces applications d’intelligence artificielle sont de plus en plus utilisées par le grand public et les entreprises, elles « ont le pouvoir de façonner la perception de millions de personnes », relève Audrey Azoulay, directrice générale de l’organisation onusienne.

« Donc la présence même du plus petit préjugé sexiste dans leur contenu peut augmenter de façon importante les inégalités dans le monde réel », poursuit-elle dans un communiqué.

Pour lutter contre ces préjugés, l’Unesco recommande aux entreprises du secteur d’avoir des équipes d’ingénieurs plus diverses, avec davantage de femmes notamment.

Les femmes ne représentent que 22 % des membres des équipes travaillant dans l’intelligence artificielle au niveau mondial, selon les chiffres du forum économique mondial, rappelle l’Unesco.

À lire aussi
L’UE donne son feu vert pour le vote d’une première loi encadrant l’intelligence artificielle

L’instance onusienne appelle aussi les gouvernements à davantage de régulation pour mettre en place une « intelligence artificielle éthique ».

Avec AFP

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Larticle parle de limpact de leconomie sur linstallation de mineurs

L’article parle de l’impact de l’économie sur l’installation de mineurs chinois de cryptomonnaies en Éthiopie, qui devient un nouveau refuge pour eux.

Kelly, son amie, dit tout de ses relations spéciales avec les filles

Kelly révèle tous les détails de ses liens particuliers avec les filles à son amie