in

L’intelligence artificielle est incapable de reconnaître un keffieh palestinien.

Lintelligence artificielle est incapable de reconnaitre un keffieh palestinien


L’IA ne comprend pas la culture palestinienne

Dans un article pour le site israélien +972 Magazine, l’artiste et militante palestino-irako-américaine, Ameera Kawash, a testé un générateur d’images par intelligence artificielle (IA) qui a pour objectif de créer des images de chats portant un keffieh palestinien dans des lieux saints de Jérusalem. Le keffieh est une coiffe en tissu aux motifs noirs et blancs caractéristique de la culture palestinienne. Les résultats obtenus sont pour le moins déroutants.

UN KEFFIEH MAL COMPRIS

Le premier constat était que l’IA a eu du mal à reproduire le motif en résille caractéristique du keffieh palestinien. La raison en était que l’IA avait été alimentée par près de 100 millions d’images, mais il n’y en avait pas assez représentant le keffieh le plus générique. Le deuxième constat était que l’IA avait produit un keffieh vaguement similaire à celui porté en réalité par les Palestiniens. Cependant, devant le dôme du Rocher, un lieu saint musulman, le keffieh se transformait en bonnet de ski.

L’IA EXACERBE LES PRÉJUGÉS

Ameera Kawash a alors compris que la programmation et l’indexation des données sous-tendant l’IA générative ne sont pas neutres et renforcent les hégémonies politiques et économiques existantes. Dans le cas de sa recherche, les programmes d’IA ne faisaient que reproduire les préjugés existants sur Internet contre les Palestiniens, créant de nouvelles formes d’effacement numérique et de discrimination. Par exemple, lorsqu’elle interrogeait le programme sur la partie est de Jérusalem, ce dernier utilisait l’expression « territoire contesté » pour éluder le fait que Jérusalem-Est soit occupé par Israël depuis 1967.

NÉCESSITÉ DE L’ÉDUCATION À L’IA

Cette expérience soulève la question de l’éducation à l’IA et de l’importance de la justice culturelle dans la programmation de ces algorithmes. Lorsque les programmes d’IA ne connaissent pas ou mal la culture d’un groupe, ils risquent d’exacerber les préjugés et les discriminations. Connaître et comprendre les cultures de chaque groupe est donc essentiel pour une programmation juste et équitable de l’IA.

En conclusion, l’histoire d’Ameera Kawash montre comment l’IA peut reproduire et renforcer les préjugés existants dans notre société. Ainsi, il est crucial de garantir des programmes d’IA équitables et d’apprendre aux machines à comprendre la diversité culturelle.

Références :
– Article original d’Ameera Kawash pour +972 Magazine : https://www.972mag.com/ai-bias-palestinian-cat-keffiyeh/
– Définition du keffieh : https://fr.wikipedia.org/wiki/Keffieh

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Le marché à deux vitesses de l’immobilier de bureau se confirme

Le marché à deux vitesses de l’immobilier de bureau se confirme

Viessmann, leader allemand de la pompe à chaleur, forcé de se vendre à son concurrent américain

Viessmann, leader allemand de la pompe à chaleur, forcé de se vendre à son concurrent américain