in

Selon une étude de Stanford, Stable Diffusion a été créé pour utiliser du matériel pédopornographique.

Stable Diffusion a été formé à l’utilisation de matériel pédopornographique, selon une étude de Stanford


# STABLE DIFFUSION FORMÉ SUR DU MATÉRIEL PÉDOPORNOGRAPHIQUE, SELON UNE ÉTUDE DE STANFORD

Selon une nouvelle étude de l’Observatoire de l’Internet de Stanford, l’outil Stable Diffusion, largement utilisé pour générer des images à partir de texte grâce à l’intelligence artificielle, a été formé à l’aide de matériel relatif aux abus sexuels sur les enfants (MRAS). Cette technologie a été développée par la start-up Stability AI, qui réalise un chiffre d’affaires de 1 milliard de dollars (913 millions d’euros). L’utilisation de ce matériel pose un grave problème éthique et soulève des préoccupations quant à l’exploitation de contenus illégaux pour former des modèles d’IA.

## PLUS DE 3 000 ÉLÉMENTS SUSPECTS

L’étude menée par l’équipe de Stanford a révélé que plus de 3 000 éléments suspects de MRAS ont été identifiés dans les données d’entraînement de Stable Diffusion. Ces éléments ont été repérés à l’aide de l’outil de Microsoft, PhotoDNA, permettant de faire correspondre les empreintes numériques des images à des éléments connus de MRAS dans les bases de données gérées par le National Center for Missing and Exploited Children (NCMEC) et le Centre canadien de protection de l’enfance.

Les chercheurs soulignent que le volume réel de matériel pédopornographique dans les données d’entraînement est probablement beaucoup plus élevé, les évaluations ayant été réalisées à partir de septembre et portant uniquement sur une petite partie de l’ensemble de milliards d’images. Ces révélations soulèvent des questions éthiques et légales importante quant à l’utilisation de ces données dans le processus de formation de modèles d’IA.

## LE TRAVAIL DES FORCES DE L’ORDRE RENDU PLUS DIFFICILE

L’utilisation de matériel pédopornographique pour former des modèles d’IA, comme Stable Diffusion, compromet le travail des forces de l’ordre dans la lutte contre les abus sexuels sur les enfants. En effet, il devient plus difficile de distinguer les images générées par l’IA des images réelles, ce qui complique la tâche des enquêteurs et pourrait potentiellement mettre en péril la sécurité des enfants victimes.

## UNE QUESTION MAJEURE POUR DES ENTREPRISES

La conservation de ces énormes ensembles de données, qui alimentent les modèles d’IA tels que Stable Diffusion, soulève des préoccupations majeures en termes de responsabilité et d’éthique. Le manque de rigueur dans le filtrage des contenus illicites dans ces bases de données soulève des inquiétudes quant à la légalité des modèles d’IA formés sur de telles données. Ces révélations pourraient également avoir des répercussions juridiques pour les entreprises technologiques qui utilisent ces modèles, mettant en lumière la nécessité de prendre des mesures pour garantir la légalité et l’éthique dans le développement et l’utilisation de l’IA.

Ces révélations mettent en lumière un problème majeur dans le domaine de la formation des modèles d’IA et soulèvent des questions cruciales sur la responsabilité des entreprises qui les développent et les utilisent. Il est essentiel de prendre des mesures pour garantir que les contenus illégaux ne soient pas utilisés dans le processus de formation des modèles d’IA, afin de protéger la sécurité et les droits des enfants.

À lire aussi : [La start-up Armada facilite l’accès à l’IA dans les endroits reculés grâce aux satellites Starlink de SpaceX](https://www.forbes.fr/technologie/la-startup-armada-facilite-lacces-a-lia-dans-les-endroits-recules-grace-aux-satellites-starlink-de-spacex-adr-trad/)

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

“Je n’étais pas perdu”: pourquoi Alex Batty a menti sur son évasion

Le mensonge d’Alex Batty sur son évasion expliqué: « Je n’étais pas perdu »

Bakhmout : des hommes de Wagner dans l'usine Azom

Bakhmout : des hommes de Wagner dans l’usine Azom