META APPELLE À DES EFFORTS DE L’INDUSTRIE POUR ÉTIQUETER LE CONTENU GÉNÉRÉ PAR L’IA
Dans un discours lors du Forum économique mondial à Davos, en Suisse, le mois dernier, Nick Clegg, président des affaires mondiales chez Meta, a qualifié l’effort naissant de détecter le contenu généré artificiellement de « la tâche la plus urgente » à laquelle le secteur de la technologie est actuellement confronté. Suite à cela, Meta a proposé une solution concrète cette semaine. Meta a annoncé qu’elle promouvrait des normes technologiques que les entreprises de l’industrie pourraient utiliser pour reconnaître des marqueurs dans du contenu photo, vidéo et audio signalant que le contenu a été généré à l’aide de l’intelligence artificielle. Ces normes pourraient permettre aux entreprises de médias sociaux d’identifier rapidement le contenu généré par l’IA posté sur leurs plateformes et de lui ajouter une étiquette. Si elles sont largement adoptées, ces normes pourraient aider à identifier le contenu généré par l’IA provenant d’entreprises comme Google, OpenAI, Microsoft, Adobe, Midjourney et d’autres qui offrent des outils permettant de créer rapidement et facilement des publications artificielles. Même si la solution proposée n’est pas parfaite, M. Clegg a souligné que l’entreprise ne voulait pas laisser le parfait être l’ennemi du bien. Il espère que cet effort servira de cri de ralliement pour inciter les entreprises de l’industrie à adopter des normes de détection et de signalisation du contenu artificiel, rendant ainsi plus simple pour toutes ces entreprises de le reconnaître.
En fait, alors que les États-Unis entrent dans une année d’élection présidentielle, les observateurs de l’industrie estiment que les outils d’IA seront largement utilisés pour publier du contenu fake afin de désinformer les électeurs. Au cours de l’année écoulée, les gens ont utilisé l’IA pour créer et diffuser de fausses vidéos du président Biden prononçant des déclarations fausses ou provocantes. De même, le bureau du procureur général du New Hampshire enquête sur une série de messages préenregistrés qui semblaient utiliser la voix générée par l’IA du président Biden, incitant les gens à ne pas voter lors d’une récente primaire. Face à cette situation, les sénateurs Brian Schatz, démocrate d’Hawaï, et John Kennedy, républicain de Louisiane, ont proposé une loi en octobre dernier qui obligerait les entreprises à divulguer et étiqueter le contenu généré artificiellement et à travailler ensemble pour créer ou utiliser des normes similaires à celles préconisées par Meta. Cette initiative de Meta est d’autant plus cruciale car l’entreprise est en train de développer une technologie pour favoriser l’adoption généralisée par les consommateurs d’outils d’IA, tout en étant le plus grand réseau social au monde capable de distribuer du contenu généré par l’IA. Meta est en train de se concentrer sur une série de spécifications technologiques appelées normes IPTC et C2PA, utilisées par les organisations de presse et les photographes pour décrire des photos ou des vidéos. Des entreprises comme Adobe ont passé des années à exercer des pressions sur leurs pairs pour adopter la norme C2PA et ont formé l’Initiative d’authenticité du contenu pour lutter contre la désinformation et ajouter une couche de provenance inviolable à tous les types de contenus numériques, notamment les photos, les vidéos et les documents.
Les entreprises offrant des outils de génération par IA pourraient intégrer ces normes dans les métadonnées des vidéos, des photos ou des fichiers audio qu’elles ont aidé à créer. Elles pourraient ainsi signaler aux réseaux sociaux comme Facebook, X (anciennement Twitter) et YouTube que ce contenu est artificiel au moment de sa publication sur leurs plateformes. Meta et d’autres exigent également que les utilisateurs qui publient du contenu par IA indiquent s’ils l’ont fait lors de son téléchargement sur les applications des entreprises concernées. Ne pas le faire entraîne des sanctions, même si les entreprises n’ont pas précisé quelles pourraient être ces sanctions. Par ailleurs, selon M. Clegg, si l’entreprise détermine qu’une publication créée ou modifiée numériquement « crée un risque particulièrement élevé de tromper matériellement le public sur une question d’importance », Meta pourrait ajouter une étiquette plus visible à la publication pour donner au public plus d’informations et de contexte sur sa provenance.
Malgré la rapidité des progrès de la technologie de l’IA, les chercheurs tentent de suivre le rythme du développement d’outils pour repérer du contenu fake en ligne. Bien que des entreprises comme Meta, TikTok et OpenAI aient développé des moyens de détecter de tels contenus, les technologues ont rapidement trouvé des moyens de contourner ces outils. Les vidéos et les fichiers audio générés artificiellement se sont avérés encore plus difficiles à repérer que les photos par IA. Le terme d’emploi de l’IA en création de contenus fait actuellement l’objet de plusieurs litiges juridiques et peut soulever une multitude de préoccupations éthiques et légales dans le futur.
Mots clés : Meta, IA, contenu généré, normes technologiques
Références :
– Last month at the World Economic Forum in Davos, Switzerland : https://www.nytimes.com/
– IPTC and C2PA standards : https://iptc.org/standards/photo-metadata/iptc-standard/ et https://c2pa.org/
– Proposal by Senators Brian Schatz and John Kennedy : https://www.schatz.senate.gov/news/press-releases/schatz-kennedy-introduce-bipartisan-legislation-to-provide-more-transparency-on-ai-generated-content
– Lawsuit by The New York Times against OpenAI and Microsoft : https://www.nytimes.com/
in Tech