L’IMPORTANCE DU CONTRÔLE DE LA TECHNOLOGIE GPT-4
Lorsque vous téléchargez des photos, répondez sur les réseaux sociaux, créez un site web ou envoyez un e-mail, vos données sont collectées, stockées et utilisées pour entraîner la technologie de l’IA génératrice qui peut créer du texte, de l’audio, de la vidéo et des images avec seulement quelques mots. Cela a des conséquences réelles : les chercheurs d’OpenAI qui étudient l’impact du marché du travail de leurs modèles linguistiques estiment qu’environ 80 % de la population active américaine pourrait voir au moins 10 % de ses tâches de travail affectées par l’introduction de grands modèles de langage (LLM) comme ChatGPT, tandis qu’environ 19 % des travailleurs pourraient voir au moins la moitié de leurs tâches impactées. Nous voyons également un changement immédiat sur le marché du travail avec la génération d’images. Autrement dit, les données que vous avez créées pourraient vous coûter votre poste de travail.
MANQUE DE TRANSPARENCE DANS LES ENTREPRISES UTILISANT LA TECHNOLOGIE GPT-4
Lorsqu’une entreprise construit sa technologie sur une ressource publique, telle qu’Internet, il est logique de dire que cette technologie devrait être disponible et accessible à tous. Cependant, les critiques ont noté que le GPT-4 ne disposait d’aucune information ou spécification claire qui permettrait à quiconque en dehors de l’organisation de reproduire, tester ou vérifier n’importe quel aspect du modèle. Certaines de ces entreprises ont reçu des sommes considérables de financement d’autres grandes entreprises pour créer des produits commerciaux. Pour certains membres de la communauté de l’IA, cela est un signe dangereux que ces entreprises vont chercher les profits au-dessus de l’intérêt public.
UNE TRANSPARENCE DU CODE INSUFFISANTE
La seule transparence du code ne suffira pas à garantir que ces modèles d’IA génératrice servent le bien public. Il y a peu d’avantages immédiats imaginables pour un journaliste, un analyste de politique ou un comptable (tous des métiers à « haute exposition » selon l’étude d’OpenAI) si les données sous-jacentes à un LLM sont disponibles. Nous avons de plus en plus de lois, comme la Digital Services Act, qui obligeraient certaines de ces entreprises à ouvrir leur code et leurs données pour une évaluation d’experts. Et les codes open source peuvent parfois permettre aux acteurs malveillants de contourner les mesures de sécurité que les entreprises mettent en place. La transparence est un objectif louable, mais elle ne garantit pas à elle seule que l’IA génératrice est utilisée pour améliorer la société.
UNE GOUVERNANCE MONDIALE DE L’IA GÉNÉRATIVE
Pour réellement créer un bénéfice public, nous avons besoin de mécanismes de responsabilité. Le monde a besoin d’un organisme de gouvernance mondial de l’IA génératrice pour résoudre ces perturbations sociales, économiques et politiques au-delà de ce que tout gouvernement individuel est capable de faire, de ce que n’importe quel groupe universitaire ou de la société civile peut mettre en œuvre, ou de ce que toute entreprise est prête ou capable de faire. Il existe déjà des précédents de coopération mondiale entre les entreprises et les pays pour se rendre responsables des résultats technologiques. Nous avons des exemples de groupes et d’organisations d’experts indépendants et bien financés capables de prendre des décisions au nom du bien public. Une entité comme celle-ci est chargée de réfléchir aux avantages pour l’humanité. Construisons sur ces idées pour aborder les problèmes fondamentaux que l’IA génératrice met déjà en évidence.
L’EXEMPLE DE L’AGENCE INTERNATIONALE DE L’ÉNERGIE ATOMIQUE
Dans l’ère de la prolifération nucléaire après la Seconde Guerre mondiale, par exemple, il y avait une crainte crédible et significative de technologies nucléaires devenues incontrôlables. La croyance généralisée selon laquelle la société devait agir collectivement pour éviter la catastrophe mondiale rappelle beaucoup de discussions actuelles sur les modèles d’IA génératrice. En réponse, les pays du monde entier, sous l’égide des Nations unies et dirigés par les États-Unis, ont tenu une réunion pour former l’Agence internationale de l’énergie atomique (AIEA), un organisme indépendant libre d’affiliations gouvernementales et corporatives qui fournirait des solutions aux ramification étendues et aux capacités apparemment infinies des technologies nucléaires. Elle opère dans trois domaines principaux : l’énergie nucléaire, la sûreté et la sécurité nucléaires, et les garanties. Par exemple, après la catastrophe de Fukushima en 2011, elle a fourni des ressources critiques, de l’éducation, des tests et des rapports d’impact, et a contribué à assurer la sécurité nucléaire continue. Cependant, l’Agence est limitée : elle dépend de la volonté des États membres de respecter volontairement ses normes et directives, ainsi que de leur coopération et de leur assistance pour mener à bien sa mission.
L’EXEMPLE DE L’OVERSIGHT BOARD DE FACEBOOK
Dans la technologie, l’Oversight Board de Facebook est une tentative de concilier la transparence et la responsabilité. Les membres du Conseil sont un groupe mondial interdisciplinaire et leurs jugements, tels que l’annulation d’une décision prise par Facebook de supprimer une publication décrivant le harcèlement sexuel en Inde, sont contraignants. Ce modèle n’est pas parfait non plus ; il y a des accusations de captation corporative, car le conseil est financé uniquement par Meta, ne peut entendre que des cas que Facebook lui-même renvoie et est limité aux suppressions de contenu, plutôt que de s’attaquer à des problèmes plus systémiques tels que les algorithmes ou les politiques de modération.