Des centaines de scientifiques et de personnalités ont signé mercredi une lettre ouverte appelant à une pause de six mois dans le déploiement de nouvelles versions d’intelligences artificielles, comme ChatGPT, car les auteurs de la lettre la considèrent comme un enjeu “existentiel” pour l’humanité. France 24 s’est entretenu avec plusieurs signataires de la lettre pour comprendre leurs motivations. La lettre a été signée par plus de 1 000 personnalités et scientifiques, dont Elon Musk, président de Tesla, Steve Wozniak, cofondateur d’Apple, Andrew Yang, ex-candidat démocrate à la présidentielle américaine, ainsi que deux lauréats du prix Turing, qui équivaut au prix Nobel dans le domaine de l’intelligence artificielle (IA). Selon les auteurs de la lettre, ne pas prendre de pause dans la création de modèles de langage comme ChatGPT pourrait entraîner l’apparition de consciences non humaines qui remplaceraient l’humanité, enjeu crucial pour l’avenir de notre civilisation.
L’approche adoptée par l’auteur de la lettre était soutenue par le Future of Life Institute, un groupe de réflexion influent dans la Silicon Valley, financé en partie par Elon Musk et prônant la recherche de solutions technologiques pour sauver l’humanité de menaces “existentielles” telles qu’une IA meurtrière. Les adeptes de cette philosophie, appelée « long-termisme », semblent penser qu’il faut protéger à tout prix l’humanité de ce qui pourrait la faire disparaître pour qu’elle puisse atteindre son plein potentiel à très long terme. Toutefois, certains critiques de cette philosophie ont mis en garde contre les dérives de cette idéologie, qui pourrait justifier l’instauration de surveillance de masse afin de “protéger” l’homme à son insu.
Malgré les réticences de certains signataires de la lettre, tous s’accordent sur la nécessité d’une pause afin de réfléchir aux implications de ces technologies qui sont mises actuellement entre les mains de millions de personnes, sans véritable débat au sein de la communauté scientifique. Les avancées fulgurantes de l’apprentissage profond ces dix dernières années ont permis l’aboutissement de modèles de langage tels que ChatGPT, qui a la capacité de transformer des phrases en images, mais qui suscite également des questions quant à leur utilisation sur le long terme.
Les scientifiques ont été surpris de l’essor rapide de ces technologies qui ont des conséquences sur l’ensemble des secteurs de l’économie, mais également sur la politique, l’environnement et la sécurité. L’automatisation de tâches par l’IA pourrait entraîner la suppression de 300 millions d’emplois dans le monde, et les experts en sécurité informatique s’inquiètent de la facilité avec laquelle les systèmes peuvent être piratés. Il faut également souligner la difficulté d’éduquer les utilisateurs à propos des réponses fournies par les IA, devenues ainsi une arme potentielle de désinformation massive.
En somme, la lettre ouverte vise à obtenir un moratoire de six mois sur le déploiement de nouvelles versions d’IA, afin de prendre le temps de réfléchir aux implications à long terme et de débattre de la meilleure façon de les réguler. Selon les signataires de la lettre, il est impératif de trouver des solutions pour protéger l’humanité des risques du long terme et d’assurer la sécurité des utilisateurs des IA, plutôt que de se concentrer sur les seuls bénéfices économiques.