Des experts en intelligence artificielle (IA) ont signé une lettre ouverte appelant à une pause dans la course à la création de modèles de langage puissants et préconisant une approche plus réfléchie quant à leur utilisation et leurs risques potentiels. La lettre fait référence aux récents développements en matière de modèles de génération de langage IA, comprenant ChatGPT et GPT-4 d’OpenAI, qui ont suscité des inquiétudes quant à leur potentiel néfaste.
Bien que l’IA ait le potentiel de transformer nos vies pour le mieux, la communauté de l’IA et le grand public n’ont eu que peu de temps pour explorer les avantages et les utilisations possibles de ChatGPT avant que le modèle ne soit amélioré avec GPT-4. La course rapide à laquelle prend part cette technologie pourrait poser des risques pour la société et même pour l’humanité.
Certains signataires de la lettre font partie de l’industrie elle-même et expriment leur préoccupation quant au fait que la technologie se développe à un rythme potentiellement dangereux. Des réglementations sont en cours d’examen par l’Union Européenne et la Maison Blanche, mais ces réglementations ont été proposées avant la montée en puissance de la génération d’IA.
La lettre appelle à une pause dans le développement des modèles de langage IA jusqu’à ce que des garanties appropriées soient en place, afin d’assurer que les risques potentiels soient correctement évalués. Cependant, certains experts ont exprimé leurs inquiétudes concernant la focalisation de la lettre sur les risques à plus long terme, alors que des systèmes existants tels que ChatGPT posent déjà des menaces. Cette controverse souligne la nécessité pour les régulateurs d’adopter rapidement des mesures de protection appropriées pour limiter les répercussions négatives de cette technologie en constante évolution.