in

Pourquoi arrêter la recherche sur l’IA alors que nous savons déjà comment la rendre plus sûre ?

ideas ai tech research regulation



APPEL POUR UNE PAUSE DANS LA COURSE À L’IA DANGEREUSE : UNE PROPOSITION IRRÉALISTE ET INUTILE

La semaine dernière, l’Institut Future of Life a publié une lettre ouverte proposant une pause de six mois dans la course à l’IA dangereuse. Plus de 3 000 personnes, dont certains membres influents de la communauté de l’IA, l’ont depuis signée. Cependant, bien que les risques des systèmes d’IA aient pris de la visibilité au sein de la communauté et dans la société, tant les problèmes décrits que les actions proposées dans la lettre sont irréalistes et inutiles.

UN APPEL À LA PAUSE DE L’IA IMPRÉCIS ET IMPOSSIBLE

L’appel à une pause dans le travail sur l’IA est non seulement imprécis, mais également irréalisable. Bien que la formation de grands modèles linguistiques par des entreprises à but lucratif attire la plupart de l’attention, ce n’est de loin pas le seul type de travail sur l’IA en cours. En fait, la recherche et la pratique de l’IA ont lieu dans des entreprises, dans le monde universitaire, et dans des compétitions Kaggle dans le monde entier, sur une multitude de sujets allant de l’efficacité à la sécurité. Cela signifie qu’il n’y a pas de bouton magique que quiconque peut appuyer pour arrêter la recherche sur l’IA « dangereuse » tout en ne permettant que le type « sûr ». De plus, les risques de l’IA qui sont nommés dans la lettre sont tous hypothétiques, basés sur une mentalité de long terme qui a tendance à négliger de vrais problèmes comme la discrimination algorithmique et la prédiction policière qui causent des préjudices aux particuliers maintenant, au profit de risques existentiels potentiels pour l’humanité.

UNE FOCALISATION SUR LA TRANSPARENCE ET LA RESPONSABILITÉ

Au lieu de se concentrer sur les moyens par lesquels l’IA peut échouer à l’avenir, nous devrions nous concentrer sur la définition claire de ce qui constitue un succès de l’IA dans le présent. Cette voie est extrêmement claire : Au lieu d’interrompre la recherche, nous devons améliorer la transparence et la responsabilité tout en développant des lignes directrices autour du déploiement des systèmes d’IA. Des politiques, des initiatives de recherche et des initiatives menées par les utilisateurs dans ce sens existent depuis des décennies dans différents secteurs, et nous disposons déjà de propositions concrètes pour traiter les risques actuels de l’IA.

LES AUTORITÉS RÉGLEMENTAIRES DÉFINISSENT LES LOIS ET PROTOCOLES POUR LA GESTION DES TECHNOLOGIES D’IA

Les autorités réglementaires du monde entier sont déjà en train de rédiger des lois et des protocoles pour gérer l’utilisation et le développement des nouvelles technologies d’IA. L’Algorithmic Accountability Act du Sénat américain et des initiatives similaires dans l’UE et au Canada aident à définir les données qui peuvent et ne peuvent pas être utilisées pour former les systèmes d’IA, traitent des questions de copyright et de licence, et évaluent les considérations spéciales nécessaires pour l’utilisation de l’IA dans des environnements à haut risque. Une partie critique de ces règles est la transparence : exiger des créateurs de systèmes d’IA qu’ils fournissent plus d’informations sur des détails techniques tels que la provenance des données d’entraînement, le code utilisé pour entraîner les modèles, et la manière dont les filtres de sécurité sont mis en œuvre. Les développeurs de modèles d’IA et leurs utilisateurs en aval peuvent soutenir ces efforts en travaillant avec leurs représentants et en aidant à façonner la législation autour des questions décrites ci-dessus. Après tout, ce sont nos données qui sont utilisées et nos moyens de subsistance qui sont affectés.

LES ENTREPRISES DOIVENT PERMETTRE DES AUDITS EXTERNES DE LEURS SYSTÈMES

Cependant, rendre ce genre d’informations disponibles ne suffit pas en soi. Les entreprises qui développent des modèles d’IA doivent également permettre des audits externes de leurs systèmes, et être tenues responsables pour traiter les risques et les défauts s’ils sont identifiés. Par exemple, de nombreux modèles d’IA les plus récents tels que ChatGPT, Bard et GPT-4 sont également les plus restrictifs, disponibles uniquement via une API ou un accès contrôlé par les entreprises qui les ont créés. Cela en fait essentiellement des boîtes noires dont la sortie peut changer d’un jour à l’autre ou produire des résultats différents pour différentes personnes. Bien qu’il y ait eu une certaine validation approuvée par les entreprises d’outils tels que GPT-4, il n’y a aucun moyen pour les chercheurs d’accéder aux systèmes sous-jacents, rendant les analyses scientifiques et les audits impossibles. Cela va à l’encontre des approches proposées par des universitaires tels que Deborah Raji, qui ont appelé à une vue d’ensemble à différents stades du processus de développement de modèles afin que les comportements risqués et les préjudices soient détectés avant que les modèles ne soient déployés dans la société.

REPENSER COLLECTIVEMENT LA FAÇON DONT NOUS CRÉONS ET UTILISONS L’IA

Les développeurs d’IA et les chercheurs peuvent commencer à établir des normes et des lignes directrices pour la pratique de l’IA en écoutant les nombreuses personnes qui prônent une IA plus éthique depuis des années. Cela inclut des chercheurs comme Timnit Gebru, qui a proposé un mouvement « Slow AI”, et Ruha Benjamin, qui a souligné l’importance de créer des principes directeurs pour l’IA éthique pendant sa présentation principale à une récente conférence sur l’IA. Les initiatives communautaires, comme le Code d’éthique mis en place par la conférence NeurIPS (une initiative que je préside), font également partie de ce mouvement et visent à établir des lignes directrices sur ce qui est acceptable en termes de recherche sur l’IA et comment envisager ses impacts plus larges sur la société.


Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

000 337W7R2

Bernard Arnault et Françoise Bettencourt Meyers sont l’homme et la femme les plus riches du monde.

“Une journée historique”: la Finlande devient officiellement le 31ᵉ membre de l’Otan