La Commission nationale de l’informatique et des libertés (Cnil) franchit le pas de l’intelligence artificielle. ChatGPT, DALL-E, Stable Diffusion et bientôt Sparrow figurent parmi les modèles basés sur l’IA qui se multiplient ces derniers mois sur le web. Toujours plus performantes, ces technologies fascinent autant qu’elles inquiètent. Pour tenter de comprendre les enjeux et les risques liés à ces nouveaux outils, la Cnil crée une division spécialement dédiée à la question.
Quel cadre pour l’IA ?
Le nouveau champ d’action du gendarme français des données personnelles sera rattaché à la Direction des technologies et de l’innovation composée de cinq personnes. Des juristes et plusieurs ingénieurs travailleront ensemble pour comprendre plus en détail les conséquences de l’IA et tenter de mieux la réguler. De la documentation à destination des professionnels et du grand public devrait être proposée prochainement. La Cnil étudiera également en profondeur les risques pour la vie privée liés à cette technologie, conjointement à l’entrée en vigueur probable dans les prochains mois d’un règlement européen ad hoc.
“L’usage de cette technologie concerne ainsi tous les acteurs, quels que soient leurs domaines d’activité ou leur taille. Par ricochet, toute personne y est forcément directement ou indirectement confrontée à un moment ou un autre. Par exemple, à l’occasion de l’utilisation d’un assistant vocal, d’un processus de sélection des candidatures à un emploi ou en matière de lutte contre la fraude fiscale”, détaille la commission qui souhaite établir de bonnes pratiques pour le secteur.
Le deep learning (aussi) concerné
En parallèle de leur travail sur l’intelligence artificielle, les experts étudieront également l’impact de l’apprentissage profond (deep learning) sur les données personnelles des utilisateurs français. Pour rappel, ce processus utilisé en amont du développement d’une IA consiste à traiter un grand nombre de données présentes sur Internet (en provenance des data brokers, des utilisateurs ou des sources ouvertes) pour nourrir l’apprentissage des algorithmes utilisés. Dans son communiqué, l’administration évoque les risques pour la vie privée liés à cette étape cruciale dans le développement d’une IA. De nombreux acteurs publics et privés auraient déjà sollicité la Cnil sur la question pour leurs propres besoins.
En étudiant l’apprentissage profond et l’IA dans son contexte général, la Cnil espère publier des outils au fil de l’année pour “accompagner la constitution et l’utilisation de bases de données”, ainsi que des “fiches pratiques pour répondre aux situations les plus courantes rencontrées par les utilisateurs de base de données d’apprentissage”, dans l’attente d’interpréter le futur règlement européen.