OPENAI PRIÉ D’ARRÊTER D’UTILISER DES DONNÉES PERSONNELLES
Lorsqu’OpenAI a sorti GPT-3 en juillet 2020, il a offert un aperçu des données utilisées pour former le modèle de langage. Des millions de pages provenant du web, de Reddit, de livres, entre autres, ont été utilisées pour créer le système de génération de texte, selon un document technique. Ces données incluent des informations personnelles que les utilisateurs partagent en ligne, ce qui vaut maintenant à OpenAI d’être en difficulté.
Le 31 mars, le régulateur des données italien a émis une décision temporaire exigeant qu’OpenAI cesse d’utiliser les informations personnelles de millions d’Italiens qui figurent dans ses données d’entraînement. Selon le régulateur, Garante per la Protezione dei Dati Personali, OpenAI n’a pas le droit d’utiliser les informations personnelles des gens dans ChatGPT. En réponse, OpenAI a interdit aux Italiens d’accéder à son chatbot pendant qu’il fournit des réponses aux responsables, qui mènent une enquête plus approfondie.
L’action est la première prise contre ChatGPT par un régulateur occidental et met en évidence les tensions en matière de confidentialité autour de la création de grands modèles d’IA générative, qui sont souvent formés sur de vastes étendues de données internet. Tout comme les artistes et les entreprises de médias se sont plaints que les développeurs d’IA générative ont utilisé leur travail sans autorisation, le régulateur des données affirme maintenant la même chose pour les informations personnelles des gens.
Des décisions similaires pourraient suivre dans toute l’Europe. Depuis que l’Italie a annoncé son enquête, les régulateurs des données en France, en Allemagne et en Irlande ont contacté le Garante pour demander plus d’informations sur ses conclusions. Tobias Judin, responsable international de l’autorité norvégienne de protection des données, qui suit l’évolution de la situation, affirme que si le modèle est construit sur des données susceptibles d’être collectées illégalement, cela soulève des questions sur la légalité de l’utilisation des outils.
La décision italienne contre OpenAI intervient également alors que l’examen des grands modèles d’IA est de plus en plus intensif. Le 29 mars, les dirigeants de la technologie ont appelé à une pause dans le développement de systèmes tels que ChatGPT, craignant ses implications futures. Judin affirme que la décision italienne met en évidence des préoccupations plus immédiates. Selon lui, le développement de l’IA à ce jour pourrait potentiellement avoir une énorme lacune.
Les règles du GDPR en Europe, qui régissent la manière dont les organisations collectent, stockent et utilisent les données personnelles des personnes, protègent les données de plus de 400 millions de personnes sur le continent. Ces données personnelles peuvent être tout ce qui identifie une personne, de son nom à son adresse IP. Contrairement au patchwork de règles de confidentialité au niveau de l’État aux États-Unis, les protections du GDPR s’appliquent si les informations des personnes sont librement disponibles en ligne. En bref : ce n’est pas parce que les informations de quelqu’un sont publiques que vous pouvez les collecter et en faire ce que vous voulez.
Le Garante d’Italie estime que ChatGPT présente quatre problèmes en vertu du GDPR : OpenAI ne dispose pas de contrôles d’âge pour empêcher les personnes de moins de 13 ans d’utiliser le système de génération de texte ; il peut fournir des informations inexactes sur les personnes ; et les gens n’ont pas été informés que leurs données étaient collectées. Son quatrième argument affirme qu’il n’y a « aucune base légale » pour la collecte des informations personnelles des gens dans les vastes étendues de données utilisées pour former ChatGPT.
« L’Italie a appelé leur bluff », déclare Lilian Edwards, professeur de droit, innovation et société à l’Université de Newcastle au Royaume-Uni. « Il semblait assez évident dans l’UE que c’était une violation de la loi sur la protection des données ».