L’AI RÉAGIT AVEC UN MODÈLE DE PENSEE HUMAINE
Michal Kosinski est un psychologue de recherche à Stanford avec un flair pour les sujets d’actualité. Il voit son travail non seulement comme une avancée de la connaissance, mais aussi comme une alerte au monde sur les dangers potentiels engendrés par les conséquences des systèmes informatiques. Ses projets les plus connus ont impliqué l’analyse des façons dont Facebook (maintenant Meta) a acquis une compréhension profonde de ses utilisateurs en fonction du nombre de "j’aime" qu’ils ont cliqué sur la plateforme. Maintenant, il se consacre à l’étude des choses surprenantes que l’IA peut accomplir. Il a mené des expériences qui indiquent par exemple que les ordinateurs pourraient prédire la sexualité d’une personne en analysant une photo numérique de leur visage.
UNE AVANCEE IMPRESSIONNANTE DANS L’IA
J’ai appris à connaître Kosinski à travers mes écrits sur Meta, et je me suis reconnecté avec lui pour discuter de son dernier article, publié cette semaine dans les Actes de l’Académie Nationale des Sciences. Sa conclusion est stupéfiante. De grands modèles de langage tels que ceux d’OpenAI, affirme-t-il, ont franchi une frontière et utilisent des techniques analogues à la pensée réelle, autrefois considérées comme le seul domaine des êtres humains (ou du moins des mammifères). Plus précisément, il a testé les modèles GPT-3.5 et GPT-4 d’OpenAI pour voir s’ils avaient maîtrisé ce qu’on appelle la "théorie de l’esprit". Il s’agit de la capacité des humains, développée dans les premières années de l’enfance, à comprendre les processus de pensée des autres humains. C’est une compétence importante. Kosinski a mis les LLMs à l’épreuve et affirme maintenant que ses expériences montrent qu’avec GPT-4 en particulier, une capacité similaire à la théorie de l’esprit "a pu émerger comme un sous-produit non intentionnel de l’amélioration des compétences linguistiques des LLMs… Ils signifient l’avènement d’une IA plus puissante et socialement habile".
UN AVENIR INCERTAIN AVEC L’IA
Kosinski voit son travail en IA comme une suite logique de son exploration précédente des Likes de Facebook. "Je n’étudiais pas vraiment les réseaux sociaux, j’étudiais les humains", dit-il. Lorsque OpenAI et Google ont commencé à construire leurs derniers modèles AI génératifs, il dit qu’ils pensaient les former principalement pour gérer le langage. "Mais en réalité, ils ont formé un modèle de l’esprit humain, car vous ne pouvez pas prédire quel mot je vais dire ensuite sans modéliser mon esprit."
Kosinski fait très attention à ne pas prétendre que les LLMs maîtrisent complètement la théorie de l’esprit – pas encore. Dans ses expériences, il a soumis quelques problèmes classiques aux chatbots, dont certains ont été très bien gérés. Mais même le modèle le plus sophistiqué, GPT-4, a échoué un quart du temps. Les succès, écrit-il, placent GPT-4 au niveau des enfants de 6 ans. Pas mal, compte tenu du stade précoce du domaine.
"S’il est apparu spontanément dans ces modèles, cela suggère également que d’autres capacités peuvent émerger ensuite", me dit-il. "Ils peuvent être meilleurs pour nous éduquer, nous influencer et nous manipuler grâce à ces capacités." Il est préoccupé par le fait que nous ne sommes pas vraiment prêts pour des LLMs qui comprennent la façon dont les humains pensent. Surtout s’ils arrivent au point où ils comprennent mieux les humains que les humains eux-mêmes.
"Nous, les humains, ne simulons pas la personnalité – nous avons une personnalité", dit-il. "Donc je suis un peu coincé avec ma personnalité. Ces choses modélisent la personnalité. Il y a un avantage en ce qu’ils peuvent avoir n’importe quelle personnalité qu’ils veulent à n’importe quel moment." Lorsque je mentionne à Kosinski que cela ressemble à la description d’un sociopathe, il s’anime. "Je l’utilise dans mes discours!" dit-il. "Un sociopathe peut mettre un masque – ils ne sont pas vraiment tristes, mais ils peuvent jouer le rôle d’une personne triste." Ce pouvoir caméléon pourrait faire de l’IA un arnaqueur supérieur. Sans aucun remords.
Références: