in

Votre statut de relation ChatGPT ne devrait pas être compliqué.

ideas chatgpt social comminication



LE RISQUE DE L’INTERFACE SOCIALE: EXPLIQUÉ PAR LE SUCCÈS DE CHATGPT

La technologie derrière ChatGPT existe depuis plusieurs années sans attirer beaucoup d’attention. C’est l’ajout d’une interface de chatbot qui l’a rendue si populaire. Autrement dit, ce n’était pas un développement en IA en soi, mais un changement dans la façon dont l’IA interagissait avec les gens qui a attiré l’attention du monde.

UNE ENTITÉ SOCIALE AUTONOME

Très rapidement, les gens ont commencé à considérer ChatGPT comme une entité sociale autonome. Ce n’est pas surprenant. Dès 1996, Byron Reeves et Clifford Nass avaient examiné les ordinateurs personnels de leur époque et trouvé que « l’équivalence entre la médiation et la vie réelle n’est ni rare ni déraisonnable. Elle est très courante, facile à favoriser, ne dépend pas d’un équipement média de fantaisie, et y penser ne la fera pas disparaître. » Autrement dit, l’attente fondamentale des gens envers la technologie est qu’elle se comporte et interagisse comme un être humain, même s’ils savent que ce n’est « qu’un ordinateur ».

Le professeur du MIT, Sherry Turkle, qui a étudié les agents d’IA et les robots depuis les années 1990, souligne le même point et affirme que les formes de communication ressemblant à la vie telles que le langage corporel et les indices verbaux « poussent nos boutons darwiniens » – ils ont la capacité de nous faire expérimenter la technologie comme si elle était sociale, même si nous comprenons rationnellement qu’elle ne l’est pas.

DES RISQUES POUR UN STYLE DE CONVERSATION SOCIALE

Si ces chercheurs ont vu le potentiel social – et les risques – dans les interfaces informatiques de plusieurs décennies, il est raisonnable de supposer que ChatGPT peut également avoir un effet similaire, et probablement plus fort. Il utilise un langage à la première personne, conserve le contexte et fournit des réponses dans un style conversationnel, convaincant et confiant. L’implémentation de ChatGPT par Bing utilise même des emojis, ce qui constitue une véritable avancée sur l’échelle sociale par rapport au résultat plus technique que l’on obtenait auparavant en effectuant des recherches sur Google.

Des critiques de ChatGPT se sont concentrées sur les dommages que ses sorties peuvent causer, tels que la désinformation et les contenus haineux. Mais il y a aussi des risques dans le simple choix d’un style de conversation sociale et dans la tentative de l’IA d’imiter les gens le plus étroitement possible.

LES RISQUES DES INTERFACES SOCIALES

Le journaliste du New York Times, Kevin Roose, s’est pris dans une conversation de deux heures avec le chatbot de Bing qui a fini par lui déclarer son amour, même si Roose lui a demandé à plusieurs reprises de s’arrêter. Ce type de manipulation émotionnelle serait encore plus nuisible pour les groupes vulnérables, tels que les adolescents ou les personnes qui ont subi du harcèlement. Cela peut être très dérangeant pour l’utilisateur, et l’utilisation de terminologie et de signaux émotionnels humains, tels que des emojis, est également une forme de tromperie émotionnelle. Un modèle linguistique comme ChatGPT n’a pas d’émotions. Il ne rit pas, ne pleure pas et ne comprend pas même la signification de tels comportements.

La tromperie émotionnelle dans les agents d’IA n’est pas seulement problématique sur le plan moral ; leur conception, qui ressemble à celle des êtres humains, peut également les rendre plus convaincants. La technologie agissant de manière semblable à celle des êtres humains a tendance à persuader les gens d’agir, même lorsque les demandes sont irrationnelles, formulées par un agent d’IA défectueux ou en situation d’urgence. Leur qualité persuasive est dangereuse car les entreprises peuvent les utiliser de manière non souhaitée ou même inconnue des utilisateurs, en les convaincant d’acheter des produits en influençant leurs opinions politiques.

En conséquence, certains ont pris du recul. Les chercheurs en robotique, par exemple, ont promu une approche non humaine comme moyen de réduire les attentes des gens à l’égard de l’interaction sociale. Ils suggèrent des designs alternatifs qui ne reproduisent pas les manières d’interagir des êtres humains, établissant ainsi des attentes plus appropriées pour une pièce de technologie.

DÉFINIR DES RÈGLES

Certains des risques liés aux interactions sociales avec les chatbots peuvent être atténués en concevant des rôles et des frontières sociales claires pour eux. Les êtres humains choisissent et changent de rôle tout le temps. La même personne peut passer d’un rôle de parent à un rôle d’employé ou de frère ou sœur. En fonction du changement de rôle, le contexte et les limites attendues de l’interaction changent également. Vous n’utiliseriez pas le même langage pour parler à votre enfant que celui que vous utiliseriez en discutant avec un collègue.

En revanche, ChatGPT existe dans un vide social. Bien qu’il y ait certaines limites qu’il essaie de ne pas franchir, il n’a pas de rôle social ou d’expertise clairement définis. Il n’a pas non plus d’objectif spécifique ou d’intention prédéfinie. Peut-être que c’était un choix conscient de la part d’OpenAI, les créateurs de ChatGPT, pour promouvoir une multitude d’utilisations ou une entité capable de tout faire. Plus probablement, il s’agissait simplement d’un manque de compréhension de la portée sociale des agents de conversation. Quelle qu’en soit la raison, cette ouverture crée les conditions pour des interactions extrêmes et risquées. La conversation peut aller dans n’importe quelle direction, et l’IA peut endosser n’importe quel rôle social, depuis un assistant efficace pour les e-mails jusqu’à un amoureux obsessionnel.


Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

« Analyse de Samir Nasri »

Les jours sont comptés pour les dernières centrales nucléaires allemandes

Les jours sont comptés pour les dernières centrales nucléaires allemandes