in

Les IA peuvent produire des réponses “convaincantes, mais complètement fictives”, alerte un cadre de Google

Les IA peuvent produire des réponses “convaincantes, mais complètement fictives”, alerte un cadre de Google



5296e834 les ia peuvent donner des reponses convaincantes mais completement fictives avise un cadre de google 800 800 overflow

La course à l’IA n’est-elle pas trop rapide ? Alors que Microsoft vient de lancer une première version de son moteur de recherche Bing alimenté avec ChatGPT, et tandis que Google s’attend à faire de même prochainement, Prabhakar Raghavan, responsable de Google Search, a remis en cause l’intégrité de certaines réponses générées par les chatbots.

Les IA capables d’“hallucination”

Interrogé par Die Welt, le vice-président senior de la filiale d’Alphabet confirme ce que de nombreux spécialistes avaient déjà constaté : les IA sont parfois des menteuses pathologiques. Ces agents conversationnels pourraient ainsi générer des réponses fausses et assurer pourtant qu’elles sont avérées. C’est notamment le cas de l’actuelle version de ChatGPT utilisée par OpenAI.

“Ce type d’intelligence artificielle, dont nous parlons actuellement, peut parfois conduire à ce que nous appelons une hallucination”, assure Prabhakar Raghavan qui évoque le cas des chatbots dopés à l’IA. Et d’indiquer qu’une machine peut fournir “une réponse convaincante, mais complètement fictive”. Dès lors, ce biais de taille pourrait à l’avenir contribuer à l’expansion de fausses informations sur le web. Pour Prabhakar Raghavan, les développeurs d’IA doivent désormais se pencher prioritairement sur le problème et trouver comment optimiser les réponses.

Google, entre urgence et responsabilité

Dans sa course pour rattraper Microsoft Bing, Bard, le chatbot de Google prochainement intégré au moteur de recherche, a pour mission première de fournir des réponses justes, “notamment pour les questions qui n’ont justement pas qu’une seule réponse”. Le responsable de Google Search affirme que l’entreprise prend son temps pour développer un produit abouti avant de l’implanter dans ses services.

“Nous ressentons bien sûr l’urgence, mais aussi une grande responsabilité. Nous ne voulons en aucun cas induire le public en erreur, promet le responsable. Les énormes modèles linguistiques qui se cachent derrière cette technologie font qu’il est impossible de surveiller chaque comportement imaginable du système par des humains, mais nous voulons le tester à une telle échelle que nous serons finalement satisfaits des mesures appliquées pour vérifier l’objectivité des réponses.”

À en juger la dernière boulette de Bard, le géant de la recherche en ligne aurait encore quelques réglages à peaufiner. Lors de sa première démonstration publique, le chatbot de Google avait généré une réponse incluant un élément erroné, affirmant que le télescope spatial James-Webb a capturé “la toute première image d’une planète en dehors de notre système solaire”.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

ChatGPT dans Bing aurait divulgué par erreur des informations confidentielles sur son fonctionnement

ChatGPT dans Bing aurait divulgué par erreur des informations confidentielles sur son fonctionnement

ChatGPT & Opera : le navigateur dévoile Shorten, une nouvelle fonction basée sur l'IA

ChatGPT & Opera : le navigateur dévoile Shorten, une nouvelle fonction basée sur l’IA