in

Comme Bard, ChatGPT dans Bing a commis plusieurs boulettes lors de sa première démonstration

Comme Bard, ChatGPT dans Bing a commis plusieurs boulettes lors de sa première démonstration



d6d6cc80 comme bard chatgpt dans bing a commis plusieurs erreurs factuelles lors de sa premiere demonstration 800 800 overflow

Les agents conversationnels ne sont pas encore fiables. Dernière illustration en date avec l’intégration de ChatGPT dans Bing. Présenté au siège de Microsoft, l’outil est supposé révolutionner la recherche sur Internet. Pourtant, l’IA intégrée dans le moteur de recherche aurait tout bonnement inventé des informations lors de sa première démonstration publique, selon une analyse de Dmitri Brereton, un ingénieur logiciel indépendant.

“Des réponses complètement fausses”

“L’IA de Bing a donné des réponses complètement fausses pendant sa démo, mais personne n’a remarqué. Au lieu de cela, tout le monde suit la hype de Bing”, ironise à raison le spécialiste qui a relevé un grand nombre d’incohérences et d’informations inventées par l’intelligence artificielle.

Interrogé sur un comparatif entre trois aspirateurs, le chabot aurait inventé des caractéristiques ou omis des détails pertinents pour la recherche. Parallèlement, après une demande au sujet de la vie nocturne à Mexico, l’IA aurait imaginé des spécificités pour certains bars de la capitale mexicaine. Enfin, questionné sur le bilan financier de Gap, l’agent conversationnel a généré un résumé de ce qui semble être un bilan comptable, au détail près que plusieurs chiffres étaient faux.

“Bing AI est incapable d’extraire des chiffres précis d’un document et invente des informations en toute confiance, même lorsqu’il prétend avoir des sources. Il n’est absolument pas prêt à être lancée et ne devrait pas être utilisé par quiconque souhaite obtenir un modèle précis de la réalité”, affirme le chercheur.

Microsoft travaille à l’amélioration de son IA

Dans un courriel relayé par CNN, Microsoft dit être informé du rapport de Dmitri Brereton et avoir tiré les enseignements afin d’améliorer l’expérience de l’IA dans Bing. “Nous reconnaissons qu’il y a encore du travail à faire et nous nous attendons à ce que le système fasse des erreurs pendant la période de test. C’est pourquoi le retour d’information est essentiel pour que nous puissions apprendre et aider les modèles à s’améliorer”, justifie la firme de Redmond.

Le phénomène observé avec ChatGPT dans Bing semble relever de l’“hallucination”, un procédé identifié depuis longtemps par les chercheurs en IA. Aléatoirement, ou quand il ne sait pas répondre à une requête précise, le modèle peut inventer des informations préalablement absentes dans sa base de connaissances.

“Ce type d’intelligence artificielle peut parfois conduire à ce que nous appelons une hallucination [et fournir] une réponse convaincante, mais complètement fictive”, a reconnu Prabhakar Raghavan, vice-président senior de Google et responsable de Google Search.

De son côté, Bard a également commis une erreur factuelle lors de sa première présentation. À en juger le rapport de Dmitri Brereton sur la nouvelle mouture de Bing, cette dernière semble aujourd’hui en comparaison moins grave.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Panasonic, Sennheiser, Philips... les meilleurs bons plans du 16/09/2022

Top 5 : Focal, Saeco, Samsung… les meilleurs bons plans du 15/02/2023

Elon Musk a exigé à des employés de Twitter qu'ils renforcent la visibilité de ses tweets

Elon Musk a exigé à des employés de Twitter qu’ils renforcent la visibilité de ses tweets