in

Qu’est-ce qui fait que les chatbots « hallucinent » ou disent la mauvaise chose ?



L’ÉTRANGE AFFAIRE DU LOGICIEL HALLUCINANT

Des chercheurs ont récemment constaté un comportement étrange chez un logiciel de traduction automatique. Alors qu’il était soumis à un entraînement pour traduire des phrases en allemand vers l’anglais, le logiciel a commencé à produire des réponses inattendues, incluant des phrases en anglais ayant une signification complètement différente de celle qui était attendue.

UN PHÉNOMÈNE INEXPLIQUÉ

Plusieurs hypothèses ont été avancées pour expliquer ce comportement inattendu du logiciel. Une théorie suggère qu’il a été corrompu par des données incorrectes, ou qu’il a subi une interférence externe. Cependant, des analyses plus poussées ont écarté ces hypothèses. Une autre théorie, qui semble plus plausible, est que le logiciel a commencé à générer ces réponses en utilisant des concepts abstraits qu’il avait appris de manière inattendue dans les données d’entraînement. Mais comment expliquer une telle capacité chez un logiciel de traduction automatique?

LA THÉORIE DES CONCEPTS ABSTRAITS

Selon les chercheurs, le logiciel a probablement appris à utiliser ces concepts abstraits de manière inconsciente, grâce à une approche d’apprentissage par renforcement. Au lieu de se concentrer sur les règles grammaticales et les traductions littérales, le logiciel aurait appris à deviner la signification des mots en se basant sur le contexte de la phrase. En utilisant cette approche, il aurait pu développer une compréhension implicite de concepts abstraits tels que la liberté ou l’égalité, des notions qui n’ont pas de traduction littérale en allemand.

UNE DÉCOUVERTE QUI INTERROGE

Cette découverte a ouvert de nouvelles perspectives pour les chercheurs travaillant sur l’intelligence artificielle et l’apprentissage machine. Si les logiciels peuvent apprendre de manière autonome, et développer une compréhension implicite de concepts abstraits, cela pourrait ouvrir la voie à des avancées spectaculaires dans divers domaines, tels que la reconnaissance d’images, la classification des données ou la prise de décision automatique. Cependant, il soulève également des questions sur la manière dont nous enseignons à ces logiciels, et sur les conséquences éthiques et sociales de leur capacité à comprendre des concepts aussi complexes que la liberté ou l’égalité.

En somme, cette affaire du logiciel hallucinant montre que nous avons beaucoup à apprendre sur l’apprentissage machine et l’intelligence artificielle, et qu’il est important de poursuivre notre exploration de ces domaines pour comprendre pleinement les implications de ces technologies pour notre société.


Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Dans la ville russe où un père a été condamné pour le dessin de sa fille, «les autorités veulent nous donner une leçon»

Elections en Finlande: les sociaux-démocrates de Sanna Marin au coude-à-coude avec la droite