Il est important de vérifier les faits de tout ce qui sort de ChatGPT, Bing Chat, Google Bard ou de tout autre robot. C’est particulièrement vrai pour les mathématiques. Ne partez pas du principe que ChatGPT sait faire des maths. Les chatbots IA excellent dans l’écriture créative, mais pas dans l’arithmétique et le comptage.
Les chatbots ne sont pas des calculatrices
Lorsqu’on utilise une IA, les messages-guides sont toujours essentiels. Il est important que vous fournissiez autant d’informations que possible et que vous construisiez soigneusement votre texte pour obtenir une réponse.
Mais même si ChatGPT vous donne une excellente logique, vous pouvez plisser les yeux au milieu du texte pour vous rendre compte que c’était une erreur. ChatGPT se trompe souvent de logique et n’est pas non plus très doué pour compter.
Qu’attendez-vous d’une grande calculatrice à modèle linguistique ? Il n’est absolument pas conçu pour cela.
Nous tenons à souligner qu’il est important de vérifier et de revérifier tout travail d’IA. Cela ne se limite pas aux mathématiques.
Il s’agit là de quelques exemples où ChatGPT tombe à plat. Pour cet article, nous avons utilisé Bing Chat et la version gratuite de ChatGPT basée sur GPT 3.5 Turbo. ChatGPT+ avec GPT4 fera mieux que ChatGPT gratuit, mais ces problèmes sont présents même dans les meilleurs chatbots IA.
ChatGPT : comment utiliser gratuitement le chatbot IA
ChatGPT ne peut pas être compté
ChatGPT ne semble pas bien fonctionner pour compter de longues listes d’éléments. La tâche peut sembler simple, mais ne vous fiez pas à une réponse fiable.
ChatGPT a reçu une colonne de chiffres et on lui a demandé de compter toutes les occurrences d’un chiffre spécifique. Il n’est même pas nécessaire de compter. La réponse correcte est que le 100 apparaît au moins 14 fois.
ChatGPT 2.5 ne parvient pas à compter les listes.
Même lorsque ChatGPT s’excuse ou donne une réponse révisée après que vous l’ayez corrigée, il se peut que vous n’obteniez pas la réponse souhaitée.
ChatGPT se comporte comme un individu qui tente désespérément de dissimuler un incident et de vous donner une réponse – n’importe laquelle – pour se débarrasser de lui. Cela semble très réel !
ChatGPT peut être très confiant dans ses réponses, mais il n’est pas toujours le meilleur pour les donner.
ChatGPT ne parvient pas à compter.
Microsoft Bing Chat nous a donné une erreur similaire lorsque nous avons essayé GPT 4 sur le chat. Bing a tenté de résoudre ce problème à l’aide d’un code Python, mais n’est pas parvenu à obtenir la bonne réponse. (Bing n’a pas exécuté le code réel).
Bing Chat ne compte pas
ChatGPT : des problèmes de logique et de mathématiques
ChatGPT peut être très déroutant. Il vous demandera de suivre une logique étrange pour trouver la réponse.
ChatGPT a fourni un problème mathématique à base de fruits. Il reflète ce qu’une personne pourrait demander pour rééquilibrer son portefeuille d’investissement, en répartissant les contributions entre différents fonds.
ChatGPT Problème mathématique basé sur des mots.
ChatGPT semble bien commencer mais dévie rapidement vers une logique qui n’est pas logique ou qui donne une réponse incorrecte.
La réponse de ChatGPT à ce problème est logiquement erronée.
Il n’est pas nécessaire de passer par tous les détours possibles pour savoir que la bonne réponse se trouve à la fin.
La réponse incorrecte de ChatGPT est complète.
ChatGPT peut également ne pas être d’accord avec ses propres réponses. (Là encore, il s’agit d’un comportement humain).
ChatGPT explique qu’il n’a peut-être pas donné la bonne réponse dans ce cas, mais qu’il vous a au moins rapproché du ratio souhaité. C’est assez hilarant.
ChatGPT admet que la réponse est fausse, mais la conteste.
Microsoft Bing Chat, basé sur GPT 4, a rencontré le même problème et nous a fourni une réponse incorrecte. Dans ce cas également, le raisonnement logique de GPT 4 déraille.
Comment sauvegarder et partager vos conversations ChatGPT
Bing Chat répond par la confusion.
Nous vous conseillons de ne pas suivre tous les détours de la logique.
La mauvaise réponse de Bing, la dernière partie.
Bing a continué à tourner en rond après que nous lui ayons signalé sa mauvaise réponse. Il nous a offert une réponse erronée après l’autre.
Bing Chat corrige la réponse qu’il donne.
Même ChatGPT n’est pas capable de faire de l’arithmétique de manière fiable.
ChatGPT est également connu pour faire des erreurs en mathématiques de base. De nombreux problèmes logiques comportent des erreurs d’arithmétique au milieu, comme 1+1=3.
ChatGPT (et d’autres chatbots IA) vous donnera beaucoup d’informations. Veillez à tout vérifier deux fois et trois fois.