La star de télé-réalité Kim Kardashian a déclaré publiquement que l’utilisation de ChatGPT pour étudier à plusieurs reprises ses examens de droit entraînait des réponses incorrectes et contribuait à son échec à plusieurs tests. Cet aveu a eu lieu lors d’une récente interview avec Vanity Fair, dans laquelle Kardashian a décrit le chatbot IA comme un « ennemi » qu’elle crie souvent après avoir fourni des informations erronées.
La réalité de l’aide aux études en IA
Kardashian, qui a récemment réussi l’examen des étudiants en droit de première année (le « baby bar ») après trois échecs précédents, a expliqué que les conseils de ChatGPT étaient systématiquement peu fiables. Elle a raconté des cas où le chatbot lui a donné des informations erronées, entraînant des échecs aux tests. Dans un échange particulièrement bizarre, l’IA aurait justifié ses erreurs en affirmant qu’elle « lui apprenait à faire confiance à [ses] propres instincts ».
Cela met en évidence un problème critique avec les modèles de langage d’IA actuels : même s’ils peuvent générer du texte de manière convaincante, ils sont sujets à des inexactitudes factuelles. Compter sur eux pour une préparation académique à enjeux élevés, comme les examens de faculté de droit, peut s’avérer profondément contre-productif.
L’ironie de la « leçon » de l’IA
L’autojustification du chatbot – selon laquelle il apprenait à Kardashian à faire confiance à ses propres connaissances – est sombre et ironique. Cela souligne le fait que les outils d’IA doivent être utilisés comme des suppléments à l’apprentissage, et non comme des substituts à la pensée critique et aux informations vérifiées.
Divulgation et contexte
Il convient de noter que la société mère de CNET, Ziff Davis, est actuellement engagée dans un litige avec OpenAI, alléguant une violation du droit d’auteur liée à la formation de leurs systèmes d’IA. Ce contexte n’invalide pas l’expérience de Kardashian, mais il nous rappelle que le paysage technologique est complexe et que les motivations ne sont pas toujours neutres.
L’expérience de Kardashian sert de mise en garde : Les outils d’IA comme ChatGPT sont puissants, mais ils ne sont pas infaillibles. Les étudiants et les professionnels qui comptent sur eux doivent le faire avec scepticisme et vérification.

































