Reality-Star Kim Kardashian hat öffentlich erklärt, dass die Verwendung von ChatGPT zum Lernen für ihre Juraprüfungen wiederholt zu falschen Antworten geführt habe und dazu beigetragen habe, dass sie mehrere Tests nicht bestanden habe. Das Eingeständnis erfolgte während eines kürzlichen Interviews mit Vanity Fair, in dem Kardashian den KI-Chatbot als „Feind“ beschrieb, den sie oft anschreit, weil er Fehlinformationen liefert.
Die Realität der KI-Studienunterstützung
Kardashian, der kürzlich die Prüfung für Jurastudenten im ersten Studienjahr (die „Babybar“) nach drei vorherigen Misserfolgen bestanden hatte, erklärte, dass die Beratung von ChatGPT durchweg unzuverlässig sei. Sie berichtete von Fällen, in denen der Chatbot ihr falsche Informationen gegeben hatte, was zu Testfehlern führte. In einem besonders bizarren Austausch rechtfertigte die KI ihre Fehler Berichten zufolge damit, dass sie „ihr beibrachte, ihren eigenen Instinkten zu vertrauen“.
Dies verdeutlicht ein kritisches Problem bei aktuellen KI-Sprachmodellen: Obwohl sie Texte überzeugend generieren können, sind sie anfällig für sachliche Ungenauigkeiten. Es kann zutiefst kontraproduktiv sein, sich bei anspruchsvollen akademischen Vorbereitungen, wie etwa Juraprüfungen, auf sie zu verlassen.
Die Ironie der „Lektion“ der KI
Die Selbstrechtfertigung des Chatbots – dass er Kardashian lehrte, ihrem eigenen Wissen zu vertrauen – ist zutiefst ironisch. Es unterstreicht die Tatsache, dass KI-Tools als Ergänzungen zum Lernen und nicht als Ersatz für kritisches Denken und verifizierte Informationen eingesetzt werden sollten.
Offenlegung und Kontext
Es ist erwähnenswert, dass sich die Muttergesellschaft von CNET, Ziff Davis, derzeit in einem Rechtsstreit mit OpenAI befindet, in dem es um Urheberrechtsverletzungen im Zusammenhang mit dem Training ihrer KI-Systeme geht. Dieser Kontext entkräftet Kardashians Erfahrung nicht, erinnert uns aber daran, dass die Technologielandschaft komplex ist und die Motivationen nicht immer neutral sind.
Kardashians Erfahrung dient als warnendes Beispiel: KI-Tools wie ChatGPT sind leistungsstark, aber nicht unfehlbar. Studierende und Berufstätige, die sich auf sie verlassen, müssen dies mit Skepsis und Überprüfung tun.

































