La estrella de reality Kim Kardashian ha declarado públicamente que usar ChatGPT para estudiar para sus exámenes de derecho resultó repetidamente en respuestas incorrectas y contribuyó a que reprobara múltiples pruebas. La admisión se produjo durante una entrevista reciente con Vanity Fair, donde Kardashian describió el chatbot de IA como un “enemigo” al que a menudo le grita por proporcionar información errónea.
La realidad de la asistencia al estudio de IA
Kardashian, quien recientemente aprobó el examen de estudiantes de derecho de primer año (la “barra de bebés”) después de tres fracasos anteriores, explicó que la orientación de ChatGPT era consistentemente poco confiable. Ella contó casos en los que el chatbot le dio información incorrecta, lo que provocó fallas en las pruebas. En un intercambio particularmente extraño, la IA supuestamente justificó sus errores afirmando que estaba “enseñándole a confiar en sus propios instintos”.
Esto resalta un problema crítico con los modelos de lenguaje de IA actuales: si bien pueden generar texto de manera convincente, son propensos a inexactitudes fácticas. Depender de ellos para la preparación académica de alto riesgo, como los exámenes de la facultad de derecho, puede resultar profundamente contraproducente.
La ironía de la “lección” de la IA
La autojustificación del chatbot (que le estaba enseñando a Kardashian a confiar en su propio conocimiento) es oscuramente irónica. Subraya el hecho de que las herramientas de IA deben utilizarse como suplementos del aprendizaje, no como sustitutos del pensamiento crítico y la información verificada.
Divulgación y contexto
Vale la pena señalar que la empresa matriz de CNET, Ziff Davis, está actualmente involucrada en una disputa legal con OpenAI, alegando infracción de derechos de autor relacionada con el entrenamiento de sus sistemas de IA. Este contexto no invalida la experiencia de Kardashian, pero sí nos recuerda que el panorama tecnológico es complejo y las motivaciones no siempre son neutrales.
La experiencia de Kardashian sirve como advertencia: Las herramientas de inteligencia artificial como ChatGPT son poderosas, pero no infalibles. Los estudiantes y profesionales que confían en ellos deben hacerlo con escepticismo y verificación.

































