Estudiante acusado injustamente de hacer trampa con IA por la nueva herramienta de detección de Turnitin
HogarHogar > Noticias > Estudiante acusado injustamente de hacer trampa con IA por la nueva herramienta de detección de Turnitin

Estudiante acusado injustamente de hacer trampa con IA por la nueva herramienta de detección de Turnitin

Oct 14, 2023

por Miles Klee

Louise Stivers siempre ha revisado sus deberes mediante un software.

Stivers, un estudiante de ciencias políticas de 21 años de Santa Bárbara a punto de graduarse en la Universidad de California, Davis, con planes de asistir a la facultad de derecho, creció en una época en la que se espera que los estudiantes presenten tareas escritas a través de herramientas antiplagio como Turnitin. Los educadores confían en estos servicios para evaluar el texto y marcar cualquiera que parezca copiado de fuentes existentes, y ella nunca tuvo problemas con uno. Pero en estos días, las administraciones escolares también buscan tareas completadas con IA generativa. Así fue como Stivers terminó en problemas, a pesar de que no había hecho trampa.

"Estaba como enloqueciendo", le dice a Rolling Stone.

Horas después de que subió un documento para una de sus clases en abril (era un breve resumen de un caso de la Corte Suprema), Stivers recibió un correo electrónico de su profesor que indicaba que Turnitin había marcado una parte del mismo como escrito por IA. Su caso ya había sido remitido a la Oficina de Apoyo Estudiantil y Asuntos Judiciales de la universidad, que maneja la disciplina por mala conducta académica. Stivers estaba desconcertado y estresado, pero inmediatamente después tuvo que hacer un examen para otra clase. Luego comenzó a reunir evidencia de que ella misma había escrito el informe.

"Definitivamente fue muy desmotivador", dice Stivers sobre la acusación, que se convirtió en una pesadilla burocrática que duró más de dos semanas mientras buscaba limpiar su nombre. Se esperaba que analizara las densas políticas de trampa de la escuela y montara una defensa formal de su trabajo, con poco apoyo institucional y mientras enfrentaba las presiones ordinarias del último año. Ella llama a esto una "gran pérdida de tiempo" que podría haberse "gastado haciendo la tarea y estudiando para los exámenes parciales". Debido a este enfoque dividido, dice, sus calificaciones comenzaron a bajar.

Stivers no es el único que se enfrenta a tal calvario, ya que los estudiantes, los profesores y las instituciones educativas se enfrentan al poder revolucionario de los bots de lenguaje con inteligencia artificial que imitan de forma convincente la escritura humana. El mes pasado, un profesor de Texas usó incorrectamente ChatGPT al tratar de evaluar si los estudiantes habían completado una tarea usando ese software. Afirmó haber escrito todos los ensayos que introdujo, por lo que retuvo temporalmente las calificaciones finales de toda una clase.

De hecho, Stivers se enteró de que ni siquiera era la primera estudiante de UC Davis en enfrentarse a una acusación falsa de hacer trampa con la IA. Días antes de que supiera que estaría sujeta a una revisión de integridad académica, USA Today publicó un artículo sobre William Quarterman, estudiante de último año y estudiante de historia en la universidad. Un profesor había pasado las respuestas de su examen a través de una detección de IA llamada GPTZero, que arrojó un resultado positivo. El profesor reprobó a Quarterman y lo refirió a la misma oficina de asuntos estudiantiles que adjudicaría el caso de Stivers. Stivers pronto se enteró de la difícil situación de su compañero de clase. "Su papá pudo ayudarlo", dice ella, y los dos a su vez le dieron "muchos consejos y también le explicaron cómo funciona la política de la escuela sobre esto".

Aun así, había mucho en juego intimidantemente alto. El correo electrónico inicial "muy largo" que recibió Stivers explicaba cuándo tendría la oportunidad de contar su versión de la historia en una conversación de Zoom uno a uno con un administrador, pero carecía de detalles sobre el proceso de revisión, o exactamente qué ella necesitaba prepararse. También dijo que podría tener un abogado presente para la llamada, lo que la alarmó. En general, se sentía "en la oscuridad" acerca de qué hacer, sin mencionar que estaba confundida en cuanto a las posibles consecuencias de esta evaluación.

"Ya estaba muy agotado por los últimos dos trimestres", dice Stivers. "Y cuando estás postulando a la escuela de derecho, hay mucha presión para mantener tu GPA. Sí, simplemente no es divertido tener que descifrar las complicadas políticas de integridad académica de la escuela mientras tomas clases". De hecho, se convirtió en algo así como una tarea extra estresante adicional.

Cuando habló con el moderador de la facultad que evaluaba su caso, Stivers se enteró de que la herramienta de detección de IA de Turnitin era en realidad completamente nueva y que UC Davis había asegurado el "acceso anticipado" al software. Turnitin anuncia este producto con una precisión del 98 por ciento, pero en sus materiales reconoce "un pequeño riesgo de falsos positivos". La empresa enfatiza que no son responsables de determinar la mala conducta. En cambio, "proporcionan datos para que los educadores tomen una decisión informada".

En una declaración a Rolling Stone, Annie Chechitelli, directora de productos de Turnitin, alentó a Stivers a ponerse en contacto con los comentarios sobre el software y dijo que "esta información es muy útil para nosotros a medida que continuamos perfeccionando y desarrollando nuestras capacidades de detección". Chichitelli agregó: "En todos los casos, la facultad y los maestros deciden si lo que ven en la información que se les presenta merece más atención".

Al final, Stivers pudo demostrar que no estaba violando las reglas de la universidad, ya que compartió minuciosas "instrucciones paso a paso sobre cómo abrir Google Docs y revisar el historial" con el departamento judicial. Esas marcas de tiempo demostraron que ella misma había escrito el artículo.

Sin embargo, Stivers señala que la acusación de hacer trampa es algo que ella misma deberá informar a las facultades de derecho durante el proceso de solicitud. Los colegios de abogados estatales, dice, son conocidos por hacer preguntas similares sobre la historia académica, lo que significa que este malentendido podría seguirla durante años. De hecho, US News & World Report aconseja a los aspirantes a facultades de derecho y al Colegio de Abogados que "se equivoquen por el lado de la divulgación" e informen de manera proactiva cualquier "procedimiento disciplinario en su universidad" suponiendo que estos puedan aparecer en las verificaciones de antecedentes. Y, dice, la decisión a su favor se produjo sin una disculpa o reconocimiento del error por parte de su profesor o de la propia universidad.

En una declaración a Rolling Stone, la Oficina de Apoyo Estudiantil y Asuntos Judiciales de UC Davis dijo que la Ley de Privacidad y Derechos Educativos de la Familia les impide comentar sobre casos individuales de estudiantes. Sin embargo, el departamento confirmó actualizaciones recientes de sus políticas para abordar el tema en evolución de la inteligencia artificial, y está "planeando una campaña de otoño para aumentar la conciencia sobre la IA y la conducta académica, alentar la conversación entre estudiantes e instructores y proporcionar una guía para los estudiantes". En cuanto a la nueva herramienta de detección de IA de Turnitin, la oficina "continúa evaluando su utilidad sin depender de ella ni de ningún otro método", confiando en "una variedad de herramientas, junto con nuestro propio análisis del trabajo del estudiante", para tomar decisiones sobre la mala conducta.

"Obviamente, la gente lo va a usar, los estudiantes lo van a usar, los profesores lo van a usar", dice Stivers sobre herramientas como ChatGPT, que cree que ha vuelto a los educadores "paranoicos" sobre las trampas de la IA. "Pero creo que solo deben tener más cuidado con la forma en que lo abordan". Stivers dice que el plagio de Turnitin y la detección de IA difieren claramente en la funcionalidad, aunque los profesores pueden tratar los resultados como igualmente confiables. En su declaración, Chechitelli señaló que la herramienta de detección de IA ofrece resultados con un "puntaje indicador" que muestra el porcentaje de texto no original en un documento, similar a lo que obtienen los educadores de su herramienta de detección de plagio. Sin embargo, en el lado de la IA, las puntuaciones están "basadas en estadísticas más que en una comparación con los documentos originales".

Vincent Conitzer, director de Foundations of Cooperative AI Lab en la Universidad Carnegie Mellon y jefe de compromiso técnico de IA en el Instituto de Ética en IA de la Universidad de Oxford, analiza esta diferencia crucial.

"Para el plagio, existen herramientas automatizadas para detectarlo, y puede haber áreas grises en las que no está del todo claro si el estudiante realmente hizo trampa", dice. "Pero en ese caso, es fácil para los instructores y otro personal universitario evaluar la evidencia directamente" haciendo coincidir el idioma de un estudiante con la fuente de la que copiaron. Por el contrario, dice, "si una herramienta simplemente afirma que algún fragmento de texto es generado por IA, pero sin ninguna evidencia que los instructores o el personal universitario puedan interpretar, tendrían que tener un alto grado de confianza en la herramienta en sí". para acusar al estudiante". Cuestiona cuánta fe poner en cifras como la tasa de precisión del "98 por ciento" de Turnitin, especialmente cuando se consideran las pruebas internas frente a la aplicación en el aula.

"Y la vida real puede ser aún más complicada", dice Conitzer, describiendo escenarios en los que los estudiantes "escriben el borrador inicial ellos mismos pero luego le piden a ChatGPT que encuentre formas de mejorar la escritura o, por el contrario, le piden a ChatGPT que escriba un primer borrador y luego lo reescriban ellos mismos". o alguna combinación de los dos". Tales inevitabilidades, en su opinión, ilustran la necesidad de políticas académicas claras y aplicables. "En general, es probable que esto siga siendo una carrera armamentista", concluye.

Y, a medida que los profesores y las escuelas se toman cada vez más en serio la toma de medidas enérgicas contra los trucos de IA (mientras tal vez sobrestiman la eficacia del software de detección), más estudiantes como Stivers se verán atrapados en el fuego cruzado, con sus vidas académicas trastocadas. Ni siquiera el hecho de su propia inocencia fue suficiente para tranquilizarla mientras esperaba una decisión disciplinaria.

"Sabía que no hice trampa", dice Stivers. "Pero al mismo tiempo fue como, 'Bueno, no sé al 100 por ciento si realmente me van a creer'".

Actualizar,7 de junio, 12:50 h:Esta historia ha sido actualizada para incluir comentarios de la Oficina de Apoyo Estudiantil y Asuntos Judiciales de UC Davis.

Actualización 7 de junio, 12:50 p. m.: