La creciente dependencia de la inteligencia artificial (IA) en el ámbito educativo ha llevado a un aumento alarmante de las trampas académicas. Según una encuesta del Higher Education Policy Institute, más del 50% de los estudiantes emplean IA generativa para sus evaluaciones, y aproximadamente el 5% de estos estudiantes lo hace para infringir normas académicas.
En noviembre de 2024, Times Higher Education reportó que algunas universidades del Russell Group vieron un incremento de hasta 15 veces en los casos de trampas. Esta tendencia ha erosionado la confianza en las instituciones académicas, creando un ambiente de sospecha creciente.
Turnitin, una herramienta ampliamente utilizada para detectar plagio, desarrolló en 2023 una nueva herramienta de detección de IA que ha revisado más de 130 millones de trabajos. De estos, 3.5 millones fueron marcados por ser escritos en un 80% por IA. Sin embargo, esta herramienta ha sido criticada por generar falsos positivos y por una tasa de error que, según Turnitin, es inferior al 1%, afectando significativamente a la población estudiantil.
Un estudio de Stanford arrojó resultados preocupantes sobre el sesgo de los detectores de IA hacia los hablantes no nativos de inglés. Estos marcaban el 61% de los trabajos de hablantes no nativos, comparado con solo el 5% de los hablantes nativos. Además, estudiantes neurodivergentes han sido falsamente acusados de hacer trampa, incrementando las preocupaciones sobre la equidad de estas tecnologías.
El Dr. Mike Perkins, experto en IA generativa, señaló que la precisión de los detectores de IA es solo del 39.5% en la detección de texto generado por IA, y puede caer hasta el 22.1% con manipulaciones simples del texto. Este margen de error alimenta la desconfianza y la controversia en el uso de estas herramientas.
La presión sobre los estudiantes para cumplir con las altas exigencias académicas ha llevado a muchos a depender de la IA. Un caso notable es el de Emma, una madre soltera que usó ChatGPT para completar una tarea y recibió un cero por plagio. Eventualmente, fue absuelta tras considerar sus circunstancias personales.
La creciente desconfianza se refleja entre los estudiantes. David, un estudiante, se vio obligado a recopilar evidencia contra un compañero que sospechaba había utilizado IA en un proyecto grupal. Esta situación ilustra el clima de desconfianza entre los mismos compañeros de estudio.
Ante esta crisis, las universidades están adoptando políticas para un uso positivo de la IA. La Universidad de Cambridge, por ejemplo, permite la IA para obtener una visión general de nuevos conceptos y apoyo en la gestión del tiempo, aunque advierte contra la dependencia excesiva.
La crisis no solo pone en cuestión la ética académica, sino que también revela la naturaleza transaccional de la educación superior. Las universidades, presionadas por la obtención de fondos y la competencia, pueden estar subestimando la deshonestidad académica, lo que a su vez motiva a los estudiantes a utilizar herramientas de IA para mantenerse a flote en un entorno académico altamente demandante.