Madeleine estaba terminando sus prácticas de enfermería cuando recibió un correo electrónico con el asunto "Problema de integridad académica". Dentro, la (falsa) acusación de haber usado inteligencia artificial para redactar un trabajo. No había hecho nada parecido, pero no importaba. La universidad tenía un informe generado por otra IA, y eso bastaba. Seis meses después, seguía allí, explicando por qué, quién sabe, quizá el sistema se había equivocado.
Mientras tanto, su CV indicaba "resultados pendientes" y ningún hospital la quería. Es un cortocircuito perfecto: una IA que... Acusa a los estudiantes de utilizar IA basándose en otra IA que no funciona bien. Y son las personas las que pagan, no los algoritmos. No es Black Mirror, ni me lo he inventado: ocurrió de verdad.
Seis mil casos, noventa por ciento erróneos
laUniversidad Católica Australiana registró casi 6.000 casos de presunto plagio en 2024. El 90% de estos involucraban inteligencia artificial. ¿El problema? Un número significativo de esos estudiantes no habían hecho nada malo. Todas eran acusaciones falsas. El detector utilizado por la universidad... TurnitinSimplemente había decidido que esos textos estaban demasiado bien escritos para ser humanos. Un cumplido, en teoría. Una condena, en la práctica.
Tania Broadley, vicerrectora de la ACU, declaró a la ABC que las cifras eran "sustancialmente exageradas". Reconoció un aumento en los casos de mala conducta académica, pero se negó a comentar sobre el número de estudiantes víctimas de acusaciones falsas. Una cuarta parte de todas las derivaciones se archivaron tras la investigación. Pero los meses perdidos no se recuperan.
El caso de Madeleine no es un caso aislado. Cientos de estudiantes tuvieron que presentar historiales de navegación completos, notas escritas a mano y justificaciones detalladas. sobre cosas que no habían hecho. Como dijo un estudiante de medicina de urgencias a ABC:
No son la policía. No tienen órdenes judiciales para solicitar tu historial de navegación. Pero cuando corres el riesgo de tener que repetir un curso, hacen lo que quieren.
Turnitin, el sistema que admite que no es confiable
En su propio sitio web, Turnitin advierte que El detector de IA “no debe utilizarse como única base para tomar medidas adversas contra un estudiante”La empresa admitió que su tasa de falsos positivos a nivel de documento es inferior al 1% para documentos con un 20% o más de contenido de IA. Pero a nivel de pena, la tasa sube al 4%. Y cuando el texto mezcla escritura humana e IA, Los problemas se multiplican.
Un estudiante le dijo a ABC: “Es una IA que detecta a otra IA, y casi todo mi ensayo estaba resaltado en azul: el 84 % supuestamente fue escrito por IA”. Su texto era completamente original. Pero al algoritmo no le importó.
La Universidad de Vanderbilt ha desactivado por completo el detector de inteligencia artificial de Turnitin. Ya en 2023, alegando inquietudes sobre su fiabilidad. La universidad calculó que, con 75.000 artículos presentados anualmente y una tasa de falsos positivos de «solo» el 1%, Aproximadamente 750 estudiantes fueron acusados falsamente. Demasiados.
El problema no es sólo técnico
La universidad australiana conocía los problemas del sistema desde hacía más de un año antes de desmantelarlo en marzo de 2025. Documentos internos vistos por ABC demostrar que el personal estaba al tanto de la“fiabilidad limitada de la herramienta” e “incapacidad para distinguir la edición asistida por IA de la generación completa”Pero las acusaciones falsas continuaron durante meses.
El fenómeno no se limita a Australia. En Italia, varias universidades están implementando un software antiplagio avanzadoLa Universidad de Padua ha introducido un nuevo servidor antiplagio más sofisticado. La Universidad de Verona ha integrado un software capaz de identificar textos generados artificialmente. Y elUniversidad de ferrara Canceló un examen completo de Psicobiología después de descubrir que algunos estudiantes habían utilizado ChatGPT, sin poder identificar a los responsables.
Un detalle que no pasaría por alto: uno Estudio de Stanford Se reveló que los detectores de IA presentan sesgo contra hablantes no nativos de inglés. Los algoritmos tienden a marcar con mayor frecuencia los textos escritos por estudiantes extranjeros como "generados por IA". Este problema agrava la discriminación.
Falsas acusaciones de plagio: una situación paradójica
Las universidades están adoptando la inteligencia artificial. Muchas Tienen alianzas con empresas tecnológicas Integrar herramientas de IA en la enseñanza. Luego acusan a los estudiantes de usarlas. El mensaje es confuso: la IA es el futuro, pero si la usas, eres un fraude.
En el entretanto, según una encuesta italianaEl 75 % de los estudiantes que presentaron sus exámenes finales en 2023 admitieron usar herramientas de IA para prepararse. El 18 % de los estudiantes de entre 16 y 18 años usa IA en sus tareas escolares habituales. La tecnología está disponible, es accesible y los estudiantes la utilizan. Esperar que no lo hagan es poco realista.
Que pasa ahora
Como se mencionó, el sistema "antiplagio" se ha abandonado y los asuntos personales se han ido archivando poco a poco (y con demasiada lentitud). Para Madeleine, por ejemplo, ya es demasiado tarde. Ha perdido seis meses, una oportunidad laboral y su confianza en el sistema. "No sabía qué hacer. ¿Volver a estudiar? ¿Renunciar y dedicarme a algo que no fuera enfermería hospitalaria?", declaró a ABC.
El caso muestra lo que sucede cuando delegamos el juicio a sistemas que no comprendemos plenamente. Los algoritmos pueden ser útiles, pero no son infalibles. Y cuando se equivocan, son las personas las que pagan. No con datos corruptos ni errores de cálculo, sino con carreras arruinadas y años desperdiciados. La inteligencia artificial puede parecer más compasiva que los humanos en ciertos contextos, pero cuando se trata de hacer acusaciones falsas, solo demuestra lo peligroso que es confiarle decisiones que cambian la vida.
Como siempre, el problema no es la IA. Es la fe ciega que algunos depositan en ella.