Como las herramientas antiplagio fallan más que una escopeta de feria ante la IA, este profesor ha desarrollado una técnica de lo más efectiva
No es ningún secreto que la inteligencia artificial es la chuleta perfecta. Es cierto que la IA es magnífica para aprender conceptos que no sabes y prepararte para un examen, pero también es cierto que afecta a la forma de aprender y no bien precisamente. Ahora, si lo que quieres es trabajar menos, copiando trabajos o resolviendo preguntas de examen, es coser y cantar.
La de los trabajos es una cuestión peliaguda: diseñados para que el alumnado parta de una base teórica impartida en clase para interiorizarla, buscar fuentes ajenas y preparar un informe teniendo que organizar y sintetizar conceptos, eso se acabó. Si quieres hacerlo moderadamente rápido y bien (aquí depende de tu pericia con los prompts): se lo pides a ChatGPT, copias, pegas y a funcionar.
En ese escenario el profesorado se está encontrando con que mandar trabajos ya no sirve. Pero igual que el alumnado recurre a la tecnología para la pillería, sus docentes también. ¿Cómo? Insertando instrucciones invisibles destinadas a pillar a los listillos.
Unas instrucciones invisibles para el ojo humano pero no para la IA
La historia la cuenta en primera persona Will Teague, un profesor universitario adjunto que lleva una década impartiendo clases de Historia. Data de 2023 (cabe recordar que ChatGPT se lanzó en noviembre de 2022) el momento en el que empezó a encontrar entregas hechas total o parcialmente con IA. Según sus palabras, antes las herramientas antiplagio funcionaban frente al copia y pega de Wikipedia, pero ahora fallan más que una escopeta de feria frente ChatGPT y similares.
Como en muchos casos solo tenía sospechas pero no pruebas a las que agarrarse, optó por una solución artesanal: introducir en los enunciados bloques de texto que son invisibles al ojo humano pero legibles para una IA cuando el alumno le proporciona el enunciado completo. Estos mensajes ocultos incorporaban una instrucción extra que daba el cante, como por ejemplo adoptar una lectura marxista del libro analizado.
Y pone un ejemplo: un trabajo de primero de carrera del libro 'Gabriel's Rebellion', una obra que narra el intento de rebelión de esclavos en el año 1800 ubicado en Estados Unidos. De los 122 trabajos entregados, 33 tenían un enfoque marxista. Tras invocar a la honestidad a su alumnado, logró que otros 14 estudiantes confesaran haber usado IA. Casi un 40% de estudiantes había hecho trampas.
Por si fuera poco, algunos alumnos señalados como culpables de haber hecho trampas explicaban que simplemente estaban usando un estilo 'demasiado correcto', pero no fueron capaces de dar una explicación sobre esa perspectiva marxista. Premeditación y alevosía.
Hemos llegado a un punto tal que la American Historical Association no recomienda prohibir el uso de la IA, sino formar a los estudiantes en el análisis crítico de ensayos generados por máquinas. Pero Teague tiene sus reservas: si no tienen la base para comprenderlo, ¿cómo van a evaluarlo? Que no exista una normativa específica generalizada hace más compleja de abordar esta cuestión, más cuando hay alumnado que no siente que está haciendo trampa: considera que la IA les ayuda a sintetizar y redactar.
Después del varapalo de descubrir que el 40% de su clase hacía trampas con IA, les pidió leer un ensayo crítico sobre la IA. De las 47 persona implicadas, 36 entregaron este segundo trabajo y solo uno recurrió a la IA, según las pesquisas del profesor. En las entregas, alguna reflexión que da qué pensar: hay alumnado con miedo a no escribir lo suficientemente bien sin la IA.
En Genbeta | He probado el nuevo modo estudio de ChatGPT y lo tengo claro: este curso los profes particulares lo van a tener crudo
Portada | Shantanu Kumar en Pexels
Ver todos los comentarios en https://www.genbeta.com
VER Comentarios