Actualizado a las 8:37 pm ET el 27 de agosto de 2024
KYle Jensen, el director El profesor, que dirige los programas de redacción de la Universidad Estatal de Arizona, se prepara para el semestre de otoño. La responsabilidad es enorme: cada año, 23.000 estudiantes toman cursos de redacción bajo su supervisión. El trabajo de los profesores es incluso más duro hoy que hace unos años, gracias a las herramientas de inteligencia artificial que pueden generar trabajos universitarios competentes en cuestión de segundos.
Apenas una semana después de que ChatGPT apareciera en noviembre de 2022, El Atlántico declaró que “El ensayo universitario ha muerto.” Dos años después, Jensen ya ha dejado de llorar y está listo para seguir adelante. Este profesor de inglés, alto y afable, es uno de los directores de un proyecto financiado por el National Endowment for the Humanities sobre alfabetización en inteligencia artificial generativa para profesores de humanidades y ha estado incorporando modelos de lenguaje de gran tamaño en los cursos de inglés de la ASU. Jensen forma parte de una nueva generación de profesores que quieren adoptar la inteligencia artificial generativa aunque también intentan controlar sus tentaciones. Cree firmemente en el valor de la escritura tradicional, pero también en el potencial de la inteligencia artificial para facilitar la educación de una manera nueva: en el caso de la ASU, una que mejore el acceso a la educación superior.
Pero su visión debe superar una dura realidad en los campus universitarios. Primer año de universidad en IA El fracaso terminó cuando los estudiantes probaron los límites de la tecnología y los profesores fueron tomados por sorpresa. Las trampas eran comunes. Las herramientas para identificar ensayos escritos por computadora demostraron insuficiente para la tareaLos comités de integridad académica se dieron cuenta de que no podían juzgar de manera justa casos inciertos: los estudiantes que usaban IA por razones legítimas, o incluso que solo consultaban software de revisión gramatical, estaban siendo etiquetados como tramposos. Entonces, los profesores les pidieron a sus estudiantes que no usaran IA, o al menos que lo dijeran cuando lo hicieran, y esperaban que eso fuera suficiente. No fue así.
Ahora, al comienzo del tercer año de la carrera de IA, el problema parece tan intratable como siempre. Cuando le pregunté a Jensen cómo se preparaban para el nuevo semestre los más de 150 profesores que imparten clases de redacción en la ASU, inmediatamente se refirió a sus preocupaciones por las trampas. Muchos le habían enviado mensajes, me dijo, para preguntarle sobre un problema reciente. El diario Wall Street artículo sobre un producto inédito de OpenAI que puede detectar texto generado por IA. La idea de que se hubiera retenido una herramienta de ese tipo era irritante para el profesorado en conflicto.
ChatGPT llegó en un momento vulnerable en los campus universitarios, cuando los profesores todavía se estaban recuperando de la pandemia del coronavirus. La respuesta de sus escuelas (en su mayoría, basarse en códigos de honor para desalentar la mala conducta) funcionó en 2023, dijo Jensen, pero ya no será suficiente: “Cuando miro a ASU y otras universidades, ahora existe el deseo de un plan coherente”.
yoLa pasada primavera hablé con Un profesor de escritura en una escuela de Florida que se había desmoralizado tanto por las trampas de los estudiantes que estaba listo para darse por vencido y aceptar un trabajo en tecnología. “Esto casi me destrozó”, me dijo en ese momento. “Me enamoré de la enseñanza y he amado mi tiempo en el aula, pero con ChatGPT, todo parece inútil”. Cuando volví a consultarlo este mes, me dijo que había enviado muchos currículums, sin éxito. En cuanto a su trabajo como profesor, las cosas solo han empeorado. Dijo que ha perdido la confianza en sus estudiantes. La IA generativa ha “arruinado prácticamente la integridad de las clases en línea”, que son cada vez más comunes a medida que escuelas como ASU intentan ampliar el acceso. No importa cuán pequeñas sean las tareas, muchos estudiantes las completarán usando ChatGPT. “Los estudiantes enviarían respuestas de ChatGPT incluso a indicaciones como 'Preséntese a la clase en 500 palabras o menos'”, dijo.
Si el primer año de la facultad de IA terminó con una sensación de consternación, la situación ahora ha degenerado en absurdo. Los profesores luchan por seguir enseñando mientras se preguntan si están calificando a los estudiantes o a las computadoras; mientras tanto, una interminable carrera armamentista de detección y trampas de IA se desarrolla en segundo plano. Los tecnólogos han estado probando nuevas formas de frenar el problema; El diario Wall Street El artículo describe uno de varios marcos. OpenAI está experimentando con un método para ocultar una marca de agua digital en su salida, que podría detectarse más tarde y usarse para demostrar que un texto determinado fue creado por IA. Pero las marcas de agua pueden manipulado con, y cualquier detector creado para buscarlos solo puede buscar aquellos creados por un sistema de IA específico. Eso podría explicar por qué OpenAI no ha optado por lanzar su función de marca de agua; hacerlo solo empujaría a sus clientes a utilizar servicios sin marca de agua.
Se han probado otros enfoques. Los investigadores del Instituto Tecnológico de Georgia ideó un sistema que compara cómo los estudiantes solían responder preguntas de ensayo específicas antes de que se inventara ChatGPT con cómo lo hacen ahora. Una empresa llamada PowerNotes integra los servicios de OpenAI en una versión de Google Docs con seguimiento de cambios mediante IA, que puede permitir que un instructor vea todas las adiciones de ChatGPT a un documento determinado. Pero métodos como estos no están probados en entornos del mundo real o tienen una capacidad limitada para evitar las trampas. Declaración de principios En cuanto a la IA generativa, la Asociación de Maquinaria Computacional afirmó el otoño pasado que “detectar de manera confiable el resultado de los sistemas de IA generativa sin una marca de agua incorporada está más allá del estado actual de la técnica, que es poco probable que cambie en un período de tiempo proyectado”.
Este hecho inconveniente no frenará la carrera armamentística. Es probable que uno de los proveedores de IA generativa lance una versión de marca de agua, tal vez junto con un servicio costoso que las universidades puedan usar para detectarla. Para justificar la compra de ese servicio, esas escuelas pueden promulgar políticas que presionen a los estudiantes y al personal docente para que utilicen el proveedor de IA generativa elegido para sus cursos; los tramposos emprendedores encontrarán soluciones alternativas y el ciclo continuará.
Pero rendirse tampoco parece ser una opción. Si los profesores universitarios parecen obsesionados con el fraude estudiantil, es porque es algo generalizado. Esto era así incluso antes de que llegara ChatGPT: históricamente, los estudios estiman que Más de la mitad de todos los estudiantes de secundaria y universitarios han hecho trampa de alguna manera. El Centro Internacional para la Integridad Académica informes que, a principios de 2020, casi un tercio de los estudiantes universitarios admitieron en una encuesta que habían hecho trampa en los exámenes. “He estado luchando contra Chegg y Course Hero durante años”, me dijo Hollis Robbins, decano de humanidades de la Universidad de Utah, refiriéndose a dos servicios de “ayuda con las tareas” que eran muy populares hasta que apareció OpenAI. trastocó su negocio. “Los profesores están asignando, después de décadas, los mismos viejos temas de trabajo: temas importantes en Sentido y sensibilidad o Moby Dick”, dijo. Durante mucho tiempo, los estudiantes podían obtener respuestas de Chegg o copiar documentos de los archivos de la casa de la hermandad; ChatGPT ofrece otra opción. Los estudiantes ¿Crees que hacer trampa está mal?pero la oportunidad y las circunstancias prevalecen.
SLos estudiantes no están solos en la sensación de que la IA generativa podría resolver sus problemas. Los instructores también han utilizado las herramientas para mejorar su enseñanza. Incluso el año pasado, uno encuesta Se descubrió que más de la mitad de los maestros de primaria y secundaria usaban ChatGPT para planificar cursos y lecciones. Otro estudio, realizado hace apenas seis meses, encontró que más del 70 por ciento de los profesores de educación superior que utilizan regularmente la IA generativa la empleaban para dar calificaciones o comentarios sobre el trabajo de los estudiantes. Y la industria tecnológica les está proporcionando herramientas para hacerlo: en febrero, la editorial educativa Houghton Mifflin Harcourt adquirido un servicio llamado Escribibleque utiliza inteligencia artificial para brindarles a los estudiantes de primaria comentarios sobre sus trabajos.
Jensen reconoció que su facultad de redacción de la ASU, ansiosa por hacer trampas, estaba acosada por el trabajo antes de que apareciera la IA. Algunos enseñan cinco cursos de 24 estudiantes cada uno a la vez. (Conferencia sobre redacción y comunicación universitaria) recomienda no más de 20 estudiantes por curso de escritura e idealmente 15, y advierte que los profesores sobrecargados pueden estar “demasiado dispersos para interactuar eficazmente con los estudiantes en su escritura”). John Warner, ex instructor de escritura universitaria y autor del próximo libro Más que palabras: cómo pensar la escritura en la era de la inteligencia artificialteme que la mera existencia de estas cargas de trabajo aliente a los profesores o a sus instituciones a utilizar la IA en aras de la eficiencia, incluso si eso priva a los estudiantes de una mejor retroalimentación. “Si los instructores pueden demostrar que pueden atender a más estudiantes con una nueva herramienta de chatbot que brinda una retroalimentación aproximadamente equivalente a la mediocre retroalimentación que recibían antes, ¿no ganará ese resultado?”, me dijo. En la versión más ridícula de este arreglo, se incentivaría a los estudiantes a generar tareas con IA, a las que los profesores responderían con comentarios generados por IA.
Stephen Aguilar, profesor de la Universidad del Sur de California que ha estudiado cómo los educadores utilizan la IA, me dijo que muchos simplemente quieren un margen de maniobra para experimentar. Jensen está entre ellos. Dado el objetivo de la ASU de ampliar el acceso asequible a la educación, no cree que la IA tenga que ser un compromiso. En lugar de ofrecer a los estudiantes una forma de hacer trampa o a los profesores una excusa para desentenderse, podría abrir la posibilidad de expresión que de otro modo nunca habría tenido lugar: un “camino a través del bosque”, como él lo expresó. Me habló de un curso de inglés de nivel inicial en el programa Learning Enterprise de la ASU, que ofrece a los estudiantes en línea un camino hacia la admisión a la universidad. Los estudiantes comienzan leyendo sobre la IA, estudiándola como un fenómeno contemporáneo. Luego escriben sobre las obras que leen y utilizan herramientas de IA para criticar y mejorar su trabajo. En lugar de centrarse en los ensayos en sí, el curso culmina con una reflexión sobre el proceso de aprendizaje asistido por IA.
Robbins dijo que la Universidad de Utah ha adoptado un enfoque similar. Me mostró el programa de estudios de un curso de escritura universitaria en el que los estudiantes usan IA para aprender “qué hace que la escritura sea cautivadora”. Además de leer y escribir sobre la IA como un problema social, leen obras literarias y luego intentan que ChatGPT genere obras en formas y géneros correspondientes. Luego comparan las obras generadas por IA con las de autores humanos para detectar las diferencias.
Pero Warner tiene una idea más sencilla. En lugar de convertir la IA en una materia y una herramienta de la educación, sugiere que los profesores deberían actualizar su forma de enseñar los conceptos básicos. Una de las razones por las que la IA puede generar trabajos universitarios creíbles es que estos tienden a seguir un formato rígido, casi algorítmico. El profesor de redacción, dijo, se encuentra en una posición similar, gracias al gran volumen de trabajo que tiene que calificar: la retroalimentación que da a los estudiantes también es casi algorítmica. Warner cree que los profesores podrían abordar estos problemas reduciendo lo que piden en las tareas. En lugar de pedir a los estudiantes que produzcan trabajos extensos que se supone que deben ser independientes como ensayos o argumentos, sugiere darles indicaciones más breves y específicas que estén vinculadas a conceptos útiles de escritura. Se les puede pedir que escriban un párrafo de prosa animada, por ejemplo, o una observación clara sobre algo que ven, o algunas líneas que transformen una experiencia personal en una idea general. ¿Podrían los estudiantes seguir utilizando la IA para completar este tipo de trabajo? Por supuesto, pero tendrán menos motivos para hacer trampa en una tarea concreta que entienden e incluso pueden… desear para lograrlo por sí solos.
“Anhelo un mundo en el que ya no estemos tan entusiasmados con la IA generativa”, me dijo Aguilar. Cree que, si eso sucede, finalmente podremos entender para qué sirve. Mientras tanto, implementar más tecnologías para combatir las trampas de la IA solo prolongará la carrera armamentista entre estudiantes y profesores. Las universidades harían mucho mejor si cambiaran algo.cualquier cosaen realidad, sobre cómo enseñan y qué aprenden sus estudiantes. Evolucionar puede no estar en la naturaleza de estas instituciones, pero debería serlo. Si los efectos de la IA en el campus no se pueden controlar, al menos hay que tenerlos en cuenta. “Si eres profesor de literatura y todavía preguntas cuáles son los temas principales en Sentido y sensibilidad—dijo Robbins—, entonces la culpa es tuya.
Cuando compras un libro a través de un enlace de esta página, recibimos una comisión. Gracias por apoyarnos. El Atlántico.
En este artículo se afirmaba anteriormente que los estudiantes pueden comprar ensayos en Chegg, pero no pueden.