Dos estudiantes fueron castigados por usar IA para sus deberes. Un juez acaba de dar la razón a su instituto

Dos estudiantes fueron castigados por usar IA para sus deberes. Un juez acaba de dar la razón a su instituto

En diciembre de 2023 el Instituo Hingham, en Massachusetts (EEUU), descubrió que dos jóvenes "habían copiado en un proyecto de Historia de Estados Unidos al intentar hacer pasar por trabajo propio material que se había tomado de una aplicación de IA". Los acontecimientos posteriores son llamativos y reflejan un problema que probablemente se acreciente a corto y medio plazo.

Castigados por copiar. Los dos estudiantes recibieron un suspenso en dos apartados del proyecto, pero se les permitió volver a rehacerlos por separado para completar el trabajo y volver a entregarlo. Uno de los jóvenes, del que solo se indican sus siglas —RNH—, recibió un castigo disciplinario que incluyó tener que ir al instituto el sábado y no poder formar parte de un grupo selecto de estudiantes.

Demanda para el instituto. Los padres de RNH acabaron denunciando a los profesores de su hijo y al instituto. Según esa demanda, no había normas en el manual del estudiante que indicaran explícitamente que no se podía usar herramientas de IA en los trabajos del instituto.

Los chicos copiaron hasta los errores de la IA. Pero como señalan en Ars Technica, el Juez Paul Levenson, de la Corte del Distrito de Massachusetts, emitió una sentencia (PDF) que daba la razón al instituto. Según este magistrado, el instituto permite "usar IA para ayudar en las tormentas de ideas de temas y para identificar fuentes". Sin embargo, "en esta ocasión los estudiantes copiaron y pegaron de forma indiscriminada desde la aplicación de IA, incluyendo citas a libros no existentes (alucinaciones de IA)".

Usar la IA de ayuda, sí, pero con límites. Como señala la sentencia, ese fue uno de los argumentos que revelaron que efectivamente los estudiantes habían utilizado estas herramientas de IA de forma inadecuada. Los propios profesores destacaron que aclararon los principios de integridad académica varias veces a RNH, y en ellos estaba incluida la forma adecuada de usar IA.

Revisar lo que dice la IA es siempre buena idea. En concreto, los estudiantes usaron las funciones de IA de Grammarly, una herramienta muy conocida por su capacidad de corregir la sintaxis y ortografía en textos. Según el juez Levenson, los estudiantes "ni siquiera revisaron las fuentes" que les dio esa aplicación.

Este trabajo parece hecho por una máquina. Susan Petrie, profesora de Historia, analizó el trabajo y estimó que RNH solo había invertido unos 50 minutos en el documento, cuando otros estudiantes habían dedicado entre siete y nueve horas. Utilizó varios sistemas de detección de textos de IA como 'Turnitin', 'Draft Back' y 'Chat Zero', y ambas mostraron que era muy probable que provinieran de un motor de IA.

Cuidado con las IAs que hacen los deberes. El dictamen del juez Levenson deja claro que una cosa es usar la IA como ayuda y otra muy distinta usarla para que haga los deberes de principio a fin, y encima sin revisar el resultado e incluyendo errores y alucinaciones de estos sistemas.

El sector educativo trata de adaptarse. La aparición de ChatGPT en noviembre de 2022 pronto desató un importante debate entre educadores de todo el mundo. De repente este tipo de chatbots amenazaban con el fin de los deberes, y aunque estos sistemas cometen errores y hay formas de pillar ese tipo de usos no adecuados, su uso promete crecer de forma notable. La pregunta es si la educación tradicional tiene sentido y si memorizarlo todo y hacer deberes —algo que no funciona como antes— es la forma adecuada de formarse de cara al futuro. Quizás sería mucho más importante aprender a pensar.

Imagen | Headway

En Xataka | Los deberes llevan muchos años en el punto de mira de muchos padres. Tienen buen motivo

-
La noticia Dos estudiantes fueron castigados por usar IA para sus deberes. Un juez acaba de dar la razón a su instituto fue publicada originalmente en Xataka por Javier Pastor .

Fuente

Xataka.com

Xataka.com

Lo + visto

Comentarios

Escribe un comentario