Autor: MARGHERITA CORDANO
Herramientas como Chat GPT pueden responder preguntas y hasta generar ensayos:
Universidades toman medidas ante el auge de la inteligencia artificial y los chats predictivos
A Instituciones australianas anunciaron que privilegiarán el lápiz y el papel al evaluar, y a nivel global muchos profesores se vuelcan a los exámenes orales. En Chile, la propuesta no parece ser prohibir, sino ver cómo sacar provecho a una tecnología que crece de forma acelerada.
Partir de este año, acce As a Chat GPT desde los computadores o redes wifi de las escuelas públicas de Nueva York está prohibido.
La herramienta —un bot de charla creado por el laboratorio de inteligencia artificial Open Al— causó sensación cuando se lanzó en noviembre, permitiendo alos usuarios experimentar con su capacidad de resolver dudas, traducir y generar texto: al alimentarse de datos disponibles en internet, logra interactuar con los usuarios en formato de diálogo y escribir artículos, poemas e incluso ensayos. Solo esta semana, Chat GPT hizo noticia por aprobar el examen de entrada de la Facultad de Derecho de la U. De Minnesota (redactó una tesis en donde abordaba temas de derecho constitucional), y días antes logró pasar el examen final del MBA de la U. De Wharton. De ahí que esta herramienta de inteligencia artificial (IA) no solo suscite admiración, sino también desconfianza; en especial en el sector educativo.
“Si bien puede proporcionar respuestas rápidas y fáciles a las preguntas, no desarrolla habilidades de pensamiento crítico y resolución de problemas”, explicó Jenna Lyle, portavoz del Departamento de Educación de Nueva York, a propósito de restringir su acceso en los colegios, una medida que en Estados Unidos también llevan adelante las escuelas de Seattle, las del condado de Fairfax en Virginia y de Montgomery, en Alabama. Experimentar límites En cuanto a educación superior, a mediados de mes ocho universidades australianas anunciaron que consideraban que la utilización de inteligencia artificial por parte de los estudiantes se emparenta con hacer trampa.
Vicki Thomson, dirigenta del grupo, anunció que reforzarían el uso “del papel y el lápiz”. A nivel internacional, también se ha reportado que muchos académicos están rediseñando sus cursos, privilegiando exámenes orales y trabajos en grupo. Pero otros plantean que prohibir una herramienta que crece a pasos acelerados no tiene sentido, y trabajan en ajustar políticas para permitir su uso controlado.
“Chat GPT es una innovación importante, pero no más que las calculadoras o los editores de texto”, que al final lograron un lugar en la escuela, explicó a la AFP Antonio Casili, profesor del Instituto Politécnico de París. “Es una oportunidad para hacer a los alumnos trabajar sobre el fact-checking y verificar si las referencias bibliográficas generadas son correctas”, señaló. Olivier Ertzscheid, de la U. De Nantes, plantea que, así como después de la llegada de Google o Wikipedia, la opción para los profesores es “experimentar los límites” de estos instrumentos. Esta visión la comparten académicos chilenos consultados.
“La solución no es restringir el uso de dichos programas, es más bien todo lo contrario; cómo adaptarnos y lograr el mayor beneficio con el uso de estas nuevas tecnologías”, resume José Luis Muñoz, docente de Ingeniería Civil Industrial y director del posgrado en el Área Mantenimiento de la U. Andrés Bello.
Programas como “WolframAlpha, que responde en las áreas de matemáticas, ciencia y tecnología”, o “Midjourney, que permite la creación de imágenes a partir de una narrativa dada por el usuario”, tendrán “gran impacto en la academia, y deberemos ver la forma de cómo utilizar estas tecnologías para contribuir a una mejora en la docencia, en el acceso a la información y el desarrollo del conocimiento”. Contraste bibliográfico Fernando Purcell, vicerrector académico de la U. Católica, entrega un ejemplo concreto.
“Puedes definir un tema, aplicar la herramienta Chat GPT y luego hacer que los estudiantes trabajen basados en ese texto con un análisis crítico, identificando fuentes de información y ponderando la validez, contrastando con bibliografía relevante”. La generación de conocimiento y productos basados enl A “en los próximos años será inevitable. La formación académica debe incluir la explotación de estas tecnologías como mecanismos de aprendizaje y no negarnos a su uso”, indica Ariela Vergara, vicerrectora de Innovación de la de Talca.
Cuando se le pregunta si hay planes de modificar sus códigos de honor para incluir el uso de la IA como trampa, Vergara responde que “la búsqueda de mecanismos contra el plagio es uno de los temas comunes en las universidades (... ). Sin embargo, las plataformas de IA se han masificado recientemente, por lo tanto no tenemos normativas establecidas para controlar su uso”. “Nuestra postura institucional es reconocer que nos enfrentamos a nuevas metodologías de enseñanza, donde el uso de tecnologías basadas en IA debe ser incorporado en nuestras estrategias de docencia.
Debemos fomentar los principios éticos en nuestros estudiantes, presentando estas herramientas como un recurso que debe ser utilizado de manera responsable”. Fernando Purcell plantea que “no necesitamos modificar nuestra política de integridad académica, porque el uso de chats de l A para preparar trabajos escritos originales y autónomos es simplemente un fraude, igual a otros que existen. La forma de combatir esto es reforzando la formación en integridad académica”.
“Si bien estas herramientas permiten generar información y opiniones en distintas materias, hemos detectado que no siempre entregan respuestas correctas. En áreas de desarrollo incipiente se esbozan algunas apreciaciones; sin embargo, las respuestas carecen de coherencia, y muchas veces no corresponden a la pregunta realizada”, advierte Ariela Vergara, de la U. De Talca.
Programas de detección Más de 6.000 profesores de universidades como Harvard, Yale y Rhode Island se han registrado para usar GPTZero, un programa que promete detectar rápidamente texto generado por IA, dijo Edward Tian, su creador, a The New York Times. “Siempre existirá este dilema y es igual que el desafío de los virus informáticos: están quienes los crean y quienes los combaten”, comenta Fernando Purcell, de la UC. En esa casa de estudios “actualmente tenemos Turnitin, aplicación que ha estado trabajando para detectar inteligencia artificial”, agrega. En la UNAB también se usa este programa, indica José Luis Muñoz.
Y aunque confía en que se continuará avanzando en las capacidades de este tipo de herramientas, el académico recuerda que por ahora, muchas “no detectan plagio por un trabajo realizado por Chat GPT, por ejemplo, ya que en estricto rigor el programa no está copiando textos, sino que está desarrollando un nuevo texto en base a múltiples fuentes de información”.