¿Cómo incorporar esta tecnología en los procesos de enseñanza?

Alucinaciones, sesgos y plagio: Los desafíos en torno al uso de chatbots e inteligencia artificial en educación

Los desafíos sobre el uso de inteligencia artificial en la educación
Chatbot
El uso de plataformas como ChatGPT ha puesto en evidencia que estos modelos de lenguaje colosal o Large Language Model (LLM) aún están en etapa de desarrollo y que pueden presentar problemas como alucinaciones, errores y sesgos.
Chatbot
Recientemente, en Estados Unidos, se conoció el caso de numerosos estudiantes universitarios que fueron falsamente acusados de entregar trabajos generados mediante inteligencia artificial.
Chatbot
Los chatbots de inteligencia artificial también pueden experimentar alucinaciones, fenómeno que -en términos simples- ocurre cuando entregan respuestas que pueden ser muy convincentes, pero totalmente inventadas
Chatbot
Si bien estos sistemas aún están en una etapa incipiente de desarrollo y todavía presentan algunas debilidades, la visión de los especialistas es que las personas, las instituciones de educación y la sociedad en general no pueden mirar para el lado frente a la irrupción de la inteligencia artificial.
Chatbot
El profesor Eduardo Torres enfatiza la necesidad de abordar el problema de cómo incorporar estas herramientas en el aula. “Nos encontramos en una nueva era de la educación, en la cual los alumnos a través de la inteligencia artificial ya no solo pueden encontrar información, sino también conocimiento", afirma.
Chatbot
“Creo que las instituciones deben desarrollar una política de buenas prácticas, más que normar. Con recomendaciones sobre el uso de estas herramientas, en términos de oportunidades y desafíos, y generar instancias de capacitación para docentes y estudiantes", señala el profesor Lionel Brossi.
Chatbot
"Lo mejor es aprender a usarlas, entender sus limitaciones y ver hasta dónde puedo confiar en ellas. Es la adaptación natural a todo cambio tecnológico. Debemos aprovecharlas como oportunidades para que el país sea mucho más productivo", sostiene el profesor Roberto Araya.

El pasado mes de abril en Estados Unidos se conoció el caso de numerosos estudiantes universitarios que fueron falsamente acusados de entregar trabajos generados mediante inteligencia artificial. La situación causó gran alarma, ya que involucraba el uso de herramientas como Turnitin y GPTZero, softwares utilizados por miles de instituciones alrededor del mundo para detectar plagio y textos generados mediante chatbots de inteligencia artificial como ChatGPT. Esto motivó un estudio por parte de investigadores de la Universidad de Stanford, quienes comprobaron los ‘falsos positivos’ que estos sistemas estaban entregando, sobre todo entre estudiantes cuyo inglés no era nativo.

La investigación, titulada “GPT detectors are biased against non-native English writers” (Los detectores GPT están sesgados contra los escritores no nativos en inglés), sentó un precedente científico sobre la existencia de este tipo de problemas asociados al uso de modelos de lenguaje generativo basados ​​en GPT (Generative Pre-Trained Transformer). El trabajo, de esta forma, abrió numerosas interrogantes sobre el nivel de confianza que entregan estas tecnologías y aquellos sistemas y métodos para detectar contenido generado mediante inteligencia artificial. Este tipo de errores también están ocurriendo en otras partes del mundo, incluido Chile, lo que ha motivado un incipiente debate sobre cómo enfrentarlo por parte de las instituciones educacionales.

Lionel Brossi, investigador del Núcleo de Inteligencia Artificial y Sociedad (IA+SIC) y académico de la Facultad de la Comunicación e Imagen de la U. de Chile, afirma que este tema en particular ya ha sido discutido en diversas conferencias a nivel global, y asegura que “hoy en día ninguna herramienta puede detectar si algo fue hecho 100% con un chatbot de inteligencia artificial generativa como ChatGPT u otros, aunque -por ejemplo- ChatGPT tiene un algoritmo que se llama ChatGPT classifier, que busca distinguir entre textos escritos por humanos y textos redactados mediante inteligencia artificial”.

Uno de los grandes inconvenientes, expone el profesor Brossi, es que resulta una muy buena herramienta para ayudar en la redacción de ideas y, en este sentido, “los contenidos pueden estar hechos de manera muy auténtica por un estudiante, por un investigador, en fin, por un humano. Pero si el usuario pide ayuda a ChatGPT para mejorar la redacción, eso puede tener como consecuencia que el texto sea reconocido como escrito totalmente por inteligencia artificial, pese a que simplemente se utilizó como herramienta de ayuda a la escritura”.

El problema de las alucinaciones

Pero los chatbots de inteligencia artificial también pueden experimentar alucinaciones, fenómeno que -en términos simples- ocurre cuando entregan respuestas que pueden ser muy convincentes, pero totalmente inventadas. Roberto Araya, profesor del Instituto de Estudios Avanzados en Educación de la Universidad de Chile, sostiene que “hay contenidos de los que puede no tener información y a veces salen respuestas que no tienen nada que ver con la realidad. El problema es que tiene una personalidad muy asertiva. Por esta razón, es necesario entender la psicología detrás de estos modelos, que es tratar de responder como sea a lo que les preguntan. Así, buscan antecedentes, mezclan cosas y a veces no andan bien. Estas alucinaciones se dan mucho cuando un tema es demasiado específico”.

El académico enfatiza que muchos de estos modelos de lenguaje colosal o Large Language Model (LLM) aún están en etapa de desarrollo y no siempre funcionan como uno espera. “Algunos de los errores o sesgos se pueden explicar por las bases de datos con las que estos programas aprenden. El problema de aquellos que trabajan con información de Internet general es que parte de ella puede ser falsa o contener sesgos raciales, étnicos, de género, etc. Estos modelos pueden tragar todos esos contenidos y considerarlos para entregar respuestas”, explica. Sin embargo, también destaca que “hay programas que se basan en datos más especializados y sometidos a procesos de revisión, y que -por lo tanto- entregan información más fidedigna, por ejemplo, en el área médica o en física cuántica”.

Por esta razón, el profesor Araya plantea que “es importante poder testearlos, porque las respuestas no siempre son perfectas y es necesario tener precaución en su uso. Yo a mis estudiantes les exijo que lo usen para mejorar el trabajo con estas herramientas, comprender cuándo pueden cometer errores y generar alucinaciones. De todas maneras, estos sistemas van a ir mejorando cada vez más, pero uno puede ir entendiendo dónde y cuándo pueden fallar”. Este y otros problemas asociados a los múltiples desafíos que persisten en torno a la inteligencia artificial fueron abordados recientemente por el académico en un artículo publicado en la revista The Mathematician Educator.

¿El futuro de la educación?

Si bien estos sistemas aún están en una etapa incipiente de desarrollo y todavía presentan algunas debilidades sobre las que es necesario ser cuidadosos, la visión de los especialistas es que las personas, las instituciones de educación y la sociedad en general no pueden mirar para el lado frente a la irrupción de la inteligencia artificial en nuestras vidas. Así lo enfatiza Eduardo Torres, académico del Departamento de Administración de la Facultad de Economía y Negocios de la U. de Chile, quien actualmente trabaja en un manual sobre la implementación de esta verdadera revolución tecnológica en la educación.

“Debemos tomar conciencia sobre la historia de cómo las tecnologías se han ido incorporando a la educación. Ya hemos pasado por esto anteriormente, por ejemplo, cuando se incorporó la calculadora o cuando navegadores como Google se convirtieron en buscadores muy potentes, herramientas que finalmente fueron adoptadas”, plantea el académico y especialista en marketing. Actualmente, afirma, “nos encontramos en una nueva era de la educación, en la cual los alumnos a través de la inteligencia artificial ya no solo pueden encontrar información, sino también conocimiento”. Por esta razón, enfatiza la necesidad de abordar el problema de cómo incorporar estas herramientas en el aula, particularmente en la docencia, “para entregar un conocimiento más profundo, que no pueda ser entregado con la misma riqueza por parte de la inteligencia artificial”.

¿Qué aspectos resultan claves en la incorporación de la inteligencia artificial en los procesos de enseñanza y aprendizaje? El profesor Torres enfatiza la creciente importancia de la investigación en este ámbito, una de las principales fortalezas de la Universidad de Chile a nivel latinoamericano. “En la práctica, la investigación científica se está convirtiendo en algo más relevante de lo que podía ser en algún momento. Hoy en día la única manera de ganarle a la inteligencia artificial es generar o entregar a los estudiantes un conocimiento más profundo y en la vanguardia de la investigación”. Este modelo, sostiene el académico, emerge como una alternativa que permitiría integrar el uso de la inteligencia artificial y enriquecer aún más los procesos formativos sobre la base del elemento diferenciador que posee la U. de Chile como institución líder en investigación del país.

Los profesores Torres, Brossi y Araya enfatizan que hoy la docencia sigue siendo imprescindible en la formación estudiantil, pero que es necesario debatir sobre la incorporación de la inteligencia artificial en la educación. “Si no lo hacemos ahora y no empezamos a conversar sobre esto, va a llegar un momento en que terminaremos cediendo sin estar preparados. Hay que considerar que más adelante en este proceso todo tipo de conocimiento que pueda ser generado por un ser humano, también será generado por una herramienta de inteligencia artificial”, advierte Eduardo Torres.

“Creo que las instituciones deben desarrollar una política de buenas prácticas, más que normar. Con recomendaciones sobre el uso de estas herramientas, en términos de oportunidades y desafíos, y generar instancias de capacitación para docentes y estudiantes. Hay universidades que ya tienen recomendaciones, buenas prácticas y protocolos. Desde ya, en determinadas ocasiones, como evaluaciones en tiempo real o de conocimientos específicos, es lógico que se pueda excluir el uso de chatbots generativos, pero por ello es que debe tenerse en cuenta cada situación y casos específicos”, sostiene por su parte Lionel Brossi.

“Mi recomendación es que los estudiantes puedan utilizar estas herramientas y los profesores ajustarse a ellas porque en el mundo real la gente ya las está usando para su trabajo. Si las veo como un recurso productivo, entonces -desde mi punto de vista- no solamente es absurdo, sino hasta contraproducente que no se utilicen para la formación educativa, sobre todo en un contexto global cada vez más competitivo. Lo mejor es aprender a usarlas, entender sus limitaciones y ver hasta dónde puedo confiar en ellas. Es la adaptación natural a todo cambio tecnológico. Debemos aprovecharlas como oportunidades para que el país sea mucho más productivo”, concluye Roberto Araya.