La irrupción de la inteligencia artificial en la vida cotidiana y en la educación superior plantea preguntas profundas sobre el conocimiento, la creatividad y la responsabilidad humana. ¿Qué tipo de relación debemos construir con estas tecnologías? ¿Cómo evitar que amplifiquen nuestros sesgos o debiliten el pensamiento crítico?
Sobre estos desafíos reflexionó el profesor Marcelo Pustilnik, académico de la Universidade Federal de Santa Maria (Brasil), durante su visita a la Facultad de Filosofía y Humanidades de la U. de Chile. El investigador fue el invitado principal de la jornada internacional “IA, la humanidad frente al espejo: formación e investigación en Educación Superior”, instancia que reunió a especialistas de distintas disciplinas para analizar los alcances de estas tecnologías en el ámbito universitario.
En su conferencia, Pustilnik propuso una idea central: la inteligencia artificial funciona como un espejo que refleja tanto las capacidades como las debilidades humanas. Puede potenciar la creatividad y el trabajo colaborativo, pero también amplificar prejuicios o crear burbujas de información que dificultan el pensamiento crítico.
-Profesor, ¿qué lo motivó a venir a la U. de Chile para participar en esta jornada sobre inteligencia artificial?
Me pareció muy importante venir a compartir conocimiento y escuchar lo que están haciendo aquí. La universidad es un espacio donde podemos intercambiar experiencias, aprender unos de otros y mejorar nuestra comprensión de la realidad.
Ese diálogo entre instituciones y países es fundamental, porque nos permite ampliar nuestra percepción del mundo y de los desafíos que enfrentamos como sociedad, especialmente en temas tan complejos como la inteligencia artificial.
-En su conferencia planteó que la inteligencia artificial funciona como un “espejo”. ¿Qué significa esa idea?
La IA es, en gran medida, un reflejo de nosotros mismos. Aprende de los datos que producimos, de nuestras conversaciones, de nuestros textos y de nuestras decisiones. Por eso puede mostrar tanto lo mejor como lo peor de la humanidad.
En su dimensión positiva, permite una colaboración creativa entre humanos y máquinas. Es como un partido de ping-pong de ideas: el ser humano aporta intuición, experiencia y emoción, mientras que la IA puede identificar patrones en grandes volúmenes de información. Esa interacción puede amplificar enormemente nuestra creatividad.
-¿Y cuál sería el mayor riesgo de esta tecnología?
El riesgo principal no es que existan robots, como a veces muestran las películas. El peligro es mucho más sutil: la pérdida de autenticidad y de pensamiento crítico.
Si una inteligencia artificial aprende de información sesgada o de datos manipulados, puede convertirse en un espejo perfecto de nuestros prejuicios. Puede crear una realidad cómoda donde escuchamos solo lo que queremos oír, y eso puede llevarnos a dejar de cuestionar las cosas.
-Entonces, ¿cómo podemos protegernos de esa manipulación?
No se trata de bloquear la tecnología, sino de fortalecer nuestras capacidades humanas.
Yo propongo algo que llamo un pequeño “kit de higiene mental”. Primero, cuestionar siempre las respuestas de la IA, como haríamos con un estudiante o un asistente: preguntarle de dónde vienen los datos y cómo llegó a sus conclusiones. Segundo, diversificar nuestras fuentes de información, buscar contenidos que no estén filtrados por algoritmos. Y tercero, fortalecer nuestras redes humanas, conversar con personas que piensen distinto, debatir y escuchar.
-Usted también trabaja con robótica en educación. ¿La tecnología podría llegar a reemplazar a los docentes?
No lo creo. La tecnología puede ayudar mucho, pero no sustituye la dimensión humana del aprendizaje.
La educación no es solo transmitir información. Es construir relaciones, generar confianza, motivar a las personas. Y esa dimensión humana es algo que las máquinas no pueden replicar.
Por eso, cuando trabajamos con robótica educativa, nunca intentamos crear un humanoide que reemplace a las personas. La tecnología debe ser una herramienta que potencie lo humano, no que lo sustituya.
-¿Qué mensaje le gustaría dejar a estudiantes y académicos frente a estos cambios tecnológicos?
Les diría que no se queden en la superficie. Es muy fácil aceptar respuestas rápidas o simplificadas, pero el conocimiento exige profundidad.
Hay que investigar más, cuestionar más, sumergirse en los temas. La tecnología puede ayudarnos en ese proceso, pero la responsabilidad de pensar críticamente siempre será nuestra.
Al final, la mejor defensa frente a la inteligencia artificial es nuestra propia inteligencia natural, emocional y colectiva.