Dr. Rodrigo Fuentealba Jara

Decano Facultad de Educación

Universidad Autónoma de Chile

Dra. Karla Campaña Vilo

Directora Diplomado en Gestión y Convivencia Escolar

Universidad Autónoma de Chile

 

 

En la última década la sociedad ha experimentado cambios caracterizados por la inmediatez y flexibilidad. Una “modernidad líquida” -tal como planteó en su libro homónimo el sociólogo, filósofo y ensayista Zygmunt Bauman- y que se ha ido acrecentando gracias al rápido auge de la inteligencia artificial (IA) especialmente, la generativa, que nos presenta respuestas al alcance de un clic de manera eficiente, aunque no necesariamente efectiva.

Esta cultura digital ha influido significativamente en como queremos comunicarnos, acceder y consumir información en distintos ámbitos y contextos.

Desde el punto de vista educativo, la IA más allá de la efectividad nos lleva a plantear hasta qué punto podemos dar espacio para que oriente qué, cómo y cuándo aprender. Si lo analizamos desde el ejercicio de la docencia, sería qué enseñar, a quién y cómo.

Es decir, personalizar la experiencia de aprendizaje considerando las necesidades individuales de quien aprende o enseña, siendo una solución rápida a los desafíos de la educación; indicaciones o algoritmos que analizan el nivel de comprensión de cada estudiante que permite adaptar objetivos, contenidos, actividades y evaluaciones a sus intereses particulares. En teoría, ningún estudiante queda atrás.

En la práctica, sin embargo, surgen preguntas respecto a cuáles son los dilemas éticos que conlleva aprender y enseñar, cuando la IA pueda personalizar el aprendizaje. ¿Quién decide lo que necesita el estudiante, el docente, el algoritmo o una empresa que ofrece soluciones tecnológicas de manera gratuita o con pago de por medio?

Uno de los dilemas éticos es la invisibilidad del proceso de análisis de la información. No se sabe con certeza cuáles son los motivos por que la IA toma una decisión frente a los dos datos. El año 2023, desarrolladores de algoritmos de Google le denominaron caja negra porque no tienen una explicación razonable al respecto.

Sumado a esto, aunque en menor medida desde la masificación de la IA generativa, siguen existiendo sesgos en la información que entrega y que, en el ámbito educativo, en vez de disminuir brechas de aprendizaje podrían ampliarla considerando los diversos contextos y realidades educativas. 

Otro dilema ético es la garantía de la privacidad de los datos. Para personalizar el aprendizaje esta herramienta necesita alimentarse de información; es decir, hay que entrenarla con datos de manera masiva sobre rendimiento académico, interacciones, edad, género y característica del estudiante, por ejemplo. Esta recopilación de información plantea preguntas sobre el consentimiento, asentimiento y el uso y la protección de esos registros, e invita a reflexionar sobre si estos datos educativos tienen y quienes son los dueños -¿las familias, los estudiantes o las escuelas?- o bien sobre los resguardos que se toman para proteger los datos ante uso con fines discriminatorios o comerciales.

En esta sociedad de la inmediatez, surge otro dilema que involucra al profesional de la educación: la personalización del aprendizaje mediante la IA que supone tomar decisiones pedagógicas basadas en el saber docente, determinaciones que trasciende el interpretar datos y aplicar técnicas para el logro de aprendizaje.

Según la UNESCO estas habilidades, junto a competencias digitales, son claves para un uso responsable de la IA. La disyuntiva está en si se está formando profesionales críticos para disentir de las recomendaciones de esta herramienta y hasta qué punto la autonomía del profesor en este contexto debe ser un valor irrenunciable, toda vez que la IA debe estar al servicio de las decisiones pedagógicas y no transformarse en su reemplazo.