Luciano Nosetto

Magíster en Ciencia Política por la Universidad Nacional de San Martín (Argentina)

Doctor en Ciencias Sociales por la Universidad de Buenos Aires (UBA)

Docente e investigador CONICET de la UBA

 

Los chatbots de inteligencia artificial (IA) no piensan en las preguntas que hace un usuario ni comprenden el sentido de sus respuestas. Más bien identifican fragmentos clave de la pregunta y se sumergen en un mar de datos para traer a la superficie los contenidos que más frecuentemente se asocian a esa consulta. Así explica la base y los potenciales riesgos de la IA, en esta entrevista exclusiva, el profesor Luciano Nosetto magíster en Ciencia Política por la Universidad Nacional de San Martín (Argentina), doctor en Ciencias Sociales por la Universidad de Buenos Aires (UBA) y docente e investigador CONICET de la UBA.

En la academia, el plagio y la pérdida de pensamiento crítico son algunos de esos riesgos. “Los profesores universitarios ya hemos tomado nota de que no tiene sentido requerir la elaboración de trabajos domiciliarios y esperar que nuestros estudiantes no acudan a los chatbots”.

¿Qué implicancias éticas y sociales observas en la incorporación de la IA en universidades de Latinoamérica?

La juventud ha tomado la delantera y eso genera toda una serie de desafíos: informarse con fuentes fidedignas, aprender a partir de la información recibida, entrenar la creatividad y el pensamiento crítico, y resolver las instancias de evaluación y acreditación sin hacer trampa. Desde nuestras universidades, tenemos que afrontar todos estos desafíos, sin ilusionarnos con la idea de que puede volverse atrás en el tiempo.

Lo primero que debemos hacer es identificar los límites de estos modelos, que suelen equivocarse. Eso es una manera clara de advertir a los estudiantes respecto de su falibilidad y de la necesidad de mantener siempre un criterio personal.

¿De qué manera las universidades pueden fomentar una alfabetización digital crítica en sus estudiantes para que entiendan los límites y consecuencias del uso de la IA?

Es cierto que los chatbots pueden dar respuestas muy buenas a cuanta pregunta se le ocurra a un estudiante. Pero no es menos cierto que hacer buenas preguntas es toda una ciencia y una capacidad que debe ser enseñada y aprendida. Ningún chatbot puede enseñar a preguntar.

Creo que uno de los primeros desafíos que debemos enfrentar es el de trabajar sobre los miedos, razonables y muy atendibles, de nuestra propia comunidad académica, ante los riesgos de recortar planteles docentes, migrar desde las aulas físicas hacia las plataformas digitales y reemplazar a profesores por bots. Con negar que estas tecnologías existan no se logrará conjurar esos riesgos.

Una clave está en identificar qué de la experiencia de enseñanza y aprendizaje queda fuera de estas máquinas conversacionales. Y, sobre todo, cómo puede articularse una práctica de enseñanza que no compita con los chatbots, sino que pueda orientar su uso.

¿Cómo crees que la IA puede transformar la relación entre estudiantes y profesores sin reemplazar el rol humano en el proceso de enseñanza?

Hay que incentivar a los estudiantes a usar chatbots de manera crítica: entendiendo que la clave está en hacer preguntas inteligentes, en sospechar que la respuesta más inmediata o frecuente no necesariamente es la más acertada o profunda, en requerir documentación respaldatoria de las respuestas y en contrastar la información con otras fuentes fiables.

Creo que los equipos docentes debemos acompañar el uso de esas tecnologías, apuntando a que tengan una relación crítica con la información que reciben y que desarrollen un proceso activo que les permita convertir esa información disponible en conocimiento efectivamente adquirido.

El uso de la IA en la educación superior ha abierto debates sobre sesgos, transparencia y regulación. ¿Qué marcos normativos o políticas públicas se deberían impulsar en la región para garantizar un uso responsable?

La cuestión de los sesgos es uno de los desafíos más notables para nuestra región y nuestras culturas. Las respuestas del chatbot reflejan los sesgos que están presentes en sus mismos datos de entrenamiento. Los principales chatbots son preentrenados con datos donde predomina la producción cultural y académica norteamericana. Entonces, cuando se pregunta cuáles son los mejores textos de historia sudamericana, es comprensible que el chatbot responda con un listado de libros en inglés publicados por universidades anglosajonas.

Ante esto, es necesario que los países asuman una política activa, vinculada a la soberanía tecnológica, a la promoción de las culturas locales y al respeto de la diversidad.