Ignasi Nogués, fundador de ClickEdu: “La inteligencia artificial debe emplearse para reducir el fracaso escolar, no para segmentar el alumnado”

Google+ Pinterest LinkedIn Tumblr +

La actividad intensiva de SIMOEDU no parece haber hecho mella en la energía de Ignasi Nogués, fundador de la plataforma digital de gestión escolar con mayor funcionalidad de nuestro país, ClickEdu. Visitamos su stand en la feria y departimos con él sobre las posibilidades del big data y la inteligencia artificial (IA) en la escuela. Nos encontramos ante la punta del iceberg de las posibilidades del big data en educación, lo cual lleva a Ignasi Nogués, pionero en eso mismo, a llamar la atención sobre la necesidad de sentar las bases de un uso ético de los datos en la escuela cuanto antes. De ello hablará en el 47º Congreso de CECE, que se celebrará en A Coruña los días 28, 29 y 30 de noviembre y estará dedicado a la transformación educativa para la sociedad digital.

P.– ¿En qué va a consistir tu taller en el Congreso de CECE?
R.– Vamos a hacer un repaso de los conceptos del big data y la inteligencia artificial y aterrizarlos en el mundo de la educación para ver qué aplicaciones reales tienen en la enseñanza y qué se puede hacer con todo ello en los colegios. Oigo muchas conferencias sobre estas tecnologías que aterrizan poco o nada en usos educativos reales, y vamos a aclarar todo eso. Por ejemplo, a mí no me gusta hablar de inteligencia artificial, sino de lo que se hace realmente, que es machine learning.

P.– ¿Hablará de los servicios que ofrece ClickEdu a los colegios?
R.– No me limitaré a eso sólo. Hablaré de todas las posibilidades en ese ámbito, de personalización de contenidos para los alumnos, de prevención de bullying, y de lo que ya se está haciendo en otros países en ese sentido.

P.– Aunque ahora estemos viendo sólo la punta del iceberg de la IA aplicada a la educación y haya mucho desarrollo por delante, ¿ahora mismo, a día de hoy, qué aprovechamiento pueden darle los colegios a la IA?
R.– Por un lado la personalización del aprendizaje con contenidos y recursos para cada niño según sus características. Por otro, la explotación pura de los datos para detectar y prevenir casos de fracaso escolar o de mejora del rendimiento académico. Nuestra tecnología está presente en 600 colegios y muchos de ellos ya están empezando a hacer análisis de los datos para sacarle partido en ese sentido.

P.– El título del taller que va a impartir en el Congreso de CECE es ‘Inteligencia Artificial y Big Data, un enfoque ético para los colegios con futuro’. ¿Qué es un uso ético del Big Data en educación?
R.– Es importante que entendamos que con sistemas predictivos de inteligencia artificial corremos un riesgo, que es el de llegar a segmentar a los alumnos en función de su rendimiento; e incluso, un paso más allá, que un colegio quiera quitarse de encima a los alumnos que no le interesen. Nosotros proponemos una visión ética de estos sistemas, ya que precisamente pueden ayudar a mejorar a todos los alumnos y reducir el fracaso escolar. Su utilidad debe ser ésa y no otra.

P.– ¿Hay ya resultados de impacto del uso de estas tecnologías?
R.– No todavía. Pero pronto los habrá. Junto al doctor Pere Marqués estamos haciendo un estudio basado en encuestas a centros educativos. Les preguntamos sobre los mejores usos, actuales y futuros, del big data y la inteligencia artificial. También trabajamos con algunas universidades extranjeras que lo están investigando.

P.– ¿Usted ve preparados a los colegios y a las familias para dar este salto cualitativo tan grande?
R.– Creo que sí, pero me dicen que soy optimista. Nosotros llevamos desde mayo hablando de esto en colegios, en congresos… y la gente lo ve más fácil de lo que parece aparentemente. Y en los colegios en los que ya lo hemos implementado con sus propios datos, los tutores y los responsables de orientación ya se están animando a hacer análisis que puedan ayudar a sus alumnos. A veces conceptualmente parece que son temas difíciles de comprender; por ejemplo, cómo funcionan los algoritmos por detrás. Pero luego, cuando el colegio ve cómo funciona con sus propios datos, la sorpresa y las caras de asombro son mayúsculas, y ven el partido que se le puede sacar a eso. Y son cosas fáciles de entender: curvas y diagramas. Seguro que en el día a día en el aula hacen cosas mucho más complejas que entender esos gráficos.

P.– ¿Las primeras impresiones del profesorado son que se les viene encima otra carga más?
R.– No, porque en seguida ven que no les va a suponer más trabajo. Lo que analizan los logaritmos son los datos que ellos ya registran para la Consejería, para la Inspección, para el colegio, para las familias… Nosotros cogemos el dato y lo mostramos de otra forma; ayudamos a que pueda visualizarse al alumno a través de esos datos. El tiempo o el trabajo extra que puede suponer para el profesor es simplemente para mirar una pantalla y ver lo que está pasando en sus alumnos o entre sus alumnos.

P.– En cualquier caso, el sistema debe ser un aliado del docente para ayudarle a que su clase funcione mejor.
R.– Se trata de que, a partir de la mejora o no mejora de los alumnos en su adquisición de competencias, el sistema pueda proponer ejercicios y actividades; que el que no está llegando a un nivel pueda llegar, y que el que va por encima de un nivel tengan retos que superar para que no se aburra.

IA para prevenir el acoso escolar

P.– Una de las aplicaciones de la tecnología que ofrece ClickEdu precisamente sirve para detectar posibles casos de bullying, ¿verdad?
R.– Sí. Porque analiza el lenguaje que emplean los alumnos para comunicarse en la plataforma, por ejemplo cuando tienen que hacer trabajos o ejercicios en equipo. Muchas veces nos preguntan en los centros: ¿y los acosadores van a ser tan incautos que van a utilizar la plataforma del colegio para amedrentar a un compañero? Al final, los acosadores son acosadores en cualquier medio, físico o digital. A partir de las conversaciones , el sistema puede detectar a esos alumnos que tienen una actitud de machacar a otros, y da el aviso. Cuanto antes pueda trabajarse con él, menos víctimas vamos a tener en el futuro. Nuestra tecnología tiene una aplicación preventiva, no reactiva; es decir, no es para cuando el acoso ya ha dado la cara y hay una víctima, sino para prevenir que las haya.

P.– ¿Los propios alumnos y sus familias saben que un robot analiza sus conversaciones? ¿Es legal eso?
R.– A las familias se les explica que no hay ninguna persona espiando a sus hijos, sino que simplemente hay un sistema de inteligencia artificial que monitoriza conversaciones y aplica algoritmos. Y tienen que dar su consentimiento. Si una familia no da el consentimiento, el lenguaje de su hijo no podrá ser analizado…

P.– ¿Y os estáis encontrando muchas objeciones?
R.– Es un tema que suscita muchas preguntas, pero una vez que se les ha explicado cómo funciona el sistema y su finalidad, no hemos encontrado objeciones. Al final, las familias son las primeras interesadas en prevenir casos de acoso. El papel que tiene el colegio a la hora de explicarlo es clave.

Comparte.