La Comisión Europea califica de «alto riesgo» los desarrollos de Inteligencia Artificial (IA) en educación y por ello habrán de cumplir «estrictas obligaciones» antes de salir el mercado, según consta en el marco regulatorio de inteligencia artificial que la Comisión Europea presentó el pasado 21 de abril.
Justo esta semana en Actualidad Docente hemos abordado con diferentes expertos los posibles riesgos que encierra el desarrollo de la IA en educación, también puestos sobre la mesa por la Unesco recientemente. También hemos ahondado en los usos y aplicaciones de la IA que ya hay en educación y aquellos con mayor potencial de desarrollo.
Preocupada por la necesidad de que la inteligencia artificial se desarrolle con garantías de seguridad y confianza para los ciudadanos de la UE, la Comisión ha presentado su marco regulatorio y, en primer lugar, ha establecido una especie de semáforo del riesgo que supone el uso de la inteligencia artificial: según el ámbito en el que se aplique, el riesgo puede ser «inaceptable», alto, medio o mínimo.
La Educación y la Formación Profesional se encuentran en el nivel de riesgo alto, lo que supone que los sistemas de AI en estos campos tendrán que cumplir «estrictas obligaciones antes de salir al mercado» con el objeto de «minimizar riesgos» y «efectos discriminatorios» en la población.
Así los desarrollos para educación y formación deberán garantizar lo siguiente:
- Sistemas adecuados de evaluación y minimización de riesgos.
- Paquetes da datos de alta calidad
- Registro de actividad para garantizar la trazabilidad de los resultados.
- Documentación detallada que proporcione toda la información necesaria sobre el sistema y su propósito para que las autoridades evalúen su cumplimiento
- Información clara y adecuada al usuario
- Medidas adecuadas de supervisión humana orientadas a minimizar el riesgo.
- Alto nivel de robustez, seguridad y precisión.
En la presentación de este marco regulatorio, Margrethe Vestager, vicepresidenta ejecutiva de la Comisión, dijo: “En inteligencia artificial, la confianza es imprescindible» («a must, not a nice to have»). «Con estas reglas históricas, la UE está encabezando el desarrollo de nuevas normas globales para asegurarse de que se pueda confiar en la IA». Por ejemplo, prohibirá el reconocimiento facial en tiempo real y en lugares públicos, salvo con una orden judicial.
«Al establecer los estándares, podemos allanar el camino hacia la tecnología ética en todo el mundo y garantizar que la UE siga siendo competitiva en el camino. Nuestras normas, preparadas para el futuro y favorables a la innovación, intervendrán donde sea estrictamente necesario: cuando estén en juego la seguridad y los derechos fundamentales de los ciudadanos de la UE «, pronunció.
Usos y aplicaciones de la Inteligencia Artificial en educación