La UE retrasa hasta 16 meses la aplicación plena de la ley de IA de alto riesgo. Qué implica para la educación española y cómo preparar tu centro para 2027.

La Comisión Europea acaba de dar 16 meses extra a las tecnológicas para que adapten sus sistemas de inteligencia artificial de alto riesgo a la nueva normativa. No es un matiz técnico: afecta a cómo se usará la IA en educación, empleo, sanidad o servicios públicos hasta, como mínimo, diciembre de 2027.
Esto importa porque en esos ámbitos la IA decide quién accede a una beca, quién consigue un trabajo o qué alumno necesita refuerzo. Y un retraso en las garantías implica, en la práctica, 16 meses más de riesgo para los derechos de la ciudadanía… pero también 16 meses de margen para que las organizaciones hagan bien los deberes.
En este artículo te explico qué ha decidido la UE, qué implica para la IA de alto riesgo y qué deberían hacer ya centros educativos, administraciones y empresas españolas si quieren usar la IA para aprendizaje personalizado sin chocar con la regulación.
1. Qué ha decidido la UE exactamente sobre la IA de alto riesgo
La decisión central es clara: la aplicación plena de las obligaciones para los sistemas de IA de alto riesgo se retrasa hasta finales de 2027, frente a la fecha inicial de agosto de 2026.
El Reglamento de Inteligencia Artificial de la UE ya está en vigor desde 08/2024, pero su despliegue es gradual. Esta nueva propuesta de “simplificación” digital introduce:
- Un periodo de gracia de hasta 16 meses para las obligaciones más exigentes.
- Retraso en requisitos de transparencia, supervisión continua y sanciones sobre IA de alto riesgo.
- Compromiso de la Comisión de publicar antes los estándares técnicos que definen qué es un uso aceptable y qué no.
La versión oficial de Bruselas es que no se retrasa la ley, sino la aplicación de la parte más compleja hasta que existan estándares claros. Pero, en la práctica, para usuarios y organizaciones el efecto es sencillo de entender: más tiempo para adaptarse, más tiempo con menos control efectivo.
2. Qué es IA de “alto riesgo” y por qué la educación está en el centro
La UE clasifica los sistemas de IA en cuatro niveles: riesgo mínimo, limitado, alto e inaceptable. Lo relevante para España y para el sector educativo es este tercer nivel.
Un sistema de IA se considera de alto riesgo cuando puede afectar de forma significativa a los derechos, oportunidades o seguridad de las personas. Algunos ejemplos clave:
-
Educación y formación:
- Plataformas que evalúan automáticamente a estudiantes.
- Sistemas que recomiendan itinerarios educativos personalizados que influyen en el futuro académico.
- Herramientas que deciden acceso a becas o programas especiales.
-
Empleo:
- Filtros automáticos de CV.
- Sistemas que puntúan a candidatos o empleados.
-
Servicios públicos esenciales:
- Evaluación de ayudas sociales.
- Priorización de listas de espera.
-
Identificación biométrica y seguridad en espacios públicos.
Y, por encima del alto riesgo, está el riesgo inaceptable, directamente prohibido por la ley: sistemas que manipulan a personas vulnerables, técnicas que explotan adicciones, o IA que infiere de forma encubierta emociones, ideología o raza cuando eso no es estrictamente necesario.
Por qué la IA educativa entra en la categoría de alto riesgo
En educación, muchos proyectos de IA para aprendizaje personalizado entran de lleno en esta categoría porque:
- Influyen en oportunidades futuras (acceso a estudios, becas, apoyos).
- Tratan datos especialmente sensibles: rendimiento académico, necesidades especiales, historial familiar.
- Pueden introducir sesgos contra ciertos grupos (alumnado migrante, con discapacidad, de entornos desfavorecidos).
Por eso, un simple chatbot educativo no supervisado quizá sea bajo riesgo, pero una plataforma que clasifica al alumnado y decide qué contenidos puede ver se acerca rápidamente al terreno de la IA de alto riesgo.
3. El retraso de 16 meses: oportunidad para innovar o victoria de las Big Tech
La Comisión vende esta prórroga como un “balón de oxígeno” para startups y pymes europeas, que necesitan tiempo para probar sus modelos con los estándares definitivos antes de salir al mercado. La lógica es comprensible: si cambias las reglas en mitad de la partida, asfixias a los pequeños.
Pero varias voces en Bruselas han sido muy críticas:
“La Comisión acabará por ceder ante la presión de las Big Tech en casi todo lo que pedían”, advertía el exeurodiputado Ibán García del Blanco.
Organizaciones de defensa de derechos digitales, como EDRi, van más allá y hablan abiertamente de “desregulación amplia” que beneficia sobre todo a grandes plataformas, muchas de ellas estadounidenses.
En la práctica, qué significa este retraso
- Más tiempo sin sanciones fuertes para quien use mal la IA de alto riesgo.
- Mayor incertidumbre jurídica, porque los estándares técnicos aún no están cerrados.
- Ventaja competitiva para actores con más recursos, que pueden aguantar mejor este periodo gris.
Aquí es donde, a mi juicio, España se juega mucho: o usamos estos 16 meses para preparar bien nuestros sistemas educativos y administraciones, o nos encontraremos en 2027 con tecnología ya muy extendida y poco margen para corregir malas prácticas.
4. Qué implica para el aprendizaje personalizado en la educación española
La realidad es que la prórroga no debería ser una excusa para esperar. Los centros que se adelanten a las exigencias de la ley de IA van a estar en mejor posición cuando llegue 12/2027.
Qué tipo de proyectos educativos pueden ser de alto riesgo
En un colegio, instituto, universidad o centro de FP, entran en zona delicada proyectos como:
- Plataformas que segmentan al alumnado por nivel y recomiendan contenidos o exámenes.
- Sistemas que predicen abandono escolar y proponen intervenciones automáticas.
- Algoritmos que deciden el acceso a plazas limitadas (por ejemplo, un máster) usando IA.
- Herramientas que detectan supuestas emociones o nivel de atención del alumnado mediante webcam.
Todos estos usos se acercan a requisitos muy estrictos de la ley de IA:
- Evaluaciones de impacto en derechos fundamentales.
- Gobernanza de datos y explicabilidad de las decisiones.
- Supervisión humana efectiva (no vale “ya lo miro por encima”).
Buenas prácticas que los centros pueden empezar ya (aunque la ley dé margen)
Si trabajas en la administración educativa, en un centro o en una empresa EdTech, yo no esperaría a 2027. Hay cuatro líneas de trabajo claras:
-
Mapear los sistemas de IA que ya usas o planeas usar
- ¿Qué herramientas de IA hay en el centro? (plataformas de terceros, desarrollos propios, plugins…)
- ¿En cuáles se toman decisiones que afectan a notas, acceso, becas o apoyos?
-
Clasificar el nivel de riesgo
- Bajo riesgo: asistentes al profesorado, generadores de materiales, corrección ortográfica.
- Riesgo medio/alto: evaluación automática, recomendaciones personalizadas con impacto real.
- Si dudas, trátalo como alto riesgo y aplícale más controles.
-
Introducir desde ya supervisión humana fuerte
- Ninguna IA debería decidir sola sobre un alumno.
- El docente o el equipo de orientación deben poder revisar, corregir y anular la recomendación del sistema.
-
Transparencia con familias y alumnado
- Explicar de forma clara para qué se usa la IA en el aula.
- Ofrecer alternativas razonables si alguien no quiere que un sistema concreto procese sus datos, cuando sea posible.
Quien avance en estas cuatro líneas llegará a 2027 con el trabajo adelantado… y con un proyecto de IA educativa que genera confianza, no rechazo.
5. Datos, ‘cookies’ y laboratorios de datos: el otro frente caliente
El mismo paquete legislativo que retrasa la supervisión de la IA de alto riesgo también toca algo muy sensible: el acceso a datos para entrenar modelos de IA y la forma en que se gestionan las cookies.
Más acceso a datos para entrenar IA europea
La Comisión propone crear “laboratorios de datos” para facilitar que empresas europeas de IA accedan a grandes conjuntos de datos. La idea es clara:
- Europa va por detrás de EE. UU. y China en IA generativa.
- Sin datos de calidad, los modelos europeos rinden peor.
- Estos laboratorios permitirían entrenar IA con datos controlados, cumpliendo el RGPD.
En educación esto puede tener una cara muy positiva: datasets anonimizados de rendimiento académico, interacción con plataformas o resultados de distintas metodologías, que permitan construir modelos de aprendizaje personalizado más precisos y menos sesgados.
Pero también hay un riesgo real: abrir la puerta a que, con la excusa de la innovación, se relajen criterios de anonimización o se generen usos secundarios de datos educativos poco transparentes.
Mi postura es bastante clara: sin gobernanza fuerte de datos educativos, no hay confianza posible en la IA en las aulas.
Menos banners de cookies, más control real
El plan europeo también apunta a modernizar las normas sobre cookies:
- Reducir la cantidad de banners intrusivos.
- Permitir aceptar o rechazar el seguimiento con un solo clic.
- Guardar de forma más sencilla las preferencias de privacidad.
Para centros educativos y plataformas EdTech esto es una buena noticia si se gestiona bien: menos fricción para alumnado y profesorado, y más foco en explicar qué datos se recogen y por qué, en lugar de esconderlo todo bajo textos interminables.
6. Cómo preparar tu centro o proyecto EdTech para 2027
El retraso regulatorio te da algo muy valioso: tiempo para hacer una transición ordenada. No esperes al último momento. Aquí tienes un plan práctico en cinco pasos para los próximos 12-18 meses.
1) Diseña una política interna de IA
- Define para qué se puede usar la IA y para qué no en tu organización.
- Determina qué herramientas están aprobadas, en prueba o prohibidas.
- Incluye un apartado específico para IA de alto riesgo en educación.
2) Crea un pequeño comité de IA responsable
No hace falta montar una estructura enorme, pero sí un grupo mínimo con:
- Dirección del centro o del proyecto.
- Perfiles de protección de datos.
- Docentes o responsables pedagógicos.
- Alguien de tecnología.
Su misión: revisar proyectos, evaluar riesgos y priorizar qué adaptar primero.
3) Exige garantías a proveedores de IA
Si trabajas con una empresa tecnológica que te ofrece IA para evaluación o personalización, pide por escrito:
- Qué datos recogen, dónde se almacenan y durante cuánto tiempo.
- Cómo permiten la supervisión humana.
- Qué mecanismos de explicabilidad ofrecen (por qué el sistema recomienda X a un alumno y no Y).
Si un proveedor no puede responder claramente a estas tres cosas, yo me lo pensaría dos veces.
4) Forma al profesorado y al equipo directivo
La formación no tiene que ser un máster, pero sí muy práctica:
- Qué dice la ley de IA de la UE sobre educación.
- Casos de uso seguros y casos a evitar.
- Cómo detectar sesgos en las herramientas que ya usan.
La IA educativa bien usada libera tiempo al docente para acompañar, no para vigilar. Esa es la idea que debe guiar la implantación.
5) Empieza por pilotos controlados, no por despliegues masivos
Antes de contratar una gran plataforma de IA personalizada para todo el centro:
- Haz un piloto en un grupo reducido, con evaluación clara.
- Recoge feedback del profesorado, del alumnado y de las familias.
- Ajusta el proyecto y documenta riesgos y medidas aplicadas.
Quien haga este trabajo ahora tendrá un relato muy sólido cuando, a finales de 2027, la supervisión de alta intensidad sea obligatoria.
7. Más allá del retraso: una oportunidad para un modelo educativo propio
La discusión en Bruselas va de plazos, estándares y presiones de Big Tech, pero en España el verdadero debate es otro: qué modelo de IA queremos en nuestras aulas.
La UE ha apostado por un enfoque “humanocéntrico”. Eso, aterrizado en educación, significa algo bastante concreto:
- IA como apoyo al docente, no como sustituto.
- Aprendizaje personalizado que amplía oportunidades, no que encasilla a alumnado vulnerable.
- Transparencia radical con las familias y con el propio alumnado sobre cómo se usan sus datos.
Los 16 meses extra que ha concedido Bruselas pueden ser vistos como una cesión o como una ventana. Yo prefiero quedarme con lo segundo: tiempo para que la comunidad educativa española construya proyectos serios de IA educativa, que respeten derechos y marquen la diferencia en equidad y resultados.
Si trabajas en un centro, en una administración o en una EdTech, el mejor momento para empezar a ordenar tu uso de IA no es 12/2027. Es hoy.