Isabel Hilliger, académica de la Escuela de Ingeniería UC e investigadora de CEPPE UC, lidera en Chile una iniciativa internacional que busca prevenir el abandono de estudios universitarios a través de modelos de inteligencia artificial explicable.

La deserción estudiantil es uno de los principales desafíos que enfrenta la educación superior en Chile y América Latina. Según datos del Ministerio de Educación, un 24,6% de los estudiantes abandona su carrera durante el primer año, una cifra que aumenta al considerar que el 14,6% no vuelve a matricularse en los tres años siguientes. Las razones son diversas: problemas económicos, falta de motivación, salud mental, entorno familiar y una elección vocacional poco informada, entre otras.

Este fenómeno tiene consecuencias profundas no solo para los estudiantes, que ven truncadas sus aspiraciones personales y profesionales, sino también para las instituciones y la sociedad en su conjunto. Menos estudiantes titulados significa una fuerza laboral menos calificada, menor productividad y mayores brechas de desigualdad.

En este contexto, la profesora Isabel Hilliger, académica de la Escuela de Ingeniería UC e investigadora miembro de CEPPE UC, junto a colegas del Tecnológico de Monterrey (México) y la Universidad Austral (Argentina), se adjudicó el proyecto "Comparing the causes of dropout between Higher Education Institutions in Mexico, Chile and Argentina using Explainable AI", financiado por el programa Seed Fund del Hemispheric University Consortium (HUC).

HillierIAExplicable2

La iniciativa busca desarrollar modelos predictivos basados en Inteligencia Artificial Explicable (XAI, por sus siglas en inglés), que permitan identificar con mayor precisión a los estudiantes en riesgo de abandonar sus estudios. A diferencia de otros sistemas, esta tecnología ofrece explicaciones claras sobre los factores que influyen en cada predicción, facilitando la toma de decisiones por parte de tutores, docentes y equipos institucionales

 

¿Qué es la Inteligencia Artificial Explicable?

Es un conjunto de métodos que permiten entender cómo y por qué un sistema de inteligencia artificial llega a ciertos resultados. A diferencia de los modelos tradicionales de IA, que funcionan como una “caja negra” difícil de interpretar, la XAI ofrece explicaciones claras y comprensibles sobre las decisiones que toma. Esto es fundamental para generar confianza, detectar posibles sesgos, garantizar transparencia y tomar decisiones informadas a partir de los datos. En contextos como la educación superior, por ejemplo, permite saber no solo qué estudiantes están en riesgo de deserción, sino también por qué lo están, entregando información clave para intervenir a tiempo.

El funcionamiento de la XAI combina técnicas de análisis y visualización que permiten rastrear y justificar cada predicción del modelo. Entre sus aplicaciones más relevantes se encuentran sectores como la salud, las finanzas, la justicia y la educación, donde no basta con que una decisión sea correcta: también debe ser comprensible y justificable.

“Queremos que los modelos no solo predigan quién podría abandonar la universidad, sino que también expliquen por qué. Esa información es valiosa para que las instituciones puedan actuar a tiempo y acompañar mejor a sus estudiantes”, explica la profesora Hilliger. El equipo espera desarrollar algoritmos específicos para cada universidad, generar visualizaciones útiles para equipos de apoyo estudiantil y compartir los hallazgos a través de publicaciones y conferencias.

Gracias al financiamiento obtenido, será posible cubrir gastos de colaboración internacional, contratación de especialistas y difusión científica. En palabras de la investigadora de CEPPE UC, “entender tanto las causas locales como las globales del abandono nos ayudará a diseñar soluciones más efectivas y equitativas para nuestros estudiantes”.