DSpace 9
DSpace is the world leading open source repository platform that enables organisations to:
- easily ingest documents, audio, video, datasets and their corresponding Dublin Core metadata
- open up this content to local and global audiences, thanks to the OAI-PMH interface and Google Scholar optimizations
- issue permanent urls and trustworthy identifiers, including optional integrations with handle.net and DataCite DOI
Join an international community of leading institutions using DSpace.
The test user accounts below have their password set to the name of this software in lowercase.
- Demo Site Administrator = dspacedemo+admin@gmail.com
- Demo Community Administrator = dspacedemo+commadmin@gmail.com
- Demo Collection Administrator = dspacedemo+colladmin@gmail.com
- Demo Submitter = dspacedemo+submit@gmail.com

Communities in DSpace
Select a community to browse its collections.
- W-STEM
- Supporting Culturally Responsive Leadership and Evaluation in Schools
- A Digital Ecosystem Framework for an Interoperable NEtwork-based Society (DEFINES)
- Evaluation environment for fostering intercultural mentoring tools and practices at school
Recent Submissions
Support for specific training plans in the Algerian university system: new teachers and online teaching
(Editorial Comares, 2022-01-01) López-Aguado, Mercedes; Hoyuelos Álvaro, Francisco Javier; García-Peñalvo, Francisco José
Project PAPER. Support for specific training plans in the Algerian university system: new teachers and online teaching
Los datasets en abierto y su aportación al impacto social de la ciencia
(Ediciones Universidad de Salamanca, 2025-11-01) Blázquez, Paloma G.; Mangas-Vega, Almudena; García-Peñalvo, Francisco José
Los datasets en abierto se han consolidado como una herramienta clave dentro de la ciencia abierta por su potencial para generar impacto más allá del ámbito académico; y, a su vez, como aportación y/o publicación científica susceptible de ser evaluada en convocatorias regionales y nacionales. Este trabajo presenta un estudio de caso centrado en los repositorios institucionales de las universidades públicas de Castilla y León, con el objetivo de analizar el alcance de estos conjuntos de datos no solo como análisis, sino también en términos de visibilidad e impacto social. A partir de métricas de uso (visitas, descargas) y altmétricas disponibles (PlumX, Dimensions), se observa una presencia incipiente pero significativa en términos de reutilización social y académica. Se analiza también la alineación con los principios FAIR, así como las posibilidades que estos datasets ofrecen para la innovación ciudadana, la mejora de políticas públicas o la educación informal. Finalmente, se discuten posibles líneas de acción para favorecer la comunicación, la visibilidad y la reutilización de los datos de investigación en abierto como vía para potenciar su impacto social.
Analíticas del aprendizaje basadas en datos e inteligencia artificial en la educación superior: una revisión sistemática
(IEEE, 2025-09-29) González-Pérez, Laura Icela; García-Peñalvo, Francisco José; Argüelles-Cruz, Amadeo José
La integración responsable de la inteligencia artificial en la educación (IAED) ofrece una oportunidad estratégica para alinear los entornos formativos con los principios de la Sociedad 5.0, potenciando la sinergia humano-tecnología en favor de una educación de calidad y del bienestar social. Este estudio presenta una revisión sistemática de 36 artículos arbitrados (2021–2025), centrados en aplicaciones educativas que emplean analíticas de aprendizaje (LA) con enfoques data-driven e integran modelos de Machine Learning (ML) como parte de su evidencia empírica. En cada estudio se identificaron tres elementos clave: el contexto de aplicación de la IAED, el enfoque data-driven adoptado y el modelo de ML utilizado. Los hallazgos revelan una desconexión entre los modelos de IA empleados y los datos educativos, los cuales, en muchos casos, se reducen a logs de acceso a calificaciones capturadas manualmente, que no permiten medir procesos cognitivos de manera profunda. Esta limitación compromete tanto la capacidad de los modelos ML para entrenarse de manera efectiva como su utilidad para ofrecer intervenciones pedagógicas útiles, como pueden ser rutas de aprendizaje personalizadas, retroalimentación en tiempo real, detección temprana de dificultades y seguimiento y visualización. Otro hallazgo relevante es la ausencia de marcos psicopedagógicos integrados a estándares de calidad y de gobernanza de datos, indispensables para avanzar hacia enfoques prescriptivos y éticos, coherentes con las metas de aprendizaje. Se recomienda que los líderes educativos promuevan aplicaciones de IAED sustentadas en marcos de gestión de datos y ética, asegurando métricas válidas y confiables que impulsen una educación más equitativa e inclusiva.
Data-Driven Learning Analytics and Artificial Intelligence in Higher Education: A Systematic Review
(IEEE, 2025-09-29) González-Pérez, Laura Icela; García-Peñalvo, Francisco José; Argüelles-Cruz, Amadeo José
The responsible integration of Artificial Intelligence in Education (AIED) offers a strategic opportunity to align learning environments with the principles of Society 5.0, fostering human–technology synergy in support of quality education and social well-being. This study presents a systematic review of 36 peer-reviewed articles (2021–2025) focused on educational appli-cations that employ learning analytics (LA) through data-driven approaches and integrate machine learning (ML) models as part of their empirical evidence. Each study was analyzed according to three key dimensions: the context of AIED application, the data-driven approach adopted, and the ML model implemented. The findings reveal a persistent disconnect between the AI models employed and the available educational data, which in many cases are limited to access logs or manually recorded grades that fail to capture deeper cognitive processes. This limitation constrains both the effective training of ML models and their pedagogical utility for delivering meaningful interventions such as personalized learning pathways, real-time feedback, early detection of learning difficulties, and monitoring and visualization tools. Another significant finding is the absence of psychopeda-gogical frameworks integrated with quality standards and data governance, which are essential for advancing prescriptive and ethical approaches aligned with learning goals. It is therefore recommended that educational leaders foster AIED applications grounded in data governance and ethics frameworks, ensuring valid and reliable metrics that can drive a more equitable and inclusive education.
Introduciendo la Inteligencia Artificial en el ciclo de investigación bajo un comportamiento ético
(Grupo GRIAL, 2026-01-28) García-Peñalvo, Francisco José
La conferencia “Introduciendo la Inteligencia Artificial en el ciclo de investigación bajo un comportamiento ético” se ha impartido en el IA in Education Summit: Responsible, Equitable, and Systematic Transformation, celebrado dentro del IFE Conference 2026 del 27 al 29 de enero de 2026 en el Tecnológico de Monterrey, Monterrey, Nuevo León (México). Concretamente, esta conferencia tuvo lugar el 28 de enero, con una duración de 30 minutos.
La gran disrupción reciente en IA proviene de la inteligencia artificial generativa (IAGen), entendida como la capacidad de producir contenidos sintéticos inéditos (texto, imagen, audio, vídeo, presentaciones) para apoyar tareas diversas, con un impacto social potencialmente abrumador por su integración en la vida cotidiana.
En el ámbito de la investigación, se subraya que la generación automática de contenido académico ya es una realidad y que la calidad alcanzada permite su uso como material de investigación; a la vez, se advierte que la investigación y la transferencia no son inmunes a discursos inflados, mitos e inexactitudes sobre la IA (catastrofismo vs. “solucionismo tecnológico”). Se ofrece un panorama de herramientas generalistas basadas en texto (algunas multimodales) y se introduce una idea clave: las herramientas generalistas suponen un riesgo en contextos de investigación, por lo que su adopción debe ser crítica y situada.
La charla estructura el uso de la IAGen a lo largo de todo el ciclo de investigación: desde la generación de ideas, objetivos e hipótesis, el estado de la cuestión, el desarrollo de código, la recogida y análisis de datos, hasta la redacción, publicación y comunicación; la ética y la transparencia actúan como eje transversal. Como base normativa y ética, se presentan principios para un uso responsable: fiabilidad (verificación y reproducción), honestidad (revelar el uso), respeto (privacidad, confidencialidad, propiedad intelectual y citación) y responsabilidad (agencia humana y supervisión). En la misma línea, se introduce la alfabetización crítica: no basta con saber usar herramientas, sino hacerlo con juicio dentro de valores y prácticas académicas.
En cuanto a marcos de referencia, se alinean las recomendaciones de la UNESCO, el AI Act y el Safe AI in Education Manifesto como un continuo entre guía ética y regulación legal, y se resume su aterrizaje en investigación: validación ética, protección de datos y PI, trazabilidad (registrar herramienta/versión/prompts y declarar uso), triaje de riesgo y debida diligencia con proveedores, y protocolos human-in-the-loop. Se aportan ejemplos de reconocimiento del uso (Monash) y guías editoriales (Wiley), destacando qué debe declararse (redacción/edición, metodología, código, análisis y visuales) y qué información conviene documentar (nombre/versión, fecha, función, secciones afectadas, rol del autor y cumplimiento de privacidad en datos sensibles). También se aborda la revisión por pares: los manuscritos son confidenciales y no deben cargarse en aplicaciones de IA; se proponen usos seguros (mejorar claridad/tono, traducción, consultas generales sin detalles del manuscrito).
Las conclusiones enfatizan que la IAGen ofrece beneficios, pero su punto crítico es la trazabilidad: muchas herramientas no la garantizan robustamente, lo que puede reducir la transparencia, complicar la atribución de autoría y aumentar el riesgo de contenido no verificado (alucinaciones). Se remarca que la IA puede aumentar la eficiencia, pero no sustituye capacidades humanas esenciales, y que, aunque los marcos establecen una base común, la decisión ética no se automatiza y cada investigador y equipo debe definir sus líneas rojas según contexto, riesgo y datos, asumiendo responsabilidad por su aplicación.