DSpace 9

DSpace is the world leading open source repository platform that enables organisations to:

  • easily ingest documents, audio, video, datasets and their corresponding Dublin Core metadata
  • open up this content to local and global audiences, thanks to the OAI-PMH interface and Google Scholar optimizations
  • issue permanent urls and trustworthy identifiers, including optional integrations with handle.net and DataCite DOI

Join an international community of leading institutions using DSpace.

The test user accounts below have their password set to the name of this software in lowercase.

  • Demo Site Administrator = dspacedemo+admin@gmail.com
  • Demo Community Administrator = dspacedemo+commadmin@gmail.com
  • Demo Collection Administrator = dspacedemo+colladmin@gmail.com
  • Demo Submitter = dspacedemo+submit@gmail.com
Photo by @inspiredimages
 

Communities in DSpace

Select a community to browse its collections.

Now showing 1 - 5 of 26

Recent Submissions

Thumbnail Image
Item
Analíticas del aprendizaje basadas en datos e inteligencia artificial en la educación superior: una revisión sistemática
(IEEE, 2025-09-29) González-Pérez, Laura Icela; García-Peñalvo, Francisco José; Argüelles-Cruz, Amadeo José
La integración responsable de la inteligencia artificial en la educación (IAED) ofrece una oportunidad estratégica para alinear los entornos formativos con los principios de la Sociedad 5.0, potenciando la sinergia humano-tecnología en favor de una educación de calidad y del bienestar social. Este estudio presenta una revisión sistemática de 36 artículos arbitrados (2021–2025), centrados en aplicaciones educativas que emplean analíticas de aprendizaje (LA) con enfoques data-driven e integran modelos de Machine Learning (ML) como parte de su evidencia empírica. En cada estudio se identificaron tres elementos clave: el contexto de aplicación de la IAED, el enfoque data-driven adoptado y el modelo de ML utilizado. Los hallazgos revelan una desconexión entre los modelos de IA empleados y los datos educativos, los cuales, en muchos casos, se reducen a logs de acceso a calificaciones capturadas manualmente, que no permiten medir procesos cognitivos de manera profunda. Esta limitación compromete tanto la capacidad de los modelos ML para entrenarse de manera efectiva como su utilidad para ofrecer intervenciones pedagógicas útiles, como pueden ser rutas de aprendizaje personalizadas, retroalimentación en tiempo real, detección temprana de dificultades y seguimiento y visualización. Otro hallazgo relevante es la ausencia de marcos psicopedagógicos integrados a estándares de calidad y de gobernanza de datos, indispensables para avanzar hacia enfoques prescriptivos y éticos, coherentes con las metas de aprendizaje. Se recomienda que los líderes educativos promuevan aplicaciones de IAED sustentadas en marcos de gestión de datos y ética, asegurando métricas válidas y confiables que impulsen una educación más equitativa e inclusiva.
Thumbnail Image
Item
Data-Driven Learning Analytics and Artificial Intelligence in Higher Education: A Systematic Review
(IEEE, 2025-09-29) González-Pérez, Laura Icela; García-Peñalvo, Francisco José; Argüelles-Cruz, Amadeo José
The responsible integration of Artificial Intelligence in Education (AIED) offers a strategic opportunity to align learning environments with the principles of Society 5.0, fostering human–technology synergy in support of quality education and social well-being. This study presents a systematic review of 36 peer-reviewed articles (2021–2025) focused on educational appli-cations that employ learning analytics (LA) through data-driven approaches and integrate machine learning (ML) models as part of their empirical evidence. Each study was analyzed according to three key dimensions: the context of AIED application, the data-driven approach adopted, and the ML model implemented. The findings reveal a persistent disconnect between the AI models employed and the available educational data, which in many cases are limited to access logs or manually recorded grades that fail to capture deeper cognitive processes. This limitation constrains both the effective training of ML models and their pedagogical utility for delivering meaningful interventions such as personalized learning pathways, real-time feedback, early detection of learning difficulties, and monitoring and visualization tools. Another significant finding is the absence of psychopeda-gogical frameworks integrated with quality standards and data governance, which are essential for advancing prescriptive and ethical approaches aligned with learning goals. It is therefore recommended that educational leaders foster AIED applications grounded in data governance and ethics frameworks, ensuring valid and reliable metrics that can drive a more equitable and inclusive education.
Thumbnail Image
Item
Introduciendo la Inteligencia Artificial en el ciclo de investigación bajo un comportamiento ético
(Grupo GRIAL, 2026-01-28) García-Peñalvo, Francisco José
La conferencia “Introduciendo la Inteligencia Artificial en el ciclo de investigación bajo un comportamiento ético” se ha impartido en el IA in Education Summit: Responsible, Equitable, and Systematic Transformation, celebrado dentro del IFE Conference 2026 del 27 al 29 de enero de 2026 en el Tecnológico de Monterrey, Monterrey, Nuevo León (México). Concretamente, esta conferencia tuvo lugar el 28 de enero, con una duración de 30 minutos. La gran disrupción reciente en IA proviene de la inteligencia artificial generativa (IAGen), entendida como la capacidad de producir contenidos sintéticos inéditos (texto, imagen, audio, vídeo, presentaciones) para apoyar tareas diversas, con un impacto social potencialmente abrumador por su integración en la vida cotidiana. En el ámbito de la investigación, se subraya que la generación automática de contenido académico ya es una realidad y que la calidad alcanzada permite su uso como material de investigación; a la vez, se advierte que la investigación y la transferencia no son inmunes a discursos inflados, mitos e inexactitudes sobre la IA (catastrofismo vs. “solucionismo tecnológico”). Se ofrece un panorama de herramientas generalistas basadas en texto (algunas multimodales) y se introduce una idea clave: las herramientas generalistas suponen un riesgo en contextos de investigación, por lo que su adopción debe ser crítica y situada. La charla estructura el uso de la IAGen a lo largo de todo el ciclo de investigación: desde la generación de ideas, objetivos e hipótesis, el estado de la cuestión, el desarrollo de código, la recogida y análisis de datos, hasta la redacción, publicación y comunicación; la ética y la transparencia actúan como eje transversal. Como base normativa y ética, se presentan principios para un uso responsable: fiabilidad (verificación y reproducción), honestidad (revelar el uso), respeto (privacidad, confidencialidad, propiedad intelectual y citación) y responsabilidad (agencia humana y supervisión). En la misma línea, se introduce la alfabetización crítica: no basta con saber usar herramientas, sino hacerlo con juicio dentro de valores y prácticas académicas. En cuanto a marcos de referencia, se alinean las recomendaciones de la UNESCO, el AI Act y el Safe AI in Education Manifesto como un continuo entre guía ética y regulación legal, y se resume su aterrizaje en investigación: validación ética, protección de datos y PI, trazabilidad (registrar herramienta/versión/prompts y declarar uso), triaje de riesgo y debida diligencia con proveedores, y protocolos human-in-the-loop. Se aportan ejemplos de reconocimiento del uso (Monash) y guías editoriales (Wiley), destacando qué debe declararse (redacción/edición, metodología, código, análisis y visuales) y qué información conviene documentar (nombre/versión, fecha, función, secciones afectadas, rol del autor y cumplimiento de privacidad en datos sensibles). También se aborda la revisión por pares: los manuscritos son confidenciales y no deben cargarse en aplicaciones de IA; se proponen usos seguros (mejorar claridad/tono, traducción, consultas generales sin detalles del manuscrito). Las conclusiones enfatizan que la IAGen ofrece beneficios, pero su punto crítico es la trazabilidad: muchas herramientas no la garantizan robustamente, lo que puede reducir la transparencia, complicar la atribución de autoría y aumentar el riesgo de contenido no verificado (alucinaciones). Se remarca que la IA puede aumentar la eficiencia, pero no sustituye capacidades humanas esenciales, y que, aunque los marcos establecen una base común, la decisión ética no se automatiza y cada investigador y equipo debe definir sus líneas rojas según contexto, riesgo y datos, asumiendo responsabilidad por su aplicación.
Thumbnail Image
Item
Ecosistemas de aprendizaje híbridos: Orquestando la colaboración entre personas e inteligencia artificial
(Grupo GRIAL, 2026-01-08) García-Peñalvo, Francisco José
Conferencia plenaria invitada de 1 hora de duración impartida en las X Jornadas Docentes de la Facultad de Ingeniería – Inteligencia Híbrida en la Educación Superior, organizadas por la Unidad de Investigación Docente y Desarrollo Académico (UNIDA) de la Facultad de Ingeniería de la Universidad Andrés Bello. Estas jornadas se desarrollaron en Santiago (Chile) el 8 y 9 de enero de 2026 y esta conferencia se impartió el 8 de enero de 2026. Se plantea que “lo híbrido” ya no puede entenderse como una simple combinación de presencial + online, sino como un ecosistema más completo que integra presencial + online + IA + datos + responsabilidad. En ese marco, la inteligencia híbrida se define como la capacidad de lograr objetivos complejos combinando inteligencia humana y artificial para obtener resultados mejores que los alcanzables por separado. La tesis se refuerza con una idea de sinergia: el valor está en la interacción y la coevolución humano–tecnología (no en sustituir al humano), donde la tecnología libera de lo repetitivo para dedicar energía a creación, estrategia y juicio. A partir de ahí, se introduce el salto desde “herramientas sueltas” a ecosistemas: un ecosistema tecnológico se concibe como un conjunto de componentes software conectados por flujos de información, sostenidos en un entorno físico, con los usuarios como parte del sistema; aplicado al aprendizaje, el objetivo es una red de servicios de aprendizaje y no una colección de “herramientas de moda”. Para orquestar la colaboración persona–IA, la presentación propone un marco de “aumentos” donde la IA y las personas se amplifican mutuamente: metas (se influyen recíprocamente), percepción e interpretación (la IA detecta patrones y datos; el humano aporta contexto), acción (la IA escala acciones como retroalimentación inmediata; el humano crea/personaliza acciones) y decisión (la IA apoya; el humano supervisa y corrige). El núcleo técnico-pedagógico se apoya en la idea de que el ecosistema se sostiene sobre datos y su ciclo de uso: detectar → preparar → diagnosticar → actuar → evaluar. Se distingue además entre intervenciones “blandas” (informar mediante paneles de control, retroalimentación formativa, alertas tempranas, recomendaciones) y “duras” (automatizar adaptación de tareas, retroalimentación paso a paso, asignación automática de práctica, generación guiada). La regla es clara: cuanto más “dura” la automatización, más exigencias de explicabilidad, trazabilidad, control humano y evaluación de sesgos. Se introducen con cuidado las señales multimodales y el componente biométrico. Se enumeran señales de conducta (mirada, postura, teclado/ratón), fisiología (frecuencia cardíaca, actividad electrodérmica, respiración) y contexto (audio/ruido, ubicación, condiciones), subrayando que la fisiología tiene alta sensibilidad, pero también alto riesgo de privacidad e interpretación. De ahí se deriva un mensaje práctico: priorizar evidencias de aprendizaje (interacciones + artefactos) y usar multimodalidad solo si añade valor pedagógico y con controles fuertes. En el caso de la biometría, se listan riesgos (consentimiento, clima panóptico, seguridad, interpretación errónea, sesgos) y controles mínimos (opt-out, minimización, propósito explícito, procesamiento local, revisión humana antes de actuar y auditoría). Como ejemplo “aterrizado”, se propone un laboratorio de programación sin biometría: entradas como commits/tests, errores recurrentes, tiempos en ejercicios y preguntas en foro; modelos de machine learning clásico (predicción/clustering) junto con modelos generativos (retroalimentación formativa); y salidas como alerta al docente, recomendación de práctica, retroalimentación en borrador y priorización de tutoría humana. El bloque decisivo es el de los tres escenarios de uso de IA como “regulador de potencia”. La pregunta guía no es “usar IA sí/no”, sino “cuánta autonomía se da y con qué garantías”. Se formula un principio de proporcionalidad: a mayor impacto educativo y riesgo, más transparencia, más evidencias y más auditoría, y se cambia el tipo de evidencia exigida (declaración → trazabilidad → auditoría). En la parte final, la conferencia conecta ética con práctica mediante marcos y garantías (UNESCO, AI Act, SAFE, Safe AI in Education Manifesto) y advierte sobre la crisis de confianza: confundir “IA” con solo LLM, o asumir transparencia por explicaciones post-hoc (SHAP/LIME) puede crear una falsa sensación de interpretabilidad. El cierre refuerza la metáfora orquestal: el objetivo no es un “solista perfecto”, sino una orquesta enriquecida, donde el profesorado actúa como director y la tecnología se adapta a la pedagogía. La síntesis final queda en una frase: “Más IA, sí; pero con más humanidad, más evidencia y más responsabilidad”.
Thumbnail Image
Item
Más allá de las hojas de cálculo: creando flujos para la definición, validación e interoperabilidad de variables clínicas
(AIPO, 2015-12-30) Vázquez-Ingelmo, Andrea; Nieto-Campo, Islem Román; García-Holgado, Alicia; García-Peñalvo, Francisco José; Sánchez-Puente, Antonio; Sánchez, Pedro L.
Las hojas de cálculo siguen siendo el estándar para definir y recoger variables clínicas, pero su flexibilidad las vuelve frágiles y propensas a errores. Presentamos un rediseño centrado en la persona del flujo de definición de variables dentro de una plataforma que integra datos clínicos estructurados e imágenes médicas. La propuesta sustituye la creación manual del esquema en procesadores de hojas de cálculo por un editor web interactivo y la generación automática de plantillas validadas a partir del esquema interno de la plataforma, reduciendo la carga cognitiva y previniendo errores de formato y semántica, con retroalimentación accionable en la carga. El flujo BPMN actualizado conecta el modelado de variables con una entrada de datos guiada y validaciones, cumpliendo heurísticas clave como visibilidad del estado, prevención y recuperación de errores. Entre las limitaciones persiste la entrada de datos fuera de línea; como trabajo futuro se plantean estudios de usabilidad, interoperabilidad semántica y asistencia con inteligencia artificial para sugerir variables.