DSpace 9

DSpace is the world leading open source repository platform that enables organisations to:

  • easily ingest documents, audio, video, datasets and their corresponding Dublin Core metadata
  • open up this content to local and global audiences, thanks to the OAI-PMH interface and Google Scholar optimizations
  • issue permanent urls and trustworthy identifiers, including optional integrations with handle.net and DataCite DOI

Join an international community of leading institutions using DSpace.

The test user accounts below have their password set to the name of this software in lowercase.

  • Demo Site Administrator = dspacedemo+admin@gmail.com
  • Demo Community Administrator = dspacedemo+commadmin@gmail.com
  • Demo Collection Administrator = dspacedemo+colladmin@gmail.com
  • Demo Submitter = dspacedemo+submit@gmail.com
Photo by @inspiredimages
 

Communities in DSpace

Select a community to browse its collections.

Now showing 1 - 5 of 26

Recent Submissions

Item
IA en Educación: Tres escenarios clave para aplicar la IA en la práctica docente
(Grupo GRIAL, 2025-11-19) García-Peñalvo, Francisco José
Conferencia plenaria invitada de 1 hora de duración impartida en las XII Jornadas Iberoamericanas de Innovación Educativa en el ámbito de las TIC y las TAC - InnoEducaTIC 2025, celebradas del 19 al 21 de noviembre de 2025 en el Edificio de Electrónica y Telecomunicación de la Universidad de Las Palmas de Gran Canaria, ubicado en el Campus Universitario de Tafira. Esta conferencia se impartió en modo online el 19 de noviembre. Se presenta un recorrido estructurado sobre cómo integrar la inteligencia artificial generativa (IAGen) en la educación desde una perspectiva crítica, apoyándose en marcos internacionales y desembocando en tres escenarios de uso para la práctica docente. Se inicia recordando qué es la IA y, en concreto, la IAGen: sistemas capaces de generar contenido sintético original (texto, imágenes, audio, vídeo, código…) con calidad suficiente como para convertirse en material docente o en productos entregables de los estudiantes, difíciles de detectar como generados por máquinas. Tras una breve aclaración de conceptos (IA, modelos de lenguaje masivos, parámetros, ventana de contexto), se plantea el cambio de escala que suponen los LLM y su rápida cronología reciente. A partir de ahí, se introduce el impacto específico en educación: generación automática de contenidos en múltiples formatos, que abre oportunidades, pero también refuerza el problema de la detección y la autoría real de los trabajos. Se señala que la educación no ha quedado al margen del ruido mediático: abundan visiones catastrofistas (la IA destruirá la escuela o anulará la originalidad) y visiones ingenuamente entusiastas (la IA como solución mágica a todos los problemas). Se menciona el “dilema de Prometeo”: ¿tiene sentido prohibir la IAGen como medida de protección, dado su carácter de caja negra y su tendencia a alucinar, o debemos aprender a convivir con ella? Esta tensión está en el fondo del debate educativo actual. Uno de los mensajes centrales es que el estudiantado ya usa estas herramientas en todos los niveles educativos. Los datos recientes sobre educación superior muestran un aumento constante del uso por parte de estudiantes, docentes y administradores, así como un cambio en la carga de trabajo del profesorado: disminuye el tiempo dedicado a diseñar materiales o responder correos, pero aumenta la vigilancia del fraude y la necesidad de rediseñar la evaluación. La pregunta ya no es “si las usarán”, sino “cómo las estamos integrando”. A continuación, se abordan los riesgos específicos, especialmente las alucinaciones: respuestas plausibles pero falsas, contradicciones internas, errores lógicos, invención de citas bibliográficas, etc. Estas limitaciones se conectan con el “mito de la muerte de la originalidad”: la IA permite trabajos formalmente originales que no proceden del esfuerzo del estudiante, facilitando un aprendizaje superficial y amenazando la autoría genuina si se emplea de modo acrítico. Ante esta realidad, muchas instituciones consideran el texto generado íntegramente por IA sin reconocimiento como una forma de plagio. Se está transitando hacia modelos en los que se aceptan ciertos usos, pero con regulación ética y exigencia de transparencia. Se propone, como mínimo, una declaración explícita del uso de IA que describa herramientas empleadas, propósitos, instrucciones clave y cómo se ha adaptado el resultado. Se muestran ejemplos concretos de la Universidad de Monash, que ilustran buenas prácticas para incluir este reconocimiento en los trabajos académicos. Sobre esta base se introduce la alfabetización crítica en IA: no basta con saber manejar herramientas, sino con situar su uso dentro de valores y prácticas académicas. Se resumen cuatro ideas operativas: verificar antes de adoptar; garantizar equidad e inclusión; mantener la agencia humana explícita en la toma de decisiones; y asegurar transparencia y rendición de cuentas documentando el uso de IA. Estos principios se articulan con varios marcos de referencia: las orientaciones de la UNESCO, el Reglamento Europeo de IA (AI Act), el marco SAFE (Safe, Accountable, Fair, Explainable) y el Manifiesto Safe AI in Education, que insiste en la supervisión humana, la confidencialidad, la precisión y la explicabilidad. Se pasa después a una dimensión más práctica: la “caja de herramientas” de IA en educación (transcripción, generación de texto, imagen, audio, vídeo, infografías, presentaciones, chatbots multimodales…). Se insiste en que la calidad de la respuesta depende del prompt y del contexto que se aporta al modelo; un mejor contexto permite respuestas más útiles y ajustadas. Esto es pedagógicamente relevante, porque el proceso de diálogo con el sistema y la calidad de las preguntas tienen valor formativo en sí mismos. El núcleo de la conferencia es la propuesta de tres escenarios de uso de la IA en educación. El primero, apoyo responsable, se centra en el uso de la IA por parte del profesorado como herramienta de preparación y apoyo (generar materiales, reformular explicaciones, diseñar actividades) con bajo riesgo si se mantiene la agencia docente, se respeta la privacidad y se declara el uso. El segundo, colaboración guiada, incorpora la IA como parte de las actividades del estudiantado, pero con una fuerte guía del profesorado, énfasis en la evaluación auténtica y prioridad al proceso (versiones, iteraciones, trabajo en clase) frente al producto final. El tercero, cocreación con declaración de uso reforzada, contempla un uso más autónomo de la IA por parte del estudiantado en productos de alto impacto (TFG/TFM, recursos abiertos), con riesgos mayores que se compensan exigiendo trazabilidad completa, transparencia, equidad en el acceso y revisión rigurosa. En las conclusiones, se destaca que, tres años después de la irrupción de ChatGPT, el profesorado sigue polarizado entre la tecnofobia y la tecnofilia. Muchos problemas que hoy se achacan a la IA (desigualdades, evaluación basada en la memorización, desajuste entre tareas y competencias) ya existían antes, pero la IA los amplifica y visibiliza. Prohibir sin más no resuelve estas tensiones; el reto es comprender qué aporta realmente a la enseñanza, al aprendizaje y a la investigación, y ponerla al servicio de un aprendizaje más profundo. Finalmente, se subraya la importancia de formar tanto al profesorado como al estudiantado en el uso crítico de la IA, promover comunidades de práctica y compartir buenas experiencias. La IA no es buena ni mala, ni neutral: su impacto dependerá de cómo la diseñemos, la gobernemos y la usemos en los contextos educativos reales.
Thumbnail Image
Item
Tres escenarios para la IA en educación: del apoyo responsable a la cocreación
(Ediciones Universidad de Salamanca, 2025-11-13) García-Peñalvo, Francisco José
Este artículo propone una vía pragmática y proporcionada para integrar la inteligencia artificial generativa en la educación superior mediante tres escenarios graduados por autonomía, agen-cia y riesgo (apoyo responsable, colaboración guiada y cocreación con declaración reforzada) que convierten principios amplios en decisiones docentes verificables y trazables a lo largo del ciclo docente (planificación, creación de materiales, apoyo y evaluación). El hilo conduc-tor es la inteligencia artificial como complemento bajo juicio académico, nunca sustituto, con transparencia (declaración de uso y marcado de contenido sintético), verificación externa de hechos y citas, y equidad e inclusión por diseño, en coherencia con la guía de la UNESCO (visión centrada en las personas, acciones inmediatas y refuerzo de capacidades), el AI Act (Artículo 50 sobre obligaciones de transparencia y marcado), el Safe AI in Education Manifesto (supervisión humana, privacidad, precisión, explicabilidad, transparencia) y el marco SAFE (Seguridad, Ren-dición de cuentas, Justicia y Eficacia) como puente operativo entre política y aula. En el Escena-rio 1 se priorizan bajo riesgo y alta transparencia; en el 2, la iteración trazable con post-edición humana significativa; en el 3, evidencias robustas y auditoría (prompts, versiones, verificación, sesgos/idiomas, revisión humana/pares), con controles reforzados por su mayor impacto. Este gradiente se alinea con la orientación sectorial, que promueve autenticidad, agencia y propie-dad del proceso y desaconseja depender de detectores, reforzando diseños que comprueban agencia y trazabilidad. Dos instrumentos facilitan la adopción y la evaluación homogénea. Por un lado, una rúbrica transversal (veracidad y actualidad, trazabilidad, corrección de alucinacio-nes, equidad e idioma, calidad de interacción) y, por otro lado, listas de verificación por tipo de tarea. El resultado es un mapa operativo para marcar, verificar y documentar con proporciona-lidad al riesgo, que permite convertir la inteligencia artificial en oportunidad pedagógica sin ceder en rigor, justicia y responsabilidad.
Thumbnail Image
Item
Three Scenarios for AI in Education: From Responsible Assistance to Co-Creation
(Ediciones Universidad de Salamanca, 2025-11-13) García-Peñalvo, Francisco José
This article proposes a pragmatic and proportionate pathway for integrating generative artificial intelligence into higher education through three scenarios graduated by autonomy, agency, and risk (responsible support, guided collaboration, and co-creation with a strengthened declaration). These scenarios convert broad principles into verifiable and traceable teaching decisions through-out the teaching cycle (planning, material creation, support, and assessment). The common thread is the use of artificial intelligence as a supplement to academic judgment, never as a substitute, with transparency (including disclosure and marking of synthetic content), external verification of facts and citations, and equity and inclusion by design. This is consistent with UNESCO’s guid-ance (a human-centred vision, immediate actions, and capacity building), the AI Act (Article 50 on transparency and marking obligations), the Safe AI in Education Manifesto (human supervision, privacy, accuracy, explainability, transparency), and the SAFE framework (Safety, Accountability, Fairness, and Efficacy) as an operational bridge between policy and the classroom. Scenario 1 prioritises low risk and high transparency; Scenario 2 focuses on traceable iteration with sig-nificant human post-editing; and Scenario 3 demands robust evidence and auditing (prompts, versions, verification, bias/language checks, human/peer review), with strengthened controls due to its higher impact. This gradient aligns with sector guidance, which promotes authenticity, agency, and ownership of the process and advises against relying on detectors, thereby reinforcing designs that verify agency and traceability. Two instruments facilitate adoption and consistent evaluation: firstly, a cross-cutting rubric (veracity and currency, traceability, correction of hallu-cinations, equity and language, and quality of interaction); and secondly, checklists for each type of task. The result is an operational map for marking, verifying, and documenting in proportion to risk, which enables artificial intelligence to be leveraged as a pedagogical opportunity without compromising on rigour, fairness, and responsibility.
Thumbnail Image
Item
Escritura científica. Buenas prácticas para publicar en revistas
(Grupo GRIAL, 2025-11-18) García-Peñalvo, Francisco José
Curso de formación del PDI de la Universitat de les Illes Balears, Programa de Formación del PDI 2025-26, de 4 horas síncronas de formación impartidas de forma online los días 18 y 26 de noviembre de 2025. Este curso es una guía práctica y estratégica para la publicación en revistas científicas, no solo como meta académica, sino como una herramienta para lograr visibilidad, reconocimiento y posicionamiento dentro de la comunidad científica global. Las competencias en investigación que se adquirirán están relacionadas con: • Ciencia abierta y gestión de datos de investigación. • Publicación de investigaciones y estrategias para aumentar el impacto de las publicaciones. • Ética en la investigación y prevención de sesgos. Los contenidos del curso se organizan en los siguientes epígrafes: 1. Ecosistema editorial internacional. 2. Guía práctica y estratégica para afrontar una publicación científica. 3. Inteligencia artificial en la escritura científica. 4. Aspectos éticos. 5. Conclusiones. En el ecosistema editorial se subraya que la escritura de artículos es el canal central de comunicación científica y que hacerlo bien beneficia a investigadores, instituciones y sociedad. Se conecta con la tercera misión universitaria y con la Ciencia Abierta como marco que exige identidad digital y apertura del conocimiento. La base normativa y de política científica refuerza esta orientación: la EECTI 2021-2027, la Ley 17/2022 y la LOSU (art. 12) impulsan el depósito en abierto de resultados, situando los repositorios institucionales en el centro; además, se explican rutas verde, dorada y diamante del acceso abierto, y se advierte sobre derechos de autor y políticas editoriales (Sherpa/RoMEO, Dulcinea). La guía práctica arranca antes de escribir: planificar preguntas, diseño experimental, registros y verificación de resultados; escribir claro en un contexto de “sobredosis de información”. Se aconseja prosa sencilla, evitar jerga, y que cada elemento (sección, figura, tabla) sea comprensible por sí mismo. Se piden acuerdos de autoría explícitos y transparentes: solo quien contribuye firma, todos responden por el contenido, y se recomienda usar la taxonomía CRediT para declarar contribuciones. Se recuerda que autores honorarios y autoría fantasma son prácticas indebidas. Sobre el ecosistema de escritura, se sugiere definir plataforma y flujo de trabajo colaborativo con control de versiones, gestor bibliográfico (p. ej., Zotero/EndNote), y un cronograma claro. El borrador se organiza siguiendo IMRaD y un orden de redacción eficiente. Se detallan criterios para título, introducción, métodos, resultados y discusión; además, se dan pautas para conclusiones (no introducir información nueva), agradecimientos, y para un resumen eficaz (200-300 palabras) y palabras clave pertinentes. También se subraya el cuidado en citas y referencias, cumpliendo estrictamente el estilo de la revista. En IA generativa, se enfatiza el uso ético, la transparencia y la declaración de su empleo más allá de la ayuda estilística o de traducción. Se advierte del “plagio por IA” y del riesgo de alucinaciones (incluida la fabricación de citas). El bloque ético aborda la mala conducta científica: plagio y autoplagio, fabricación y falsificación de datos, con consecuencias graves (rechazos y retractaciones). Se invita a una práctica responsable, veraz y transparente. Finalmente, se ofrecen criterios de selección de revistas y una estrategia de envío, en un contexto donde las evaluaciones se desplazan del “medio” al mérito de la aportación.
Thumbnail Image
Item
LAMB: Creando asistentes virtuales educativos sin programar
(Servicio de Publicaciones Universidad de Zaragoza, 2025-06-11) Alier-Forment, Marc; Pereira, Juanan; Casañ, María José; García-Peñalvo, Francisco José
LAMB (Learning Assistants Manager and Builder) es una plataforma de código abierto que permite al profesorado diseñar, desplegar e integrar asistentes de aprendizaje en sistemas como Moodle sin necesidad de programar. Estos asistentes se diferencian de los chatbots genéricos porque el docente controla su comportamiento, limita las respuestas a fuentes que él mismo selecciona y recibe aporta las citas correspondientes. LAMB se integra sin problemas en el LMS institucional via el estándar IMS LTI, mantiene los datos del alumnado dentro del marco de privacidad europeo y funciona tanto con modelos locales como con servicios en la nube. LAMB ofrece a los centros educativos una vía asequible y viable para incorporar tutorías basadas en IA sin perder la soberanía pedagógica ni la protección de los datos..