GRIAL resources

Permanent URI for this communityhttps://repositorio.grial.eu/handle/123456789/1

Browse

Search Results

Now showing 1 - 10 of 1455
  • Thumbnail Image
    Item
    The Role of Data Science in Electronic Health Records: How Medical Decision Making can be improved based on a Comprehensive Electronic Medical Record?
    (Grupo GRIAL, 2026-03-10) Azadi, Ali
    Despite the integration of modern technologies in medical applications, a significant gap remains in achieving high-level interaction between medical staff, physicians, and the systems they utilize. This gap often results in inefficiencies, user frustration, medical errors, and, in some cases, compromised patient safety, highlighting the critical need for improved system design. To address this issue, this thesis examines the impact of user interaction with these systems in medical settings, with a focus on the crucial role of Human-Computer Interaction (HCI) elements. A comprehensive systematic literature review (SLR) was conducted to identify and categorize HCI elements applicable within Clinical Decision Support System (CDSS) environments, emphasizing the necessity for Electronic Medical Records (EMRs) to be designed with these elements in mind, as they serve as the primary data source for CDSS. The current thesis extracted and categorized various HCI evaluation methods from existing studies based on their technical characteristics, providing a structured guideline for future investigations. Furthermore, the thesis details the impact of each HCI element on CDSS functionality, distinguishing between positive contributions and negative factors (termed "HCI barriers") that hinder effective interaction. Solutions to these barriers are also discussed in a dedicated chapter. Fundamentally, this thesis introduces a pivotal bridge between HCI principles and the critical domains of medical data management and quality. This foundational work has already led to the publication of three peer-reviewed scientific papers in prestigious journals, demonstrating its significant contribution to the field. Moreover, the benefits of integrating these HCI elements into other interconnected medical platforms, such as Personal Health Records (PHRs), were articulated. A novel cyclical EMR model is proposed that restructures patient data into distinct treatment cycles, thereby aligning digital records with the iterative nature of clinical workflows. This model enhances several critical HCI elements (including interface clarity, individuality, explainability, and user satisfaction) while improving data analysis and decision support accuracy. Empirical evaluations based on the proposed model reveal that structured data categorization and cyclebased data entry enhance the transparency and explainability of CDSS outputs, contributing to improved system usability and interpretability. Ultimately, this thesis presents a scientific framework that bridges the gap between HCI and medical data management, offering both theoretical insights and practical contributions to medical informatics. The significance of these contributions is further demonstrated by the publication of four peer-reviewed papers in prestigious journals, establishing a robust foundation for advancing CDSS development and user-centered system design in future research.
  • Thumbnail Image
    Item
    Automatización con IA
    (Grupo GRIAL, 2026-03-13) García-Peñalvo, Francisco José
    Impartición del taller “Automatización con IA”, en la III Jornada de Innovación Docente Interuniversitaria (JIDUCYL) - De la experiencia a la evidencia: hacia la universidad del futuro, organizada por las cuatro universidades públicas de Castilla y León y celebrada en la Escuela Politécnica Superior de la Universidad de Burgos el 13 de marzo de 2026. Se ofrece una guía práctica para que el profesorado incorpore inteligencia artificial generativa en su rutina con un enfoque de “delegar–controlar–decidir”. El material parte de un marco común de conceptos (IA generativa, LLM, prompting y asistentes) y plantea tres objetivos: aplicar patrones de automatización a tareas habituales, mejorar la calidad del resultado mediante prompting y contexto, y operar con criterios éticos y de privacidad. Tras la introducción, el taller propone un recorrido por las automatizaciones. En “tareas cotidianas”, se muestra cómo usar un asistente para revisar y priorizar el correo, preparar borradores de respuesta, extraer compromisos, proponer acciones y convertirlas en recordatorios o eventos, manteniendo la validación humana antes de ejecutar. Se enfatizan los prompts estructurados (rol, objetivo, restricciones, formato) y el uso de ejemplos para lograr la consistencia. La sección de “preparación de materiales” se aborda mediante dos enfoques complementarios. Con Deep Research se ilustra un flujo para planificar una búsqueda, recopilar y contrastar fuentes externas, sintetizar hallazgos y producir materiales docentes trazables (esquemas, actividades, preguntas de evaluación) con recomendaciones de verificación. Con NotebookLM se trabaja con recursos propios (PDF, guías, artículos, transparencias) para convertir una misma base documental en múltiples salidas: resúmenes, guiones de clase, FAQs, bancos de preguntas, listas de lectura y variantes por nivel, destacando la reutilización y la coherencia interna. La parte de “creación de asistentes” explica el ciclo de vida: definir el propósito y la audiencia, fijar límites y políticas, aportar conocimiento (documentos), diseñar acciones, probar con casos extremos, evaluar y revisar periódicamente. En “integración en herramientas ofimáticas” se presentan escenarios de apoyo en documentos, hojas de cálculo y presentaciones (borradores, reformulación, tablas, gráficos, estructuras de diapositivas) y criterios para decidir cuándo conviene automatizar dentro de la suite y cuándo fuera de ella. Como hilo conductor, se introduce un marco de uso responsable (privacidad del estudiantado, minimización de datos, propiedad intelectual, transparencia y trazabilidad), junto con “puntos de control” para evitar errores: revisión humana, muestreo, contraste con fuentes y recomendación final (“listo para imprimir” vs. “requiere ajustes”).
  • Thumbnail Image
    Item
    Alfabetización en IA y su impacto en el empleo
    (Grupo GRIAL, 2026-02-16) García-Peñalvo, Francisco José
    Participación en el curso “La IA en la búsqueda de empleo”, organizado por el Servicio de Empleo y Emprendimiento (SIPPE) de la Universidad de Salamanca, con el tema “Alfabetización en IA y su impacto en el empleo”, de 4 horas de duración, impartido el 16 de febrero de 2026. El material de la sesión “Alfabetización en IA y su impacto en el empleo” se estructura como un recorrido que abarca desde la activación inicial del grupo hasta una comprensión básica (pero rigurosa) de la IA y, finalmente, a su aterrizaje en el mercado laboral y en la búsqueda de empleo. Empieza con una dinámica de “romper el hielo” para diagnosticar el punto de partida del alumnado: un semáforo de familiaridad con la IA (de “no he usado IA” a “la uso a menudo y sé comparar resultados”), un sondeo rápido sobre las herramientas utilizadas (ChatGPT, Gemini, Claude) y un mapa de usos reales (estudio, trabajo y búsqueda de empleo). También incorpora una “línea de posición” para debatir mitos y miedos: desde “la IA me ayuda y me da ventaja” hasta “la IA pone en riesgo mi empleo”, conectando con el contexto social del cambio tecnológico y con el “shock del futuro”. A partir de ahí, se define qué es la Inteligencia Artificial desde distintas perspectivas: se reconoce la dificultad de definirla debido a la coexistencia de paradigmas, se introduce la definición de McCarthy y se incluye la definición de la Comisión Europea, que enfatiza sistemas capaces de analizar su entorno y actuar con cierto grado de autonomía. Se distingue entre IA fuerte y débil, y se presentan tipologías (ANI, AGI, ASI) y ámbitos de aplicación (derecho, medicina, industria, educación, etc.), para evidenciar que la IA ya opera en múltiples dominios. El bloque “cómo funciona una IA” utiliza una analogía pedagógica (un bebé que aprende) para explicar conceptos como modelo, datos, entrenamiento y evaluación, y para diferenciar entre el aprendizaje supervisado, el no supervisado y el por refuerzo. Se introduce el ajuste fino (fine-tuning) como una especialización, lo que refuerza la idea de que no existe un modelo universalmente excelente para todo: la especialización y el contexto importan. En la parte de Inteligencia Artificial Generativa se enmarca la disrupción asociada a los grandes modelos de lenguaje (LLM) y a la popularización de las interfaces conversacionales. Se explican, de forma accesible, conceptos como token, probabilidad de la siguiente palabra, parámetros y ventana de contexto. Se ofrece un panorama de técnicas (GAN, GPT, modelos de difusión, etc.), beneficios (productividad, creatividad, aprendizaje informal) y riesgos (alucinaciones, sesgos, privacidad, dependencia, impacto ambiental), con especial atención a las alucinaciones y sus tipos: contradicciones, errores factuales o matemáticos y citas inventadas. El tramo de mercado laboral aterriza en el ATS (Applicant Tracking System): software que recibe, parsea y organiza candidaturas, permite filtrar por palabras clave y prioriza una lista para su revisión humana. De ahí se derivan reglas prácticas: CV legible para el sistema y convincente para la persona, secciones estándar, texto real (evitar imágenes para datos clave), ítems claros con logros medibles y palabras clave coherentes sin “relleno”. Se enseña a identificar keywords en la oferta (técnicas, transversales, tareas y “knockout”) y dónde ubicarlas en el CV. Finalmente, se presenta cómo “traduce” la IA un perfil (experiencia → competencias inferidas → evidencias/logros → keywords) y se propone un proceso guiado con herramientas: crear cuentas, probar prompts y realizar un caso completo de oferta → requisitos → viñetas STAR y versión ATS. Como cierre, se subraya que el chat parece fácil, pero la calidad depende del prompt y del contexto; y que hay que verificar, medir y mantener la autenticidad.
  • Thumbnail Image
    Item
    Uso de la IA generativa en la docencia
    (Grupo GRIAL, 2026-02-06) García-Peñalvo, Francisco José
    Conferencia plenaria invitada de 1 hora de duración impartida en las II Jornadas de Inteligencia Artificial para la Docencia Universitaria de la Universidad de La Laguna, celebradas en el Salón de Actos del Edificio de Ciencias de la Comunicación “La Pirámide”, La Laguna, Tenerife, España, el 6 de febrero de 2026. Se explora el impacto disruptivo de la Inteligencia Artificial Generativa (IAGen) en la educación superior. Se define la IAGen como una tecnología capaz de producir contenidos sintéticos inéditos en diversos formatos, marcando un punto de inflexión por su accesibilidad e integración en la vida cotidiana del ciudadano. Uno de los grandes desafíos analizados son las “alucinaciones”, fenómenos donde los modelos generan información falsa o inventada que resulta coherente, incluyendo citas bibliográficas inexistentes o errores lógicos. Asimismo, se aborda el “mito de la muerte de la originalidad”, señalando que, si bien la IA facilita el trabajo superficial, puede socavar la integridad académica y el aprendizaje genuino si se emplea de forma acrítica. Ante esta realidad, el autor propone transitar de la prohibición hacia una regulación ética basada en el reconocimiento del uso de la IA, tratándola como una herramienta legítima siempre que se declare de forma transparente. La ponencia defiende un cambio de paradigma fundamental: pasar de la visión del “reemplazo” a la del “aumento”. Bajo este enfoque, la IA no busca sustituir al docente, sino actuar como un instrumento avanzado dentro de una "orquesta" dirigida por humanos. Surge así el concepto de “Inteligencia Híbrida”, definida como la capacidad de alcanzar objetivos complejos mediante la combinación de la inteligencia humana y la artificial para lograr resultados superiores. En este ecosistema, lo “híbrido” trasciende la dualidad presencial/virtual para integrar humanos, IA, datos y responsabilidad. Para garantizar una implementación segura, se presentan marcos de referencia clave como las orientaciones de la UNESCO, el Reglamento de IA de la Unión Europea (AI Act) y el “Safe AI in Education Manifesto”. Estos marcos enfatizan principios esenciales como la supervisión humana, la transparencia en el contenido sintético, la privacidad y la equidad. En el plano práctico, se proponen tres escenarios de uso graduados por autonomía y riesgo: el apoyo responsable al trabajo docente, la colaboración guiada en actividades de aula y la cocreación por parte del estudiantado para su propio aprendizaje. Cada escenario exige niveles específicos de alfabetización y plantea retos en la evaluación auténtica, donde el proceso de interacción y el juicio crítico cobran más relevancia que el producto final. Finalmente, la conferencia concluye que la tecnología no es neutral y que el profesorado debe liderar esta transformación. Es imperativo fomentar una “alfabetización crítica” que permita discernir las capacidades reales de la IA, automatizar tareas tediosas y centrar el esfuerzo educativo en el desarrollo de la creatividad y la autonomía intelectual. El éxito reside en enriquecer la orquesta educativa con este nuevo instrumento, manteniendo siempre el propósito humano como guía pedagógica.
  • Thumbnail Image
    Item
    Estrategias para gestionar el uso de la inteligencia artificial en la práctica docente
    (Grupo GRIAL, 2026-02-03) García-Peñalvo, Francisco José
    Conferencia plenaria invitada de 1 hora de duración impartida en las VIII Jornadas de Experiencias Docentes de la Universitat de les Illes Balears, celebradas el 3 de febrero de 2026 en el edificio Gaspar Melchor de Jovellanos, Palma de Mallorca. Se plantea un marco práctico para gestionar el uso de la inteligencia artificial generativa (IAGen) en docencia, partiendo de una aclaración conceptual: la IA se entiende como sistemas que actúan con cierto grado de autonomía para lograr objetivos, mientras que la IAGen se centra en la producción de contenidos sintéticos inéditos (texto, imagen, audio, vídeo, código, etc.) mediante modelización generativa. A partir de ahí, se subraya que la educación ya convive con contenidos generados automáticamente difíciles de atribuir con certeza, lo que alimenta debates (a veces polarizados) sobre integridad, evaluación y aprendizaje. Uno de los ejes es reducir la discusión “prohibir vs permitir” y moverla hacia cómo usar estas herramientas con sentido pedagógico: no tanto “cómo evitar que el estudiantado engañe”, sino cómo incorporarlas de manera que se aprenda. Para ello, se destacan riesgos bien conocidos, como las alucinaciones y la fabricación de información plausible pero falsa, y el “mito de la muerte de la originalidad”: la IAGen puede producir trabajos “originales” que no son copias, pero tampoco expresan autoría genuina, favoreciendo el trabajo superficial si se usa de forma acrítica. En coherencia, se apunta a que existe consenso institucional en considerar plagio el texto totalmente generado por IA sin reconocimiento y se propone una respuesta regulatoria y ética basada en declarar el uso. Se ofrecen pautas concretas de reconocimiento (qué herramienta, con qué propósito, iteraciones, qué se incorpora y cómo se adapta), junto con la idea de que la alfabetización crítica no es solo “saber usar”, sino usar con juicio dentro de valores académicos. El núcleo propositivo articula un cambio de paradigma: del reemplazo al aumento, entendiendo la IA como “instrumento” que docentes y estudiantes dirigen para potenciar el aprendizaje, y defendiendo ecosistemas híbridos donde la IA potencia la inteligencia humana en lugar de sustituirla. En esa línea, se introduce la colaboración persona-IA como aumento de metas, percepción/interpretación, acción y decisión, siempre con supervisión humana. Se recuerda además el valor educativo del proceso de interacción (prompts y diálogo): el proceso puede ser tan importante como el resultado. Para operativizarlo, se proponen tres escenarios graduados por autonomía, agencia y riesgo: (1) apoyo responsable (IA como soporte al trabajo docente), (2) colaboración guiada (IA integrada en actividades con estudiantes) y (3) cocreación con declaración reforzada (estudiantes usando IA para aprender). En los tres aparecen principios recurrentes: transparencia (definir usos aceptables/obligatorios y cómo declararlos), privacidad, equidad (accesos desiguales), sostenibilidad (licencias/recursos) y evaluación auténtica centrada en el proceso, evitando confianza ciega en detectores y usando evidencias (vivas, trabajo en clase, iteraciones, entregas incrementales…). Todo ello se encuadra en marcos de referencia (UNESCO, AI Act, SAFE y el Safe AI in Education Manifesto) para asegurar una adopción segura, responsable y alineada con fines educativos.
  • Thumbnail Image
    Item
    Visibilizar el ecosistema de políticas abiertas para democratizar el conocimiento
    (Octaedro, 2025-10-01) Coria Tinoco, Raúl; Delgado Fabián, Mónica; García-Peñalvo, Francisco José; Glasserman-Morales, Leonardo David; González-Pérez, Laura Icela; Rodríguez Palacios, Sara María del Patrocinio; Sánchez Reyes, Miriam Guadalupe; Tenorio-Sepúlveda, Gloria Concepción; Valencia González, Gloria Clemencia; Valenzuela Arvizu, Siria Yahaira; Viñoles Cosentino, Virginia
    En una era de constante cambio, es esencial potenciar el acceso abierto al conocimiento para transformar la educación y la ciencia a nivel global. Ante la falta de transparencia y espacios que canalicen información sobre políticas de acceso abierto surge el Observatorio OPALO (Open Policies for ALl Observatory), que busca mejorar la transparencia y fomentar un ecosistema inclusivo, accesible y equitativo. Su meta es identificar brechas, buenas prácticas y oportunidades para desarrollar políticas que faciliten el acceso a recursos educativos y científicos, especialmente en regiones en desarrollo. El impacto esperado incluye: a) en educación, promo-ver el acceso igualitario a recursos abiertos mediante tecnologías emergentes y metodologías colaborativas; b) en ciencia, impulsar la colaboración global y la reproducibilidad científica a través de políticas de acceso libre y el intercambio de datos; c) en gobernanza, fomentar políticas basadas en evidencia y desarrollar infraestructuras de datos accesibles; y d) crear un modelo de madurez del conocimiento abierto que permita a las instituciones autoevaluarse y mejorar sus prácticas. El equipo, conformado por profesionales de Colombia, España y México, cuenta con experiencia interdisciplinar en ingeniería sostenible, tecnología educativa, ciencia abierta y políticas de conocimiento. Su enfoque en metodologías transformadoras y soluciones accesibles, así como su participación en iniciativas internacionales como la Cátedra UNESCO/ICDE, asegura un impacto global, inclusivo y sostenible.
  • Thumbnail Image
    Item
    Support for specific training plans in the Algerian university system: new teachers and online teaching
    (Editorial Comares, 2022-01-01) López-Aguado, Mercedes; Hoyuelos Álvaro, Francisco Javier; García-Peñalvo, Francisco José
    Project PAPER. Support for specific training plans in the Algerian university system: new teachers and online teaching
  • Thumbnail Image
    Item
    Los datasets en abierto y su aportación al impacto social de la ciencia
    (Ediciones Universidad de Salamanca, 2025-11-01) Blázquez, Paloma G.; Mangas-Vega, Almudena; García-Peñalvo, Francisco José
    Los datasets en abierto se han consolidado como una herramienta clave dentro de la ciencia abierta por su potencial para generar impacto más allá del ámbito académico; y, a su vez, como aportación y/o publicación científica susceptible de ser evaluada en convocatorias regionales y nacionales. Este trabajo presenta un estudio de caso centrado en los repositorios institucionales de las universidades públicas de Castilla y León, con el objetivo de analizar el alcance de estos conjuntos de datos no solo como análisis, sino también en términos de visibilidad e impacto social. A partir de métricas de uso (visitas, descargas) y altmétricas disponibles (PlumX, Dimensions), se observa una presencia incipiente pero significativa en términos de reutilización social y académica. Se analiza también la alineación con los principios FAIR, así como las posibilidades que estos datasets ofrecen para la innovación ciudadana, la mejora de políticas públicas o la educación informal. Finalmente, se discuten posibles líneas de acción para favorecer la comunicación, la visibilidad y la reutilización de los datos de investigación en abierto como vía para potenciar su impacto social.
  • Thumbnail Image
    Item
    Analíticas del aprendizaje basadas en datos e inteligencia artificial en la educación superior: una revisión sistemática
    (IEEE, 2025-09-29) González-Pérez, Laura Icela; García-Peñalvo, Francisco José; Argüelles-Cruz, Amadeo José
    La integración responsable de la inteligencia artificial en la educación (IAED) ofrece una oportunidad estratégica para alinear los entornos formativos con los principios de la Sociedad 5.0, potenciando la sinergia humano-tecnología en favor de una educación de calidad y del bienestar social. Este estudio presenta una revisión sistemática de 36 artículos arbitrados (2021–2025), centrados en aplicaciones educativas que emplean analíticas de aprendizaje (LA) con enfoques data-driven e integran modelos de Machine Learning (ML) como parte de su evidencia empírica. En cada estudio se identificaron tres elementos clave: el contexto de aplicación de la IAED, el enfoque data-driven adoptado y el modelo de ML utilizado. Los hallazgos revelan una desconexión entre los modelos de IA empleados y los datos educativos, los cuales, en muchos casos, se reducen a logs de acceso a calificaciones capturadas manualmente, que no permiten medir procesos cognitivos de manera profunda. Esta limitación compromete tanto la capacidad de los modelos ML para entrenarse de manera efectiva como su utilidad para ofrecer intervenciones pedagógicas útiles, como pueden ser rutas de aprendizaje personalizadas, retroalimentación en tiempo real, detección temprana de dificultades y seguimiento y visualización. Otro hallazgo relevante es la ausencia de marcos psicopedagógicos integrados a estándares de calidad y de gobernanza de datos, indispensables para avanzar hacia enfoques prescriptivos y éticos, coherentes con las metas de aprendizaje. Se recomienda que los líderes educativos promuevan aplicaciones de IAED sustentadas en marcos de gestión de datos y ética, asegurando métricas válidas y confiables que impulsen una educación más equitativa e inclusiva.
  • Thumbnail Image
    Item
    Data-Driven Learning Analytics and Artificial Intelligence in Higher Education: A Systematic Review
    (IEEE, 2025-09-29) González-Pérez, Laura Icela; García-Peñalvo, Francisco José; Argüelles-Cruz, Amadeo José
    The responsible integration of Artificial Intelligence in Education (AIED) offers a strategic opportunity to align learning environments with the principles of Society 5.0, fostering human–technology synergy in support of quality education and social well-being. This study presents a systematic review of 36 peer-reviewed articles (2021–2025) focused on educational appli-cations that employ learning analytics (LA) through data-driven approaches and integrate machine learning (ML) models as part of their empirical evidence. Each study was analyzed according to three key dimensions: the context of AIED application, the data-driven approach adopted, and the ML model implemented. The findings reveal a persistent disconnect between the AI models employed and the available educational data, which in many cases are limited to access logs or manually recorded grades that fail to capture deeper cognitive processes. This limitation constrains both the effective training of ML models and their pedagogical utility for delivering meaningful interventions such as personalized learning pathways, real-time feedback, early detection of learning difficulties, and monitoring and visualization tools. Another significant finding is the absence of psychopeda-gogical frameworks integrated with quality standards and data governance, which are essential for advancing prescriptive and ethical approaches aligned with learning goals. It is therefore recommended that educational leaders foster AIED applications grounded in data governance and ethics frameworks, ensuring valid and reliable metrics that can drive a more equitable and inclusive education.
Creative Commons Attribution-NonCommercial-ShareAlike 4.0 Unported