GRIAL resources
Permanent URI for this communityhttps://repositorio.grial.eu/handle/123456789/1
Browse
1453 results
Search Results
Item Uso de la IA generativa en la docencia(Grupo GRIAL, 2026-02-06) García-Peñalvo, Francisco JoséConferencia plenaria invitada de 1 hora de duración impartida en las II Jornadas de Inteligencia Artificial para la Docencia Universitaria de la Universidad de La Laguna, celebradas en el Salón de Actos del Edificio de Ciencias de la Comunicación “La Pirámide”, La Laguna, Tenerife, España, el 6 de febrero de 2026. Se explora el impacto disruptivo de la Inteligencia Artificial Generativa (IAGen) en la educación superior. Se define la IAGen como una tecnología capaz de producir contenidos sintéticos inéditos en diversos formatos, marcando un punto de inflexión por su accesibilidad e integración en la vida cotidiana del ciudadano. Uno de los grandes desafíos analizados son las “alucinaciones”, fenómenos donde los modelos generan información falsa o inventada que resulta coherente, incluyendo citas bibliográficas inexistentes o errores lógicos. Asimismo, se aborda el “mito de la muerte de la originalidad”, señalando que, si bien la IA facilita el trabajo superficial, puede socavar la integridad académica y el aprendizaje genuino si se emplea de forma acrítica. Ante esta realidad, el autor propone transitar de la prohibición hacia una regulación ética basada en el reconocimiento del uso de la IA, tratándola como una herramienta legítima siempre que se declare de forma transparente. La ponencia defiende un cambio de paradigma fundamental: pasar de la visión del “reemplazo” a la del “aumento”. Bajo este enfoque, la IA no busca sustituir al docente, sino actuar como un instrumento avanzado dentro de una "orquesta" dirigida por humanos. Surge así el concepto de “Inteligencia Híbrida”, definida como la capacidad de alcanzar objetivos complejos mediante la combinación de la inteligencia humana y la artificial para lograr resultados superiores. En este ecosistema, lo “híbrido” trasciende la dualidad presencial/virtual para integrar humanos, IA, datos y responsabilidad. Para garantizar una implementación segura, se presentan marcos de referencia clave como las orientaciones de la UNESCO, el Reglamento de IA de la Unión Europea (AI Act) y el “Safe AI in Education Manifesto”. Estos marcos enfatizan principios esenciales como la supervisión humana, la transparencia en el contenido sintético, la privacidad y la equidad. En el plano práctico, se proponen tres escenarios de uso graduados por autonomía y riesgo: el apoyo responsable al trabajo docente, la colaboración guiada en actividades de aula y la cocreación por parte del estudiantado para su propio aprendizaje. Cada escenario exige niveles específicos de alfabetización y plantea retos en la evaluación auténtica, donde el proceso de interacción y el juicio crítico cobran más relevancia que el producto final. Finalmente, la conferencia concluye que la tecnología no es neutral y que el profesorado debe liderar esta transformación. Es imperativo fomentar una “alfabetización crítica” que permita discernir las capacidades reales de la IA, automatizar tareas tediosas y centrar el esfuerzo educativo en el desarrollo de la creatividad y la autonomía intelectual. El éxito reside en enriquecer la orquesta educativa con este nuevo instrumento, manteniendo siempre el propósito humano como guía pedagógica.Item Estrategias para gestionar el uso de la inteligencia artificial en la práctica docente(Grupo GRIAL, 2026-02-03) García-Peñalvo, Francisco JoséConferencia plenaria invitada de 1 hora de duración impartida en las VIII Jornadas de Experiencias Docentes de la Universitat de les Illes Balears, celebradas el 3 de febrero de 2026 en el edificio Gaspar Melchor de Jovellanos, Palma de Mallorca. Se plantea un marco práctico para gestionar el uso de la inteligencia artificial generativa (IAGen) en docencia, partiendo de una aclaración conceptual: la IA se entiende como sistemas que actúan con cierto grado de autonomía para lograr objetivos, mientras que la IAGen se centra en la producción de contenidos sintéticos inéditos (texto, imagen, audio, vídeo, código, etc.) mediante modelización generativa. A partir de ahí, se subraya que la educación ya convive con contenidos generados automáticamente difíciles de atribuir con certeza, lo que alimenta debates (a veces polarizados) sobre integridad, evaluación y aprendizaje. Uno de los ejes es reducir la discusión “prohibir vs permitir” y moverla hacia cómo usar estas herramientas con sentido pedagógico: no tanto “cómo evitar que el estudiantado engañe”, sino cómo incorporarlas de manera que se aprenda. Para ello, se destacan riesgos bien conocidos, como las alucinaciones y la fabricación de información plausible pero falsa, y el “mito de la muerte de la originalidad”: la IAGen puede producir trabajos “originales” que no son copias, pero tampoco expresan autoría genuina, favoreciendo el trabajo superficial si se usa de forma acrítica. En coherencia, se apunta a que existe consenso institucional en considerar plagio el texto totalmente generado por IA sin reconocimiento y se propone una respuesta regulatoria y ética basada en declarar el uso. Se ofrecen pautas concretas de reconocimiento (qué herramienta, con qué propósito, iteraciones, qué se incorpora y cómo se adapta), junto con la idea de que la alfabetización crítica no es solo “saber usar”, sino usar con juicio dentro de valores académicos. El núcleo propositivo articula un cambio de paradigma: del reemplazo al aumento, entendiendo la IA como “instrumento” que docentes y estudiantes dirigen para potenciar el aprendizaje, y defendiendo ecosistemas híbridos donde la IA potencia la inteligencia humana en lugar de sustituirla. En esa línea, se introduce la colaboración persona-IA como aumento de metas, percepción/interpretación, acción y decisión, siempre con supervisión humana. Se recuerda además el valor educativo del proceso de interacción (prompts y diálogo): el proceso puede ser tan importante como el resultado. Para operativizarlo, se proponen tres escenarios graduados por autonomía, agencia y riesgo: (1) apoyo responsable (IA como soporte al trabajo docente), (2) colaboración guiada (IA integrada en actividades con estudiantes) y (3) cocreación con declaración reforzada (estudiantes usando IA para aprender). En los tres aparecen principios recurrentes: transparencia (definir usos aceptables/obligatorios y cómo declararlos), privacidad, equidad (accesos desiguales), sostenibilidad (licencias/recursos) y evaluación auténtica centrada en el proceso, evitando confianza ciega en detectores y usando evidencias (vivas, trabajo en clase, iteraciones, entregas incrementales…). Todo ello se encuadra en marcos de referencia (UNESCO, AI Act, SAFE y el Safe AI in Education Manifesto) para asegurar una adopción segura, responsable y alineada con fines educativos.Item Visibilizar el ecosistema de políticas abiertas para democratizar el conocimiento(Octaedro, 2025-10-01) Coria Tinoco, Raúl; Delgado Fabián, Mónica; García-Peñalvo, Francisco José; Glasserman-Morales, Leonardo David; González-Pérez, Laura Icela; Rodríguez Palacios, Sara María del Patrocinio; Sánchez Reyes, Miriam Guadalupe; Tenorio-Sepúlveda, Gloria Concepción; Valencia González, Gloria Clemencia; Valenzuela Arvizu, Siria Yahaira; Viñoles Cosentino, VirginiaEn una era de constante cambio, es esencial potenciar el acceso abierto al conocimiento para transformar la educación y la ciencia a nivel global. Ante la falta de transparencia y espacios que canalicen información sobre políticas de acceso abierto surge el Observatorio OPALO (Open Policies for ALl Observatory), que busca mejorar la transparencia y fomentar un ecosistema inclusivo, accesible y equitativo. Su meta es identificar brechas, buenas prácticas y oportunidades para desarrollar políticas que faciliten el acceso a recursos educativos y científicos, especialmente en regiones en desarrollo. El impacto esperado incluye: a) en educación, promo-ver el acceso igualitario a recursos abiertos mediante tecnologías emergentes y metodologías colaborativas; b) en ciencia, impulsar la colaboración global y la reproducibilidad científica a través de políticas de acceso libre y el intercambio de datos; c) en gobernanza, fomentar políticas basadas en evidencia y desarrollar infraestructuras de datos accesibles; y d) crear un modelo de madurez del conocimiento abierto que permita a las instituciones autoevaluarse y mejorar sus prácticas. El equipo, conformado por profesionales de Colombia, España y México, cuenta con experiencia interdisciplinar en ingeniería sostenible, tecnología educativa, ciencia abierta y políticas de conocimiento. Su enfoque en metodologías transformadoras y soluciones accesibles, así como su participación en iniciativas internacionales como la Cátedra UNESCO/ICDE, asegura un impacto global, inclusivo y sostenible.Item Support for specific training plans in the Algerian university system: new teachers and online teaching(Editorial Comares, 2022-01-01) López-Aguado, Mercedes; Hoyuelos Álvaro, Francisco Javier; García-Peñalvo, Francisco JoséProject PAPER. Support for specific training plans in the Algerian university system: new teachers and online teachingItem Los datasets en abierto y su aportación al impacto social de la ciencia(Ediciones Universidad de Salamanca, 2025-11-01) Blázquez, Paloma G.; Mangas-Vega, Almudena; García-Peñalvo, Francisco JoséLos datasets en abierto se han consolidado como una herramienta clave dentro de la ciencia abierta por su potencial para generar impacto más allá del ámbito académico; y, a su vez, como aportación y/o publicación científica susceptible de ser evaluada en convocatorias regionales y nacionales. Este trabajo presenta un estudio de caso centrado en los repositorios institucionales de las universidades públicas de Castilla y León, con el objetivo de analizar el alcance de estos conjuntos de datos no solo como análisis, sino también en términos de visibilidad e impacto social. A partir de métricas de uso (visitas, descargas) y altmétricas disponibles (PlumX, Dimensions), se observa una presencia incipiente pero significativa en términos de reutilización social y académica. Se analiza también la alineación con los principios FAIR, así como las posibilidades que estos datasets ofrecen para la innovación ciudadana, la mejora de políticas públicas o la educación informal. Finalmente, se discuten posibles líneas de acción para favorecer la comunicación, la visibilidad y la reutilización de los datos de investigación en abierto como vía para potenciar su impacto social.Item Analíticas del aprendizaje basadas en datos e inteligencia artificial en la educación superior: una revisión sistemática(IEEE, 2025-09-29) González-Pérez, Laura Icela; García-Peñalvo, Francisco José; Argüelles-Cruz, Amadeo JoséLa integración responsable de la inteligencia artificial en la educación (IAED) ofrece una oportunidad estratégica para alinear los entornos formativos con los principios de la Sociedad 5.0, potenciando la sinergia humano-tecnología en favor de una educación de calidad y del bienestar social. Este estudio presenta una revisión sistemática de 36 artículos arbitrados (2021–2025), centrados en aplicaciones educativas que emplean analíticas de aprendizaje (LA) con enfoques data-driven e integran modelos de Machine Learning (ML) como parte de su evidencia empírica. En cada estudio se identificaron tres elementos clave: el contexto de aplicación de la IAED, el enfoque data-driven adoptado y el modelo de ML utilizado. Los hallazgos revelan una desconexión entre los modelos de IA empleados y los datos educativos, los cuales, en muchos casos, se reducen a logs de acceso a calificaciones capturadas manualmente, que no permiten medir procesos cognitivos de manera profunda. Esta limitación compromete tanto la capacidad de los modelos ML para entrenarse de manera efectiva como su utilidad para ofrecer intervenciones pedagógicas útiles, como pueden ser rutas de aprendizaje personalizadas, retroalimentación en tiempo real, detección temprana de dificultades y seguimiento y visualización. Otro hallazgo relevante es la ausencia de marcos psicopedagógicos integrados a estándares de calidad y de gobernanza de datos, indispensables para avanzar hacia enfoques prescriptivos y éticos, coherentes con las metas de aprendizaje. Se recomienda que los líderes educativos promuevan aplicaciones de IAED sustentadas en marcos de gestión de datos y ética, asegurando métricas válidas y confiables que impulsen una educación más equitativa e inclusiva.Item Data-Driven Learning Analytics and Artificial Intelligence in Higher Education: A Systematic Review(IEEE, 2025-09-29) González-Pérez, Laura Icela; García-Peñalvo, Francisco José; Argüelles-Cruz, Amadeo JoséThe responsible integration of Artificial Intelligence in Education (AIED) offers a strategic opportunity to align learning environments with the principles of Society 5.0, fostering human–technology synergy in support of quality education and social well-being. This study presents a systematic review of 36 peer-reviewed articles (2021–2025) focused on educational appli-cations that employ learning analytics (LA) through data-driven approaches and integrate machine learning (ML) models as part of their empirical evidence. Each study was analyzed according to three key dimensions: the context of AIED application, the data-driven approach adopted, and the ML model implemented. The findings reveal a persistent disconnect between the AI models employed and the available educational data, which in many cases are limited to access logs or manually recorded grades that fail to capture deeper cognitive processes. This limitation constrains both the effective training of ML models and their pedagogical utility for delivering meaningful interventions such as personalized learning pathways, real-time feedback, early detection of learning difficulties, and monitoring and visualization tools. Another significant finding is the absence of psychopeda-gogical frameworks integrated with quality standards and data governance, which are essential for advancing prescriptive and ethical approaches aligned with learning goals. It is therefore recommended that educational leaders foster AIED applications grounded in data governance and ethics frameworks, ensuring valid and reliable metrics that can drive a more equitable and inclusive education.Item Introduciendo la Inteligencia Artificial en el ciclo de investigación bajo un comportamiento ético(Grupo GRIAL, 2026-01-28) García-Peñalvo, Francisco JoséLa conferencia “Introduciendo la Inteligencia Artificial en el ciclo de investigación bajo un comportamiento ético” se ha impartido en el IA in Education Summit: Responsible, Equitable, and Systematic Transformation, celebrado dentro del IFE Conference 2026 del 27 al 29 de enero de 2026 en el Tecnológico de Monterrey, Monterrey, Nuevo León (México). Concretamente, esta conferencia tuvo lugar el 28 de enero, con una duración de 30 minutos. La gran disrupción reciente en IA proviene de la inteligencia artificial generativa (IAGen), entendida como la capacidad de producir contenidos sintéticos inéditos (texto, imagen, audio, vídeo, presentaciones) para apoyar tareas diversas, con un impacto social potencialmente abrumador por su integración en la vida cotidiana. En el ámbito de la investigación, se subraya que la generación automática de contenido académico ya es una realidad y que la calidad alcanzada permite su uso como material de investigación; a la vez, se advierte que la investigación y la transferencia no son inmunes a discursos inflados, mitos e inexactitudes sobre la IA (catastrofismo vs. “solucionismo tecnológico”). Se ofrece un panorama de herramientas generalistas basadas en texto (algunas multimodales) y se introduce una idea clave: las herramientas generalistas suponen un riesgo en contextos de investigación, por lo que su adopción debe ser crítica y situada. La charla estructura el uso de la IAGen a lo largo de todo el ciclo de investigación: desde la generación de ideas, objetivos e hipótesis, el estado de la cuestión, el desarrollo de código, la recogida y análisis de datos, hasta la redacción, publicación y comunicación; la ética y la transparencia actúan como eje transversal. Como base normativa y ética, se presentan principios para un uso responsable: fiabilidad (verificación y reproducción), honestidad (revelar el uso), respeto (privacidad, confidencialidad, propiedad intelectual y citación) y responsabilidad (agencia humana y supervisión). En la misma línea, se introduce la alfabetización crítica: no basta con saber usar herramientas, sino hacerlo con juicio dentro de valores y prácticas académicas. En cuanto a marcos de referencia, se alinean las recomendaciones de la UNESCO, el AI Act y el Safe AI in Education Manifesto como un continuo entre guía ética y regulación legal, y se resume su aterrizaje en investigación: validación ética, protección de datos y PI, trazabilidad (registrar herramienta/versión/prompts y declarar uso), triaje de riesgo y debida diligencia con proveedores, y protocolos human-in-the-loop. Se aportan ejemplos de reconocimiento del uso (Monash) y guías editoriales (Wiley), destacando qué debe declararse (redacción/edición, metodología, código, análisis y visuales) y qué información conviene documentar (nombre/versión, fecha, función, secciones afectadas, rol del autor y cumplimiento de privacidad en datos sensibles). También se aborda la revisión por pares: los manuscritos son confidenciales y no deben cargarse en aplicaciones de IA; se proponen usos seguros (mejorar claridad/tono, traducción, consultas generales sin detalles del manuscrito). Las conclusiones enfatizan que la IAGen ofrece beneficios, pero su punto crítico es la trazabilidad: muchas herramientas no la garantizan robustamente, lo que puede reducir la transparencia, complicar la atribución de autoría y aumentar el riesgo de contenido no verificado (alucinaciones). Se remarca que la IA puede aumentar la eficiencia, pero no sustituye capacidades humanas esenciales, y que, aunque los marcos establecen una base común, la decisión ética no se automatiza y cada investigador y equipo debe definir sus líneas rojas según contexto, riesgo y datos, asumiendo responsabilidad por su aplicación.Item Ecosistemas de aprendizaje híbridos: Orquestando la colaboración entre personas e inteligencia artificial(Grupo GRIAL, 2026-01-08) García-Peñalvo, Francisco JoséConferencia plenaria invitada de 1 hora de duración impartida en las X Jornadas Docentes de la Facultad de Ingeniería – Inteligencia Híbrida en la Educación Superior, organizadas por la Unidad de Investigación Docente y Desarrollo Académico (UNIDA) de la Facultad de Ingeniería de la Universidad Andrés Bello. Estas jornadas se desarrollaron en Santiago (Chile) el 8 y 9 de enero de 2026 y esta conferencia se impartió el 8 de enero de 2026. Se plantea que “lo híbrido” ya no puede entenderse como una simple combinación de presencial + online, sino como un ecosistema más completo que integra presencial + online + IA + datos + responsabilidad. En ese marco, la inteligencia híbrida se define como la capacidad de lograr objetivos complejos combinando inteligencia humana y artificial para obtener resultados mejores que los alcanzables por separado. La tesis se refuerza con una idea de sinergia: el valor está en la interacción y la coevolución humano–tecnología (no en sustituir al humano), donde la tecnología libera de lo repetitivo para dedicar energía a creación, estrategia y juicio. A partir de ahí, se introduce el salto desde “herramientas sueltas” a ecosistemas: un ecosistema tecnológico se concibe como un conjunto de componentes software conectados por flujos de información, sostenidos en un entorno físico, con los usuarios como parte del sistema; aplicado al aprendizaje, el objetivo es una red de servicios de aprendizaje y no una colección de “herramientas de moda”. Para orquestar la colaboración persona–IA, la presentación propone un marco de “aumentos” donde la IA y las personas se amplifican mutuamente: metas (se influyen recíprocamente), percepción e interpretación (la IA detecta patrones y datos; el humano aporta contexto), acción (la IA escala acciones como retroalimentación inmediata; el humano crea/personaliza acciones) y decisión (la IA apoya; el humano supervisa y corrige). El núcleo técnico-pedagógico se apoya en la idea de que el ecosistema se sostiene sobre datos y su ciclo de uso: detectar → preparar → diagnosticar → actuar → evaluar. Se distingue además entre intervenciones “blandas” (informar mediante paneles de control, retroalimentación formativa, alertas tempranas, recomendaciones) y “duras” (automatizar adaptación de tareas, retroalimentación paso a paso, asignación automática de práctica, generación guiada). La regla es clara: cuanto más “dura” la automatización, más exigencias de explicabilidad, trazabilidad, control humano y evaluación de sesgos. Se introducen con cuidado las señales multimodales y el componente biométrico. Se enumeran señales de conducta (mirada, postura, teclado/ratón), fisiología (frecuencia cardíaca, actividad electrodérmica, respiración) y contexto (audio/ruido, ubicación, condiciones), subrayando que la fisiología tiene alta sensibilidad, pero también alto riesgo de privacidad e interpretación. De ahí se deriva un mensaje práctico: priorizar evidencias de aprendizaje (interacciones + artefactos) y usar multimodalidad solo si añade valor pedagógico y con controles fuertes. En el caso de la biometría, se listan riesgos (consentimiento, clima panóptico, seguridad, interpretación errónea, sesgos) y controles mínimos (opt-out, minimización, propósito explícito, procesamiento local, revisión humana antes de actuar y auditoría). Como ejemplo “aterrizado”, se propone un laboratorio de programación sin biometría: entradas como commits/tests, errores recurrentes, tiempos en ejercicios y preguntas en foro; modelos de machine learning clásico (predicción/clustering) junto con modelos generativos (retroalimentación formativa); y salidas como alerta al docente, recomendación de práctica, retroalimentación en borrador y priorización de tutoría humana. El bloque decisivo es el de los tres escenarios de uso de IA como “regulador de potencia”. La pregunta guía no es “usar IA sí/no”, sino “cuánta autonomía se da y con qué garantías”. Se formula un principio de proporcionalidad: a mayor impacto educativo y riesgo, más transparencia, más evidencias y más auditoría, y se cambia el tipo de evidencia exigida (declaración → trazabilidad → auditoría). En la parte final, la conferencia conecta ética con práctica mediante marcos y garantías (UNESCO, AI Act, SAFE, Safe AI in Education Manifesto) y advierte sobre la crisis de confianza: confundir “IA” con solo LLM, o asumir transparencia por explicaciones post-hoc (SHAP/LIME) puede crear una falsa sensación de interpretabilidad. El cierre refuerza la metáfora orquestal: el objetivo no es un “solista perfecto”, sino una orquesta enriquecida, donde el profesorado actúa como director y la tecnología se adapta a la pedagogía. La síntesis final queda en una frase: “Más IA, sí; pero con más humanidad, más evidencia y más responsabilidad”.Item Más allá de las hojas de cálculo: creando flujos para la definición, validación e interoperabilidad de variables clínicas(AIPO, 2015-12-30) Vázquez-Ingelmo, Andrea; Nieto-Campo, Islem Román; García-Holgado, Alicia; García-Peñalvo, Francisco José; Sánchez-Puente, Antonio; Sánchez, Pedro L.Las hojas de cálculo siguen siendo el estándar para definir y recoger variables clínicas, pero su flexibilidad las vuelve frágiles y propensas a errores. Presentamos un rediseño centrado en la persona del flujo de definición de variables dentro de una plataforma que integra datos clínicos estructurados e imágenes médicas. La propuesta sustituye la creación manual del esquema en procesadores de hojas de cálculo por un editor web interactivo y la generación automática de plantillas validadas a partir del esquema interno de la plataforma, reduciendo la carga cognitiva y previniendo errores de formato y semántica, con retroalimentación accionable en la carga. El flujo BPMN actualizado conecta el modelado de variables con una entrada de datos guiada y validaciones, cumpliendo heurísticas clave como visibilidad del estado, prevención y recuperación de errores. Entre las limitaciones persiste la entrada de datos fuera de línea; como trabajo futuro se plantean estudios de usabilidad, interoperabilidad semántica y asistencia con inteligencia artificial para sugerir variables.