GRIAL resources

Permanent URI for this communityhttps://repositorio.grial.eu/handle/123456789/1

Browse

Search Results

Now showing 1 - 10 of 1438
  • Item
    IA en Educación: Tres escenarios clave para aplicar la IA en la práctica docente
    (Grupo GRIAL, 2025-11-19) García-Peñalvo, Francisco José
    Conferencia plenaria invitada de 1 hora de duración impartida en las XII Jornadas Iberoamericanas de Innovación Educativa en el ámbito de las TIC y las TAC - InnoEducaTIC 2025, celebradas del 19 al 21 de noviembre de 2025 en el Edificio de Electrónica y Telecomunicación de la Universidad de Las Palmas de Gran Canaria, ubicado en el Campus Universitario de Tafira. Esta conferencia se impartió en modo online el 19 de noviembre. Se presenta un recorrido estructurado sobre cómo integrar la inteligencia artificial generativa (IAGen) en la educación desde una perspectiva crítica, apoyándose en marcos internacionales y desembocando en tres escenarios de uso para la práctica docente. Se inicia recordando qué es la IA y, en concreto, la IAGen: sistemas capaces de generar contenido sintético original (texto, imágenes, audio, vídeo, código…) con calidad suficiente como para convertirse en material docente o en productos entregables de los estudiantes, difíciles de detectar como generados por máquinas. Tras una breve aclaración de conceptos (IA, modelos de lenguaje masivos, parámetros, ventana de contexto), se plantea el cambio de escala que suponen los LLM y su rápida cronología reciente. A partir de ahí, se introduce el impacto específico en educación: generación automática de contenidos en múltiples formatos, que abre oportunidades, pero también refuerza el problema de la detección y la autoría real de los trabajos. Se señala que la educación no ha quedado al margen del ruido mediático: abundan visiones catastrofistas (la IA destruirá la escuela o anulará la originalidad) y visiones ingenuamente entusiastas (la IA como solución mágica a todos los problemas). Se menciona el “dilema de Prometeo”: ¿tiene sentido prohibir la IAGen como medida de protección, dado su carácter de caja negra y su tendencia a alucinar, o debemos aprender a convivir con ella? Esta tensión está en el fondo del debate educativo actual. Uno de los mensajes centrales es que el estudiantado ya usa estas herramientas en todos los niveles educativos. Los datos recientes sobre educación superior muestran un aumento constante del uso por parte de estudiantes, docentes y administradores, así como un cambio en la carga de trabajo del profesorado: disminuye el tiempo dedicado a diseñar materiales o responder correos, pero aumenta la vigilancia del fraude y la necesidad de rediseñar la evaluación. La pregunta ya no es “si las usarán”, sino “cómo las estamos integrando”. A continuación, se abordan los riesgos específicos, especialmente las alucinaciones: respuestas plausibles pero falsas, contradicciones internas, errores lógicos, invención de citas bibliográficas, etc. Estas limitaciones se conectan con el “mito de la muerte de la originalidad”: la IA permite trabajos formalmente originales que no proceden del esfuerzo del estudiante, facilitando un aprendizaje superficial y amenazando la autoría genuina si se emplea de modo acrítico. Ante esta realidad, muchas instituciones consideran el texto generado íntegramente por IA sin reconocimiento como una forma de plagio. Se está transitando hacia modelos en los que se aceptan ciertos usos, pero con regulación ética y exigencia de transparencia. Se propone, como mínimo, una declaración explícita del uso de IA que describa herramientas empleadas, propósitos, instrucciones clave y cómo se ha adaptado el resultado. Se muestran ejemplos concretos de la Universidad de Monash, que ilustran buenas prácticas para incluir este reconocimiento en los trabajos académicos. Sobre esta base se introduce la alfabetización crítica en IA: no basta con saber manejar herramientas, sino con situar su uso dentro de valores y prácticas académicas. Se resumen cuatro ideas operativas: verificar antes de adoptar; garantizar equidad e inclusión; mantener la agencia humana explícita en la toma de decisiones; y asegurar transparencia y rendición de cuentas documentando el uso de IA. Estos principios se articulan con varios marcos de referencia: las orientaciones de la UNESCO, el Reglamento Europeo de IA (AI Act), el marco SAFE (Safe, Accountable, Fair, Explainable) y el Manifiesto Safe AI in Education, que insiste en la supervisión humana, la confidencialidad, la precisión y la explicabilidad. Se pasa después a una dimensión más práctica: la “caja de herramientas” de IA en educación (transcripción, generación de texto, imagen, audio, vídeo, infografías, presentaciones, chatbots multimodales…). Se insiste en que la calidad de la respuesta depende del prompt y del contexto que se aporta al modelo; un mejor contexto permite respuestas más útiles y ajustadas. Esto es pedagógicamente relevante, porque el proceso de diálogo con el sistema y la calidad de las preguntas tienen valor formativo en sí mismos. El núcleo de la conferencia es la propuesta de tres escenarios de uso de la IA en educación. El primero, apoyo responsable, se centra en el uso de la IA por parte del profesorado como herramienta de preparación y apoyo (generar materiales, reformular explicaciones, diseñar actividades) con bajo riesgo si se mantiene la agencia docente, se respeta la privacidad y se declara el uso. El segundo, colaboración guiada, incorpora la IA como parte de las actividades del estudiantado, pero con una fuerte guía del profesorado, énfasis en la evaluación auténtica y prioridad al proceso (versiones, iteraciones, trabajo en clase) frente al producto final. El tercero, cocreación con declaración de uso reforzada, contempla un uso más autónomo de la IA por parte del estudiantado en productos de alto impacto (TFG/TFM, recursos abiertos), con riesgos mayores que se compensan exigiendo trazabilidad completa, transparencia, equidad en el acceso y revisión rigurosa. En las conclusiones, se destaca que, tres años después de la irrupción de ChatGPT, el profesorado sigue polarizado entre la tecnofobia y la tecnofilia. Muchos problemas que hoy se achacan a la IA (desigualdades, evaluación basada en la memorización, desajuste entre tareas y competencias) ya existían antes, pero la IA los amplifica y visibiliza. Prohibir sin más no resuelve estas tensiones; el reto es comprender qué aporta realmente a la enseñanza, al aprendizaje y a la investigación, y ponerla al servicio de un aprendizaje más profundo. Finalmente, se subraya la importancia de formar tanto al profesorado como al estudiantado en el uso crítico de la IA, promover comunidades de práctica y compartir buenas experiencias. La IA no es buena ni mala, ni neutral: su impacto dependerá de cómo la diseñemos, la gobernemos y la usemos en los contextos educativos reales.
  • Thumbnail Image
    Item
    Tres escenarios para la IA en educación: del apoyo responsable a la cocreación
    (Ediciones Universidad de Salamanca, 2025-11-13) García-Peñalvo, Francisco José
    Este artículo propone una vía pragmática y proporcionada para integrar la inteligencia artificial generativa en la educación superior mediante tres escenarios graduados por autonomía, agen-cia y riesgo (apoyo responsable, colaboración guiada y cocreación con declaración reforzada) que convierten principios amplios en decisiones docentes verificables y trazables a lo largo del ciclo docente (planificación, creación de materiales, apoyo y evaluación). El hilo conduc-tor es la inteligencia artificial como complemento bajo juicio académico, nunca sustituto, con transparencia (declaración de uso y marcado de contenido sintético), verificación externa de hechos y citas, y equidad e inclusión por diseño, en coherencia con la guía de la UNESCO (visión centrada en las personas, acciones inmediatas y refuerzo de capacidades), el AI Act (Artículo 50 sobre obligaciones de transparencia y marcado), el Safe AI in Education Manifesto (supervisión humana, privacidad, precisión, explicabilidad, transparencia) y el marco SAFE (Seguridad, Ren-dición de cuentas, Justicia y Eficacia) como puente operativo entre política y aula. En el Escena-rio 1 se priorizan bajo riesgo y alta transparencia; en el 2, la iteración trazable con post-edición humana significativa; en el 3, evidencias robustas y auditoría (prompts, versiones, verificación, sesgos/idiomas, revisión humana/pares), con controles reforzados por su mayor impacto. Este gradiente se alinea con la orientación sectorial, que promueve autenticidad, agencia y propie-dad del proceso y desaconseja depender de detectores, reforzando diseños que comprueban agencia y trazabilidad. Dos instrumentos facilitan la adopción y la evaluación homogénea. Por un lado, una rúbrica transversal (veracidad y actualidad, trazabilidad, corrección de alucinacio-nes, equidad e idioma, calidad de interacción) y, por otro lado, listas de verificación por tipo de tarea. El resultado es un mapa operativo para marcar, verificar y documentar con proporciona-lidad al riesgo, que permite convertir la inteligencia artificial en oportunidad pedagógica sin ceder en rigor, justicia y responsabilidad.
  • Thumbnail Image
    Item
    Three Scenarios for AI in Education: From Responsible Assistance to Co-Creation
    (Ediciones Universidad de Salamanca, 2025-11-13) García-Peñalvo, Francisco José
    This article proposes a pragmatic and proportionate pathway for integrating generative artificial intelligence into higher education through three scenarios graduated by autonomy, agency, and risk (responsible support, guided collaboration, and co-creation with a strengthened declaration). These scenarios convert broad principles into verifiable and traceable teaching decisions through-out the teaching cycle (planning, material creation, support, and assessment). The common thread is the use of artificial intelligence as a supplement to academic judgment, never as a substitute, with transparency (including disclosure and marking of synthetic content), external verification of facts and citations, and equity and inclusion by design. This is consistent with UNESCO’s guid-ance (a human-centred vision, immediate actions, and capacity building), the AI Act (Article 50 on transparency and marking obligations), the Safe AI in Education Manifesto (human supervision, privacy, accuracy, explainability, transparency), and the SAFE framework (Safety, Accountability, Fairness, and Efficacy) as an operational bridge between policy and the classroom. Scenario 1 prioritises low risk and high transparency; Scenario 2 focuses on traceable iteration with sig-nificant human post-editing; and Scenario 3 demands robust evidence and auditing (prompts, versions, verification, bias/language checks, human/peer review), with strengthened controls due to its higher impact. This gradient aligns with sector guidance, which promotes authenticity, agency, and ownership of the process and advises against relying on detectors, thereby reinforcing designs that verify agency and traceability. Two instruments facilitate adoption and consistent evaluation: firstly, a cross-cutting rubric (veracity and currency, traceability, correction of hallu-cinations, equity and language, and quality of interaction); and secondly, checklists for each type of task. The result is an operational map for marking, verifying, and documenting in proportion to risk, which enables artificial intelligence to be leveraged as a pedagogical opportunity without compromising on rigour, fairness, and responsibility.
  • Thumbnail Image
    Item
    Escritura científica. Buenas prácticas para publicar en revistas
    (Grupo GRIAL, 2025-11-18) García-Peñalvo, Francisco José
    Curso de formación del PDI de la Universitat de les Illes Balears, Programa de Formación del PDI 2025-26, de 4 horas síncronas de formación impartidas de forma online los días 18 y 26 de noviembre de 2025. Este curso es una guía práctica y estratégica para la publicación en revistas científicas, no solo como meta académica, sino como una herramienta para lograr visibilidad, reconocimiento y posicionamiento dentro de la comunidad científica global. Las competencias en investigación que se adquirirán están relacionadas con: • Ciencia abierta y gestión de datos de investigación. • Publicación de investigaciones y estrategias para aumentar el impacto de las publicaciones. • Ética en la investigación y prevención de sesgos. Los contenidos del curso se organizan en los siguientes epígrafes: 1. Ecosistema editorial internacional. 2. Guía práctica y estratégica para afrontar una publicación científica. 3. Inteligencia artificial en la escritura científica. 4. Aspectos éticos. 5. Conclusiones. En el ecosistema editorial se subraya que la escritura de artículos es el canal central de comunicación científica y que hacerlo bien beneficia a investigadores, instituciones y sociedad. Se conecta con la tercera misión universitaria y con la Ciencia Abierta como marco que exige identidad digital y apertura del conocimiento. La base normativa y de política científica refuerza esta orientación: la EECTI 2021-2027, la Ley 17/2022 y la LOSU (art. 12) impulsan el depósito en abierto de resultados, situando los repositorios institucionales en el centro; además, se explican rutas verde, dorada y diamante del acceso abierto, y se advierte sobre derechos de autor y políticas editoriales (Sherpa/RoMEO, Dulcinea). La guía práctica arranca antes de escribir: planificar preguntas, diseño experimental, registros y verificación de resultados; escribir claro en un contexto de “sobredosis de información”. Se aconseja prosa sencilla, evitar jerga, y que cada elemento (sección, figura, tabla) sea comprensible por sí mismo. Se piden acuerdos de autoría explícitos y transparentes: solo quien contribuye firma, todos responden por el contenido, y se recomienda usar la taxonomía CRediT para declarar contribuciones. Se recuerda que autores honorarios y autoría fantasma son prácticas indebidas. Sobre el ecosistema de escritura, se sugiere definir plataforma y flujo de trabajo colaborativo con control de versiones, gestor bibliográfico (p. ej., Zotero/EndNote), y un cronograma claro. El borrador se organiza siguiendo IMRaD y un orden de redacción eficiente. Se detallan criterios para título, introducción, métodos, resultados y discusión; además, se dan pautas para conclusiones (no introducir información nueva), agradecimientos, y para un resumen eficaz (200-300 palabras) y palabras clave pertinentes. También se subraya el cuidado en citas y referencias, cumpliendo estrictamente el estilo de la revista. En IA generativa, se enfatiza el uso ético, la transparencia y la declaración de su empleo más allá de la ayuda estilística o de traducción. Se advierte del “plagio por IA” y del riesgo de alucinaciones (incluida la fabricación de citas). El bloque ético aborda la mala conducta científica: plagio y autoplagio, fabricación y falsificación de datos, con consecuencias graves (rechazos y retractaciones). Se invita a una práctica responsable, veraz y transparente. Finalmente, se ofrecen criterios de selección de revistas y una estrategia de envío, en un contexto donde las evaluaciones se desplazan del “medio” al mérito de la aportación.
  • Thumbnail Image
    Item
    LAMB: Creando asistentes virtuales educativos sin programar
    (Servicio de Publicaciones Universidad de Zaragoza, 2025-06-11) Alier-Forment, Marc; Pereira, Juanan; Casañ, María José; García-Peñalvo, Francisco José
    LAMB (Learning Assistants Manager and Builder) es una plataforma de código abierto que permite al profesorado diseñar, desplegar e integrar asistentes de aprendizaje en sistemas como Moodle sin necesidad de programar. Estos asistentes se diferencian de los chatbots genéricos porque el docente controla su comportamiento, limita las respuestas a fuentes que él mismo selecciona y recibe aporta las citas correspondientes. LAMB se integra sin problemas en el LMS institucional via el estándar IMS LTI, mantiene los datos del alumnado dentro del marco de privacidad europeo y funciona tanto con modelos locales como con servicios en la nube. LAMB ofrece a los centros educativos una vía asequible y viable para incorporar tutorías basadas en IA sin perder la soberanía pedagógica ni la protección de los datos..
  • Thumbnail Image
    Item
    Inteligencia Artificial Generativa en Investigación
    (Servicio de Publicaciones Universidad de Zaragoza, 2025-06-11) García-Peñalvo, Francisco José; Fonseca, David
    Taller impartido en la VIII Edición del Congreso Internacional sobre Innovación, Aprendizaje y Cooperación, CINAIC 2025. La Inteligencia Artificial Generativa se ha consolidado como una herramienta de uso extendido en múltiples ámbitos, incluyendo el académico, y tiene impacto en todas las funciones universitarias. En el contexto de la investigación, su presencia puede abarcar todas las fases del proceso: desde la formulación de propuestas y la revisión del estado de la cuestión, hasta la redacción de artículos científicos y la difusión de resultados a la comunidad académica y a la sociedad. La prohibición de estas herramientas no resulta una estrategia realista ni eficaz. Por tanto, se hace imprescindible comprender su potencial, sus limitaciones y los principios éticos que deben guiar su integración responsable en la práctica investigadora. Este taller ofrece una reflexión crítica y práctica sobre el uso de la IA generativa en investigación, promoviendo un enfoque ético, informado y productivo.
  • Thumbnail Image
    Item
    La Inteligencia Artificial Generativa como facilitadora de la atención a la Diversidad en Educación
    (Servicio de Publicaciones Universidad de Zaragoza, 2025-06-11) Fonseca, David; García-Peñalvo, Francisco José
    Taller impartido en la VIII Edición del Congreso Internacional sobre Innovación, Aprendizaje y Cooperación, CINAIC 2025. Gracias a los actuales procesos diagnósticos, cada vez en más cantidad, y más pronto, se identifican a los estudiantes afectados por todo tipo de trastornos mentales y situaciones que afectan a su aprendizaje, lo que conocemos como trastornos del aprendizaje. En este sentido, las instituciones educativas han desarrollado e implementado, en mayor o menor medida, políticas que ayudan a atender y mejorar la inclusión de estos perfiles. No obstante, la implementación de dichas políticas suele ser compleja o controvertida en determinadas materias, siendo un nicho de oportunidad para el uso de la Inteligencia Artificial Generativa como método de soporte en la creación, adaptación e incluso evaluación de materiales y estudiantes. En este sentido, la IA generativa brinda una oportunidad para mejorar la inclusión en nuestras aulas a partir de mejorar los actuales formatos educativos y evaluativos en ejecución.
  • Thumbnail Image
    Item
    Gincanas y búsqueda del tesoro en el proyecto HerStory: descubriendo la historia de las mujeres en Salamanca
    (Servicio de Publicaciones Universidad de Zaragoza, 2025-06-11) Verdugo-Castro, Sonia; García-Holgado, Alicia; García-Silva, Erika; García-Holgado, Lucía; García-Peñalvo, Francisco José
    La forma en que se ha contado la historia, desde una perspectiva androcéntrica, ha invisibilizado las contribuciones de las mujeres, perpetuando estereotipos de género y referentes culturales desiguales. En torno a esta problemática, el proyecto HerStory busca dar visibilidad a las mujeres a lo largo de la historia en diferentes ciudades europeas. El presente trabajo presenta la experiencia educativa desarrollada en Salamanca centrada en la implementación de gincanas y actividades de búsqueda del tesoro con enfoque de género. A través de un diseño metodológico basado en la gamificación, la exploración del entorno local y el aprendizaje experiencial, se han llevado a cabo tres gincanas con público de diferentes géneros y edades. Los resultados evidencian un impacto educativo favorable y una valoración positiva por parte de las personas participantes. La propuesta destaca por su sostenibilidad, accesibilidad tecnológica y potencial de transferibilidad a otros contextos educativos y culturales. Esta iniciativa supone una buena práctica para potenciar el conocimiento sobre la huella de las mujeres en las ciudades.
  • Thumbnail Image
    Item
    MOOCs para el desarrollo de competencias en prácticas remotas universitarias: Formación para la empleabilidad
    (Servicio de Publicaciones Universidad de Zaragoza, 2025-06-11) García-Holgado, Lucía; Verdugo-Castro, Sonia; Pinto-Llorente, Ana María; del Brío Nieto, Alba María; García-Peñalvo, Francisco José
    El trabajo remoto y la transformación digital han reconfigurado el escenario de las prácticas universitarias. Mediante el desarrollo de una serie de grupos focales y encuestas, se ha detectado la importancia de formar al estudiantado en habilidades digitales y competencia trasversales como la autonomía, la comunicación y la motivación. En este contexto, el proyecto europeo PREVIEW apuesta por un modelo innovador de prácticas a distancia acompañado de formación específica a través de MOOCs. En este artículo se presenta el diseño y desarrollo de tres cursos en línea para dotar al alumnado de las competencias necesarias para afrontar prácticas remotas en este nuevo contexto
  • Thumbnail Image
    Item
    Evaluación de competencias socioemocionales en el trabajo en equipo a partir de interacciones reales: una rúbrica con apoyo de inteligencia artificial basada en el modelo CTMTC
    (Servicio de Publicaciones Universidad de Zaragoz, 2025-06-11) Fidalgo-Blanco, Ángel; García-Peñalvo, Francisco José; Sein-Echaluce, María Luisa; Wang, Ningjing; Zhang, Xingyue
    Este trabajo presenta el análisis de una rúbrica diseñada para evaluar competencias socioemocionales en contextos de trabajo en equipo. La propuesta se enmarca en el modelo Comprehensive Training Model of the Teamwork Competence, que contempla el desarrollo grupal, las capacidades individuales y las habilidades socioemocionales como dimensiones complementarias de la competencia de trabajo en equipo. La rúbrica se aplicó al análisis de las interacciones reales entre los miembros de ocho equipos de estudiantes universitarios, en tres momentos clave del proceso colaborativo: elección del coordinador, elaboración de la normativa y reparto de tareas. A partir de estas evidencias, se evaluaron siete dimensiones: responsabilidad, empatía, cooperación, comunicación, iniciativa, apoyo/ayuda y flexibilidad/adaptación. Los resultados muestran una evolución positiva de las competencias socioemocionales a lo largo del trabajo en equipo y una alta consistencia interna de la rúbrica. La herramienta permite realizar un seguimiento formativo durante el desarrollo del equipo, aportando indicadores que orientan la intervención docente. Se concluye que este enfoque es válido para analizar de forma continua y precisa el comportamiento grupal en entornos educativos digitales.
Creative Commons Attribution-NonCommercial-ShareAlike 4.0 Unported