Conferences
Permanent URI for this collectionhttps://repositorio.grial.eu/handle/123456789/13
Browse
369 results
Search Results
Item IA en Educación: Tres escenarios clave para aplicar la IA en la práctica docente(Grupo GRIAL, 2025-11-19) García-Peñalvo, Francisco JoséConferencia plenaria invitada de 1 hora de duración impartida en las XII Jornadas Iberoamericanas de Innovación Educativa en el ámbito de las TIC y las TAC - InnoEducaTIC 2025, celebradas del 19 al 21 de noviembre de 2025 en el Edificio de Electrónica y Telecomunicación de la Universidad de Las Palmas de Gran Canaria, ubicado en el Campus Universitario de Tafira. Esta conferencia se impartió en modo online el 19 de noviembre. Se presenta un recorrido estructurado sobre cómo integrar la inteligencia artificial generativa (IAGen) en la educación desde una perspectiva crítica, apoyándose en marcos internacionales y desembocando en tres escenarios de uso para la práctica docente. Se inicia recordando qué es la IA y, en concreto, la IAGen: sistemas capaces de generar contenido sintético original (texto, imágenes, audio, vídeo, código…) con calidad suficiente como para convertirse en material docente o en productos entregables de los estudiantes, difíciles de detectar como generados por máquinas. Tras una breve aclaración de conceptos (IA, modelos de lenguaje masivos, parámetros, ventana de contexto), se plantea el cambio de escala que suponen los LLM y su rápida cronología reciente. A partir de ahí, se introduce el impacto específico en educación: generación automática de contenidos en múltiples formatos, que abre oportunidades, pero también refuerza el problema de la detección y la autoría real de los trabajos. Se señala que la educación no ha quedado al margen del ruido mediático: abundan visiones catastrofistas (la IA destruirá la escuela o anulará la originalidad) y visiones ingenuamente entusiastas (la IA como solución mágica a todos los problemas). Se menciona el “dilema de Prometeo”: ¿tiene sentido prohibir la IAGen como medida de protección, dado su carácter de caja negra y su tendencia a alucinar, o debemos aprender a convivir con ella? Esta tensión está en el fondo del debate educativo actual. Uno de los mensajes centrales es que el estudiantado ya usa estas herramientas en todos los niveles educativos. Los datos recientes sobre educación superior muestran un aumento constante del uso por parte de estudiantes, docentes y administradores, así como un cambio en la carga de trabajo del profesorado: disminuye el tiempo dedicado a diseñar materiales o responder correos, pero aumenta la vigilancia del fraude y la necesidad de rediseñar la evaluación. La pregunta ya no es “si las usarán”, sino “cómo las estamos integrando”. A continuación, se abordan los riesgos específicos, especialmente las alucinaciones: respuestas plausibles pero falsas, contradicciones internas, errores lógicos, invención de citas bibliográficas, etc. Estas limitaciones se conectan con el “mito de la muerte de la originalidad”: la IA permite trabajos formalmente originales que no proceden del esfuerzo del estudiante, facilitando un aprendizaje superficial y amenazando la autoría genuina si se emplea de modo acrítico. Ante esta realidad, muchas instituciones consideran el texto generado íntegramente por IA sin reconocimiento como una forma de plagio. Se está transitando hacia modelos en los que se aceptan ciertos usos, pero con regulación ética y exigencia de transparencia. Se propone, como mínimo, una declaración explícita del uso de IA que describa herramientas empleadas, propósitos, instrucciones clave y cómo se ha adaptado el resultado. Se muestran ejemplos concretos de la Universidad de Monash, que ilustran buenas prácticas para incluir este reconocimiento en los trabajos académicos. Sobre esta base se introduce la alfabetización crítica en IA: no basta con saber manejar herramientas, sino con situar su uso dentro de valores y prácticas académicas. Se resumen cuatro ideas operativas: verificar antes de adoptar; garantizar equidad e inclusión; mantener la agencia humana explícita en la toma de decisiones; y asegurar transparencia y rendición de cuentas documentando el uso de IA. Estos principios se articulan con varios marcos de referencia: las orientaciones de la UNESCO, el Reglamento Europeo de IA (AI Act), el marco SAFE (Safe, Accountable, Fair, Explainable) y el Manifiesto Safe AI in Education, que insiste en la supervisión humana, la confidencialidad, la precisión y la explicabilidad. Se pasa después a una dimensión más práctica: la “caja de herramientas” de IA en educación (transcripción, generación de texto, imagen, audio, vídeo, infografías, presentaciones, chatbots multimodales…). Se insiste en que la calidad de la respuesta depende del prompt y del contexto que se aporta al modelo; un mejor contexto permite respuestas más útiles y ajustadas. Esto es pedagógicamente relevante, porque el proceso de diálogo con el sistema y la calidad de las preguntas tienen valor formativo en sí mismos. El núcleo de la conferencia es la propuesta de tres escenarios de uso de la IA en educación. El primero, apoyo responsable, se centra en el uso de la IA por parte del profesorado como herramienta de preparación y apoyo (generar materiales, reformular explicaciones, diseñar actividades) con bajo riesgo si se mantiene la agencia docente, se respeta la privacidad y se declara el uso. El segundo, colaboración guiada, incorpora la IA como parte de las actividades del estudiantado, pero con una fuerte guía del profesorado, énfasis en la evaluación auténtica y prioridad al proceso (versiones, iteraciones, trabajo en clase) frente al producto final. El tercero, cocreación con declaración de uso reforzada, contempla un uso más autónomo de la IA por parte del estudiantado en productos de alto impacto (TFG/TFM, recursos abiertos), con riesgos mayores que se compensan exigiendo trazabilidad completa, transparencia, equidad en el acceso y revisión rigurosa. En las conclusiones, se destaca que, tres años después de la irrupción de ChatGPT, el profesorado sigue polarizado entre la tecnofobia y la tecnofilia. Muchos problemas que hoy se achacan a la IA (desigualdades, evaluación basada en la memorización, desajuste entre tareas y competencias) ya existían antes, pero la IA los amplifica y visibiliza. Prohibir sin más no resuelve estas tensiones; el reto es comprender qué aporta realmente a la enseñanza, al aprendizaje y a la investigación, y ponerla al servicio de un aprendizaje más profundo. Finalmente, se subraya la importancia de formar tanto al profesorado como al estudiantado en el uso crítico de la IA, promover comunidades de práctica y compartir buenas experiencias. La IA no es buena ni mala, ni neutral: su impacto dependerá de cómo la diseñemos, la gobernemos y la usemos en los contextos educativos reales.Item Escritura científica. Buenas prácticas para publicar en revistas(Grupo GRIAL, 2025-11-18) García-Peñalvo, Francisco JoséCurso de formación del PDI de la Universitat de les Illes Balears, Programa de Formación del PDI 2025-26, de 4 horas síncronas de formación impartidas de forma online los días 18 y 26 de noviembre de 2025. Este curso es una guía práctica y estratégica para la publicación en revistas científicas, no solo como meta académica, sino como una herramienta para lograr visibilidad, reconocimiento y posicionamiento dentro de la comunidad científica global. Las competencias en investigación que se adquirirán están relacionadas con: • Ciencia abierta y gestión de datos de investigación. • Publicación de investigaciones y estrategias para aumentar el impacto de las publicaciones. • Ética en la investigación y prevención de sesgos. Los contenidos del curso se organizan en los siguientes epígrafes: 1. Ecosistema editorial internacional. 2. Guía práctica y estratégica para afrontar una publicación científica. 3. Inteligencia artificial en la escritura científica. 4. Aspectos éticos. 5. Conclusiones. En el ecosistema editorial se subraya que la escritura de artículos es el canal central de comunicación científica y que hacerlo bien beneficia a investigadores, instituciones y sociedad. Se conecta con la tercera misión universitaria y con la Ciencia Abierta como marco que exige identidad digital y apertura del conocimiento. La base normativa y de política científica refuerza esta orientación: la EECTI 2021-2027, la Ley 17/2022 y la LOSU (art. 12) impulsan el depósito en abierto de resultados, situando los repositorios institucionales en el centro; además, se explican rutas verde, dorada y diamante del acceso abierto, y se advierte sobre derechos de autor y políticas editoriales (Sherpa/RoMEO, Dulcinea). La guía práctica arranca antes de escribir: planificar preguntas, diseño experimental, registros y verificación de resultados; escribir claro en un contexto de “sobredosis de información”. Se aconseja prosa sencilla, evitar jerga, y que cada elemento (sección, figura, tabla) sea comprensible por sí mismo. Se piden acuerdos de autoría explícitos y transparentes: solo quien contribuye firma, todos responden por el contenido, y se recomienda usar la taxonomía CRediT para declarar contribuciones. Se recuerda que autores honorarios y autoría fantasma son prácticas indebidas. Sobre el ecosistema de escritura, se sugiere definir plataforma y flujo de trabajo colaborativo con control de versiones, gestor bibliográfico (p. ej., Zotero/EndNote), y un cronograma claro. El borrador se organiza siguiendo IMRaD y un orden de redacción eficiente. Se detallan criterios para título, introducción, métodos, resultados y discusión; además, se dan pautas para conclusiones (no introducir información nueva), agradecimientos, y para un resumen eficaz (200-300 palabras) y palabras clave pertinentes. También se subraya el cuidado en citas y referencias, cumpliendo estrictamente el estilo de la revista. En IA generativa, se enfatiza el uso ético, la transparencia y la declaración de su empleo más allá de la ayuda estilística o de traducción. Se advierte del “plagio por IA” y del riesgo de alucinaciones (incluida la fabricación de citas). El bloque ético aborda la mala conducta científica: plagio y autoplagio, fabricación y falsificación de datos, con consecuencias graves (rechazos y retractaciones). Se invita a una práctica responsable, veraz y transparente. Finalmente, se ofrecen criterios de selección de revistas y una estrategia de envío, en un contexto donde las evaluaciones se desplazan del “medio” al mérito de la aportación.Item AI in the Research Lifecycle(GRIAL Research Group, 2025-10-21) García-Peñalvo, Francisco José; Vázquez-Ingelmo, AndreaThe Workshop on AI in the Research Lifecycle was held on October 21, 2025, at the 13th Technological Ecosystems for Enhancing Multiculturality (TEEM) conference, which took place at the Research Institute for Educational Sciences (IUCE) of the Universidad de Salamanca from October 21 to 24, 2025, and lasted one hour. AI in the Research Lifecycle offers a critical, practice-oriented tour of how generative AI (GenAI) can responsibly augment research from ideation to dissemination. The session begins by situating GenAI as the branch of AI driving today’s disruption and clarifies why its everyday integration represents a qualitative inflection point for knowledge work. It then sets a clear objective: to foster ethical, well-informed, and productive research practices when deploying GenAI. A unifying framework maps GenAI support to each stage of the research cycle (idea formation, proposal writing, state-of-the-art reviews, data collection, coding and analysis, reporting, publishing, and communication) while emphasizing that prompt quality and contextual grounding are decisive for output quality (illustrated by the prompt–context–response schema). Concrete exemplars show how to: 1) brainstorm and structure objectives and hypotheses; 2) interrogate papers with targeted questions; 3) run “deep research” workflows for evidence-bound drafts; 4) convert and manage references (APA/BibTeX); 5) analyze public datasets with transparent code; and 6) generate outreach artifacts such as spotlights, slides, and infographics. The deck also inventories current multimodal tools (text, audio, image, video) and introduces practical pipelines, for instance, transforming recorded interviews into analyzable text and word-cloud summaries with GenAI assistance. Ethics and transparency are treated as first-class concerns rather than afterthoughts. The talk operationalizes four principles for responsible use: Reliability, Honesty, Respect, and Accountability, and aligns them with actionable practices, such as, disclose tool use and methods; verify and reproduce claims; protect privacy and intellectual property; and maintain human agency and oversight. In literature workflows, the session recommends pairing general LLMs (for example, ChatGPT) with research-oriented tools (for example, Elicit, Consensus, SciSpace), while insisting on critical appraisal: do not accept outputs without checking consistency against the best available evidence, apply informal and formal logic, and verify compatibility with prior knowledge. The conclusions balance opportunity and caution. GenAI demonstrably increases efficiency and expands the researcher’s toolkit, yet current limitations, especially around data and provenance traceability, demand measured adoption, explicit acknowledgments, and rigorous review. Used wisely, GenAI automates the repetitive and accelerates exploration, freeing researchers to focus on creativity, judgment, and intellectual autonomy, without displacing the essential human capacities that make research scientific.Item Enseñanza con IA Generativa: Desafíos en Salud e Ingeniería(Grupo GRIAL, 2025-09-05) García-Peñalvo, Francisco JoséSeminario de 2 horas de duración impartido en el Salón de Actos de la Facultad de Ciencias de la Salud de la Universidad de Burgos el viernes 5 de septiembre de 2025, organizado por el GIR DATAHES, UIC JCYL N.º 348 y GID B-LCS. Los objetivos específicos del seminario son: 1. Concienciar sobre el uso ético y responsable de la IA generativa en contextos educativos, especialmente en áreas sensibles como la salud y la ingeniería. 2. Presentar el marco del AI Safe in Education Manifesto y otros referentes internacionales como base de buenas prácticas en la docencia. 3. Explorar herramientas de IA generativa actuales y mapear actividades docentes donde profesores y estudiantes puedan integrarlas de manera segura y productiva. 4. Fomentar el debate crítico y reflexivo entre docentes y estudiantes para identificar riesgos, oportunidades y estrategias de implementación responsable. Se propone una hoja de ruta práctica para un uso responsable y eficaz de la IAGen en educación superior. Parte de una alfabetización crítica: qué es la IAGen, cómo funciona (modelos, datos y límites), cuáles son sus riesgos (sesgos, alucinaciones, dependencia) y qué significa evaluar calidad y trazar responsabilidad humana. Introduce técnicas de prompting y el patrón de “deep research” para fundamentar contenidos y decisiones docentes. En el eje normativo-ético, se sintetizan las directrices de la UNESCO (visión humanocéntrica, capacidad institucional y desarrollo docente), el marco regulatorio europeo (EU AI Act, enfoque basado en riesgos y obligaciones de transparencia y documentación) y el marco SAFE de EDSAFE AI (Seguridad, Accountability, Equidad, Eficacia), además del Safe AI in Education Manifesto como guía de principios operativos y compromiso institucional. Estas referencias sirven para alinear políticas de centro, prácticas de aula y diseño de materiales con estándares internacionales y obligaciones legales. El “mapa de actividades” organiza usos de IAGen por fases del ciclo docente: 1) planificación (análisis de resultados de aprendizaje, detección de riesgos y datos necesarios); 2) creación de materiales (guiones de clase, casos, cuestionarios, visualizaciones con trazabilidad y citación de fuentes); 3) apoyo al aprendizaje (tutoría guiada por rúbricas, andamiaje y metacognición); 4) evaluación auténtica (diseños que preservan agencia humana, criterios de divulgación y registro del uso de IA). Se acompañan catálogos de herramientas actuales (LLM generalistas, verificadores y buscadores académicos, copilotos de código, generadores de imágenes con C2PA, gestores de referencias) y pautas de adopción segura.Item Transformando lo público: IA y gestión administrativa del siglo XXI(Grupo GRIAL, 2025-07-24) García-Peñalvo, Francisco JoséLa conferencia “Transformando lo público: IA y gestión administrativa del siglo XXI” se impartió en el 24 de julio de 2025 dentro del Curso de Verano “Aplicaciones y desafíos de la inteligencia artificial en el ámbito público” de la Universidad de Burgos, celebrado del 23 al 25 de julio de 2025. La inteligencia artificial (IA) está transformando de forma acelerada la manera en que se organiza y gestiona la Administración pública. Esta conferencia ofrece una panorámica sobre cómo la IA generativa, especialmente, está posicionándose en el centro de los procesos de transformación digital del sector público. En primer lugar, se contextualiza la evolución de la IA desde sus etapas pre-generativas, basadas en modelos estadísticos y algoritmos clásicos, hasta el auge de los modelos generativos actuales, capaces de razonar, generar texto, código o imágenes, y asistir en tareas complejas. Se destacan tres fases clave: el auge de los modelos de lenguaje (2022–2023), la incorporación de capacidades de razonamiento multimodal (2024), y la irrupción de los sistemas agénticos (2025), capaces de actuar de forma casi autónoma con mínima intervención humana. La charla pone el foco en cómo estas tecnologías afectan específicamente al sector público. La automatización de tareas burocráticas, como el procesamiento de expedientes o la redacción de documentos, ya es una realidad en ámbitos como la sanidad o la gestión administrativa, liberando tiempo para tareas de mayor valor humano como el diagnóstico clínico o la atención ciudadana personalizada. Sin embargo, el impacto de la IA no es neutral. Se señalan riesgos como la pérdida de autoría, el uso inadecuado, la dependencia tecnológica, los sesgos, o la inequidad en el acceso. Por ello, se subraya la necesidad de una gobernanza de la IA que equilibre la innovación con principios como la legalidad, la transparencia, la neutralidad y la promoción del interés público. Se presenta una matriz de gobernanza que cruza estos principios con las fases de generación del conocimiento (datos, algoritmos, usos), basada en normativas como el GDPR y el AI Act. La conferencia concluye con una llamada a la formación especializada del personal público. Aunque la IA generativa parece accesible, su aprovechamiento real requiere competencias éticas, dominio conceptual y conocimiento de herramientas. Sin una preparación adecuada, la tecnología puede convertirse en una fuente de errores, dependencia o frustración. En definitiva, se propone ver la IA no como una amenaza, sino como una herramienta estratégica para mejorar la eficiencia, la equidad y la calidad del servicio público en el siglo XXI, siempre que se utilice con inteligencia, responsabilidad y visión a largo plazo.Item IA Generativas aplicadas a la investigación(Grupo GRIAL, 2025-06-30) García-Peñalvo, Francisco José; Conde, Miguel ÁngelEl curso “IA Generativas aplicadas a la investigación” (FPU1576) se impartió de forma presencial el 30 de junio de 2025 en la Universidad de León, dentro de su Programa de Formación del Profesorado para el curso 2024-2025, de 4 horas de duración. La presentación aborda el impacto y las aplicaciones prácticas de la inteligencia artificial generativa (IAGen) en los procesos de investigación académica. Comienza contextualizando el papel de la IAGen en la sociedad del conocimiento y su inclusión en el marco europeo de competencias digitales para la ciudadanía (DigComp). Se destaca cómo estas herramientas están transformando tanto la docencia como la producción científica. A continuación, se introducen diferentes herramientas de IA generativa, diferenciando entre modelos de lenguaje de propósito general, como ChatGPT, Claude o Gemini, y herramientas especializadas en escritura académica, traducción, programación, minería de textos o generación de imágenes. Se enfatiza la importancia de elegir la herramienta adecuada según el contexto y el tipo de tarea. Una parte central del taller se dedica a explicar cómo aprovechar la IAGen en las distintas fases del proceso investigador: desde la ideación y el diseño del proyecto, pasando por la búsqueda y organización de información, hasta la redacción, revisión y publicación de resultados. Se proponen actividades prácticas con prompts orientados a generar ideas de investigación, sintetizar bibliografía, mejorar la redacción científica o transformar textos en varios estilos. También se exploran casos de uso con herramientas específicas como Scite, Elicit, Perplexity o Research Rabbit, que permiten navegar la literatura científica de forma más eficiente, automatizar tareas repetitivas y fomentar nuevas formas de análisis bibliográfico. Asimismo, se aborda el uso de la IAGen en la escritura científica y la evaluación de la calidad de textos académicos, incluyendo recomendaciones sobre ética, transparencia y citación de herramientas IA. En este sentido, se hace hincapié en la necesidad de uso crítico y reflexivo de la tecnología. Por último, se presentan retos y oportunidades derivados de la integración de la IAGen en la investigación, entre ellos la redefinición de la autoría, la reproducibilidad científica y la capacitación del personal investigador. El taller finaliza con una invitación al debate sobre el papel transformador de estas tecnologías en la academia.Item Taller: Inteligencia Artificial Generativa en Investigación(Grupo GRIAL, 2025-06-12) García-Peñalvo, Francisco JoséEl Taller sobre Inteligencia Artificial Generativa en Investigación se celebró el 12 de junio de 2025 en la VIII Edición del Congreso Internacional sobre Innovación, Aprendizaje y Cooperación, CINAIC 2025, celebrado en la Escuela Técnica Superior de Ingenieros de Minas y Energía de la Universidad Politécnica de Madrid del 11 al 13 de junio de 2025, con una hora de duración. Se ofrece una visión crítica y aplicada del papel de la IA generativa (IAGen) en el ciclo completo de la investigación académica. Desde una perspectiva ética y práctica, se analiza cómo estas tecnologías están transformando cada etapa del proceso investigador, desde la generación de ideas hasta la difusión de resultados, fomentando un uso reflexivo y responsable. El. taller inicia con una contextualización del impacto disruptivo de la IAGen, destacando su capacidad para producir contenido sintético de calidad en múltiples formatos. Esta tecnología, ahora integrada en la vida cotidiana y profesional, plantea enormes oportunidades, pero también desafíos en cuanto a fiabilidad, transparencia y autoría. La sesión se articula en torno a un esquema visual del flujo de investigación, donde se identifican las fases clave, idea, objetivos, propuesta, revisión del estado de la cuestión, recolección y análisis de datos, escritura, publicación y comunicación, y se asocian a funciones que la IAGen puede desempeñar en cada una (por ejemplo, generador de ideas, selector de artículos, generador de código o redactor/editor). Cada fase se acompaña de actividades prácticas con herramientas como ChatGPT, Gemini, Elicit, Perplexity, Scholarcy o SCISpace, utilizadas para redactar hipótesis, generar líneas de investigación, sintetizar propuestas, resumir artículos y responder preguntas complejas. Las dinámicas fomentan tanto la eficiencia como el pensamiento crítico, mostrando cómo la IA puede asistir sin reemplazar al investigador. Una parte destacada se dedica a la ética y la transparencia. Se presentan principios propuestos por organismos europeos y ejemplos de buenas prácticas como los de la Universidad de Monash, subrayando la importancia de reconocer explícitamente el uso de IAGen, justificar su aplicación y asumir responsabilidad por los resultados. La sesión culmina con una reflexión sobre los peligros del uso acrítico de estas tecnologías. Se advierte contra el relato excesivamente optimista o engañoso y se propone un modelo de uso que potencie la autonomía, la creatividad y la calidad investigadora. La metáfora final de la cristalización del conocimiento colectivo simboliza cómo la IAGen, bien aplicada, puede convertirse en una herramienta para proyectar la investigación hacia el futuro.Item Inteligencia artificial generativa en docencia y la investigación: impacto, estrategias y ética en la práctica(Grupo GRIAL, 2025-06-05) García-Peñalvo, Francisco JoséCurso impartido en el ICE de la Universidad Politécnica de Madrid (ETSI Caminos) el 5 y 6 de junio de 2025 dentro del Plan de Formación del Profesorado del Curso 2024-2025. La inteligencia artificial generativa (IAGen) está transformando la educación superior, impactando tanto en la docencia como en la investigación. Herramientas como ChatGPT, DALL·E, Deepseek, Gemini, Claude y otros modelos de generación de contenido abren nuevas posibilidades para la enseñanza, el aprendizaje y la producción académica, pero también plantean desafíos éticos, metodológicos y estratégicos que docentes e investigadores deben conocer y gestionar. Este curso presencial de 8 horas ofrece una perspectiva práctica sobre la integración de la IAGen en el ámbito académico. A través de talleres interactivos y debates, exploraremos el impacto de estas tecnologías en la enseñanza y la investigación, proporcionando herramientas y estrategias para su uso responsable y efectivo. En el ámbito de la docencia, la IAGen puede actuar como un asistente para la creación de materiales educativos, el diseño de actividades personalizadas y la evaluación del aprendizaje. Sin embargo, también plantea cuestiones sobre la originalidad del trabajo de los estudiantes, la necesidad de nuevas competencias digitales en el profesorado y los riesgos asociados al uso indiscriminado de estas herramientas. Este curso abordará cómo los docentes pueden aprovechar la IA sin comprometer la calidad y la ética en la enseñanza. En el campo de la investigación, la IAGen está facilitando la redacción de textos científicos, la síntesis de información y la exploración de nuevos enfoques en distintas disciplinas. No obstante, su uso también suscita preocupaciones sobre la veracidad de los datos, la integridad académica y los posibles sesgos en los modelos de IA. A lo largo del curso, analizaremos cómo los investigadores pueden incorporar estas tecnologías sin comprometer la rigurosidad y el pensamiento crítico en sus trabajos. Además del impacto técnico y práctico, este curso pondrá un fuerte énfasis en la ética y la regulación de la IAGen. Discutiremos los límites de su uso en el ámbito académico, las normativas emergentes y las mejores prácticas para garantizar un empleo transparente y responsable de estas herramientas. A través de una combinación de sesiones teóricas, actividades prácticas y discusiones en grupo, este curso proporcionará a los participantes una comprensión profunda y aplicable de la IAGen en la academia. Al finalizar, los docentes e investigadores no solo habrán adquirido conocimientos práctica, sino que, lo más importante, también contarán con estrategias para integrar estas tecnologías de manera ética y efectiva en su labor académica. Los objetivos específicos del curso son: 1. Comprender el impacto de la IA generativa en la educación superior Analizar cómo la inteligencia artificial generativa está transformando la docencia y la investigación, identificando tanto sus oportunidades como sus desafíos en el ámbito académico. 2. Explorar aplicaciones prácticas de la IA generativa en la docencia Identificar y experimentar con herramientas de IA generativa para la creación de materiales educativos, el diseño de actividades interactivas y la evaluación del aprendizaje, garantizando su uso pedagógico adecuado. 3. Desarrollar estrategias para el uso responsable de la IA en la investigación Examinar cómo la IA generativa puede facilitar la redacción académica, la síntesis de información y el análisis de datos, asegurando la integridad científica y el rigor metodológico en los procesos de investigación. 4. Fomentar el pensamiento crítico y la ética en el uso de la IA generativa Reflexionar sobre las implicaciones éticas del uso de la IA generativa en la academia, abordando temas como la seguridad, el plagio, la originalidad, la transparencia y los sesgos en los modelos de IA. 5. Conocer el marco normativo y las mejores prácticas en el uso de IA generativa Explorar regulaciones, recomendaciones y guías institucionales emergentes sobre el uso de la IA en la educación superior, con el fin de promover un uso alineado con estándares académicos y éticos. 6. Diseñar estrategias personalizadas para la integración de la IA en la labor académica Facilitar la creación de planes de acción individuales para que los participantes puedan implementar la IA generativa en su enseñanza o investigación de manera efectiva y adaptada a sus necesidades específicas. Los contenidos del seminario son: 1. Bloque I: Expectativas, ética y marco normativo. 2. Bloque II: Fundamentos de la IAGen. 3. Bloque III. Docencia universitaria con IAGen. 4. Bloque IV: Investigación académica con IAGen 5. Bloque V: Estrategias y conclusiones.Item ¿Cómo realizar una revisión sistemática de literatura?(Grupo GRIAL, 2025-06-05) García-Peñalvo, Francisco JoséCurso impartido en el ICE de la Universidad Politécnica de Madrid (ETSI Caminos) el 5 de junio de 2025 dentro del Plan de Formación del Profesorado del Curso 2024-2025. El sentido principal de esta acción formativa es introducir a los investigadores en la realización de revisiones sistemáticas de literatura o SLR (Systematic Literature Review). Se parte de la necesidad de realizar revisiones de literatura para conocer el estado de la cuestión, distinguiendo el concepto de revisión del de revisión sistemática. Hay varios tipos de revisiones sistemáticas que se presentan y se inciden en los dos tipos más utilizados, la revisión sistemática y los mapeos de literatura. Una vez que se tienen los conceptos básicos se introducen los marcos metodológicos de referencia para realizar las revisiones sistemáticas. Se describen en detalle las tres grandes fases de una revisión sistemática (planificación, realización e informe). Se termina con un sencillo caso de estudio de un mapeo sistemática de literatura. Los objetivos específicos del curso son: 1. Conocer qué se entiende por revisión sistemática de literatura. 2. Evaluar el esfuerzo necesario para realizar una revisión sistemática de literatura. 3. Planificar una revisión sistemática de literatura. 4. Realizar una revisión sistemática de literatura. 5. Plasmar el trabajo realizado en un informe o artículo de investigación. Los contenidos del seminario son: 1. Introducción a las revisiones sistemáticas 2. Revisiones sistemáticas de literatura vs. Revisiones de mapeo de literatura y Revisiones de alcance 3. Marcos metodológicos de referencia para la realización de revisiones sistemáticas de literatura 4. Fase de planificación 5. Fase de realización 6. Fase de informe 7. Caso de estudio 8. Bibliometrix 9. Colección de flujos de trabajo y herramientas para realizar revisiones de literatura 10. ConclusionesItem Research conversation with CLEHN Lab(GRIAL reserarch group, 2025-05-16) García-Peñalvo, Francisco José; Rodríguez-Conde, María JoséResearch coversation with Le Laboratoire Communication, Linguistique, Éducation et Humanités (CLEHN) of the Mohamed Premiere University at Oujda.