GRIAL resources
Permanent URI for this communityhttps://repositorio.grial.eu/handle/123456789/1
Browse
6 results
Search Results
Item IA en Educación: Tres escenarios clave para aplicar la IA en la práctica docente(Grupo GRIAL, 2025-11-19) García-Peñalvo, Francisco JoséConferencia plenaria invitada de 1 hora de duración impartida en las XII Jornadas Iberoamericanas de Innovación Educativa en el ámbito de las TIC y las TAC - InnoEducaTIC 2025, celebradas del 19 al 21 de noviembre de 2025 en el Edificio de Electrónica y Telecomunicación de la Universidad de Las Palmas de Gran Canaria, ubicado en el Campus Universitario de Tafira. Esta conferencia se impartió en modo online el 19 de noviembre. Se presenta un recorrido estructurado sobre cómo integrar la inteligencia artificial generativa (IAGen) en la educación desde una perspectiva crítica, apoyándose en marcos internacionales y desembocando en tres escenarios de uso para la práctica docente. Se inicia recordando qué es la IA y, en concreto, la IAGen: sistemas capaces de generar contenido sintético original (texto, imágenes, audio, vídeo, código…) con calidad suficiente como para convertirse en material docente o en productos entregables de los estudiantes, difíciles de detectar como generados por máquinas. Tras una breve aclaración de conceptos (IA, modelos de lenguaje masivos, parámetros, ventana de contexto), se plantea el cambio de escala que suponen los LLM y su rápida cronología reciente. A partir de ahí, se introduce el impacto específico en educación: generación automática de contenidos en múltiples formatos, que abre oportunidades, pero también refuerza el problema de la detección y la autoría real de los trabajos. Se señala que la educación no ha quedado al margen del ruido mediático: abundan visiones catastrofistas (la IA destruirá la escuela o anulará la originalidad) y visiones ingenuamente entusiastas (la IA como solución mágica a todos los problemas). Se menciona el “dilema de Prometeo”: ¿tiene sentido prohibir la IAGen como medida de protección, dado su carácter de caja negra y su tendencia a alucinar, o debemos aprender a convivir con ella? Esta tensión está en el fondo del debate educativo actual. Uno de los mensajes centrales es que el estudiantado ya usa estas herramientas en todos los niveles educativos. Los datos recientes sobre educación superior muestran un aumento constante del uso por parte de estudiantes, docentes y administradores, así como un cambio en la carga de trabajo del profesorado: disminuye el tiempo dedicado a diseñar materiales o responder correos, pero aumenta la vigilancia del fraude y la necesidad de rediseñar la evaluación. La pregunta ya no es “si las usarán”, sino “cómo las estamos integrando”. A continuación, se abordan los riesgos específicos, especialmente las alucinaciones: respuestas plausibles pero falsas, contradicciones internas, errores lógicos, invención de citas bibliográficas, etc. Estas limitaciones se conectan con el “mito de la muerte de la originalidad”: la IA permite trabajos formalmente originales que no proceden del esfuerzo del estudiante, facilitando un aprendizaje superficial y amenazando la autoría genuina si se emplea de modo acrítico. Ante esta realidad, muchas instituciones consideran el texto generado íntegramente por IA sin reconocimiento como una forma de plagio. Se está transitando hacia modelos en los que se aceptan ciertos usos, pero con regulación ética y exigencia de transparencia. Se propone, como mínimo, una declaración explícita del uso de IA que describa herramientas empleadas, propósitos, instrucciones clave y cómo se ha adaptado el resultado. Se muestran ejemplos concretos de la Universidad de Monash, que ilustran buenas prácticas para incluir este reconocimiento en los trabajos académicos. Sobre esta base se introduce la alfabetización crítica en IA: no basta con saber manejar herramientas, sino con situar su uso dentro de valores y prácticas académicas. Se resumen cuatro ideas operativas: verificar antes de adoptar; garantizar equidad e inclusión; mantener la agencia humana explícita en la toma de decisiones; y asegurar transparencia y rendición de cuentas documentando el uso de IA. Estos principios se articulan con varios marcos de referencia: las orientaciones de la UNESCO, el Reglamento Europeo de IA (AI Act), el marco SAFE (Safe, Accountable, Fair, Explainable) y el Manifiesto Safe AI in Education, que insiste en la supervisión humana, la confidencialidad, la precisión y la explicabilidad. Se pasa después a una dimensión más práctica: la “caja de herramientas” de IA en educación (transcripción, generación de texto, imagen, audio, vídeo, infografías, presentaciones, chatbots multimodales…). Se insiste en que la calidad de la respuesta depende del prompt y del contexto que se aporta al modelo; un mejor contexto permite respuestas más útiles y ajustadas. Esto es pedagógicamente relevante, porque el proceso de diálogo con el sistema y la calidad de las preguntas tienen valor formativo en sí mismos. El núcleo de la conferencia es la propuesta de tres escenarios de uso de la IA en educación. El primero, apoyo responsable, se centra en el uso de la IA por parte del profesorado como herramienta de preparación y apoyo (generar materiales, reformular explicaciones, diseñar actividades) con bajo riesgo si se mantiene la agencia docente, se respeta la privacidad y se declara el uso. El segundo, colaboración guiada, incorpora la IA como parte de las actividades del estudiantado, pero con una fuerte guía del profesorado, énfasis en la evaluación auténtica y prioridad al proceso (versiones, iteraciones, trabajo en clase) frente al producto final. El tercero, cocreación con declaración de uso reforzada, contempla un uso más autónomo de la IA por parte del estudiantado en productos de alto impacto (TFG/TFM, recursos abiertos), con riesgos mayores que se compensan exigiendo trazabilidad completa, transparencia, equidad en el acceso y revisión rigurosa. En las conclusiones, se destaca que, tres años después de la irrupción de ChatGPT, el profesorado sigue polarizado entre la tecnofobia y la tecnofilia. Muchos problemas que hoy se achacan a la IA (desigualdades, evaluación basada en la memorización, desajuste entre tareas y competencias) ya existían antes, pero la IA los amplifica y visibiliza. Prohibir sin más no resuelve estas tensiones; el reto es comprender qué aporta realmente a la enseñanza, al aprendizaje y a la investigación, y ponerla al servicio de un aprendizaje más profundo. Finalmente, se subraya la importancia de formar tanto al profesorado como al estudiantado en el uso crítico de la IA, promover comunidades de práctica y compartir buenas experiencias. La IA no es buena ni mala, ni neutral: su impacto dependerá de cómo la diseñemos, la gobernemos y la usemos en los contextos educativos reales.Item Enseñanza con IA Generativa: Desafíos en Salud e Ingeniería(Grupo GRIAL, 2025-09-05) García-Peñalvo, Francisco JoséSeminario de 2 horas de duración impartido en el Salón de Actos de la Facultad de Ciencias de la Salud de la Universidad de Burgos el viernes 5 de septiembre de 2025, organizado por el GIR DATAHES, UIC JCYL N.º 348 y GID B-LCS. Los objetivos específicos del seminario son: 1. Concienciar sobre el uso ético y responsable de la IA generativa en contextos educativos, especialmente en áreas sensibles como la salud y la ingeniería. 2. Presentar el marco del AI Safe in Education Manifesto y otros referentes internacionales como base de buenas prácticas en la docencia. 3. Explorar herramientas de IA generativa actuales y mapear actividades docentes donde profesores y estudiantes puedan integrarlas de manera segura y productiva. 4. Fomentar el debate crítico y reflexivo entre docentes y estudiantes para identificar riesgos, oportunidades y estrategias de implementación responsable. Se propone una hoja de ruta práctica para un uso responsable y eficaz de la IAGen en educación superior. Parte de una alfabetización crítica: qué es la IAGen, cómo funciona (modelos, datos y límites), cuáles son sus riesgos (sesgos, alucinaciones, dependencia) y qué significa evaluar calidad y trazar responsabilidad humana. Introduce técnicas de prompting y el patrón de “deep research” para fundamentar contenidos y decisiones docentes. En el eje normativo-ético, se sintetizan las directrices de la UNESCO (visión humanocéntrica, capacidad institucional y desarrollo docente), el marco regulatorio europeo (EU AI Act, enfoque basado en riesgos y obligaciones de transparencia y documentación) y el marco SAFE de EDSAFE AI (Seguridad, Accountability, Equidad, Eficacia), además del Safe AI in Education Manifesto como guía de principios operativos y compromiso institucional. Estas referencias sirven para alinear políticas de centro, prácticas de aula y diseño de materiales con estándares internacionales y obligaciones legales. El “mapa de actividades” organiza usos de IAGen por fases del ciclo docente: 1) planificación (análisis de resultados de aprendizaje, detección de riesgos y datos necesarios); 2) creación de materiales (guiones de clase, casos, cuestionarios, visualizaciones con trazabilidad y citación de fuentes); 3) apoyo al aprendizaje (tutoría guiada por rúbricas, andamiaje y metacognición); 4) evaluación auténtica (diseños que preservan agencia humana, criterios de divulgación y registro del uso de IA). Se acompañan catálogos de herramientas actuales (LLM generalistas, verificadores y buscadores académicos, copilotos de código, generadores de imágenes con C2PA, gestores de referencias) y pautas de adopción segura.Item Inteligencia artificial generativa en docencia y la investigación: impacto, estrategias y ética en la práctica(Grupo GRIAL, 2025-06-05) García-Peñalvo, Francisco JoséCurso impartido en el ICE de la Universidad Politécnica de Madrid (ETSI Caminos) el 5 y 6 de junio de 2025 dentro del Plan de Formación del Profesorado del Curso 2024-2025. La inteligencia artificial generativa (IAGen) está transformando la educación superior, impactando tanto en la docencia como en la investigación. Herramientas como ChatGPT, DALL·E, Deepseek, Gemini, Claude y otros modelos de generación de contenido abren nuevas posibilidades para la enseñanza, el aprendizaje y la producción académica, pero también plantean desafíos éticos, metodológicos y estratégicos que docentes e investigadores deben conocer y gestionar. Este curso presencial de 8 horas ofrece una perspectiva práctica sobre la integración de la IAGen en el ámbito académico. A través de talleres interactivos y debates, exploraremos el impacto de estas tecnologías en la enseñanza y la investigación, proporcionando herramientas y estrategias para su uso responsable y efectivo. En el ámbito de la docencia, la IAGen puede actuar como un asistente para la creación de materiales educativos, el diseño de actividades personalizadas y la evaluación del aprendizaje. Sin embargo, también plantea cuestiones sobre la originalidad del trabajo de los estudiantes, la necesidad de nuevas competencias digitales en el profesorado y los riesgos asociados al uso indiscriminado de estas herramientas. Este curso abordará cómo los docentes pueden aprovechar la IA sin comprometer la calidad y la ética en la enseñanza. En el campo de la investigación, la IAGen está facilitando la redacción de textos científicos, la síntesis de información y la exploración de nuevos enfoques en distintas disciplinas. No obstante, su uso también suscita preocupaciones sobre la veracidad de los datos, la integridad académica y los posibles sesgos en los modelos de IA. A lo largo del curso, analizaremos cómo los investigadores pueden incorporar estas tecnologías sin comprometer la rigurosidad y el pensamiento crítico en sus trabajos. Además del impacto técnico y práctico, este curso pondrá un fuerte énfasis en la ética y la regulación de la IAGen. Discutiremos los límites de su uso en el ámbito académico, las normativas emergentes y las mejores prácticas para garantizar un empleo transparente y responsable de estas herramientas. A través de una combinación de sesiones teóricas, actividades prácticas y discusiones en grupo, este curso proporcionará a los participantes una comprensión profunda y aplicable de la IAGen en la academia. Al finalizar, los docentes e investigadores no solo habrán adquirido conocimientos práctica, sino que, lo más importante, también contarán con estrategias para integrar estas tecnologías de manera ética y efectiva en su labor académica. Los objetivos específicos del curso son: 1. Comprender el impacto de la IA generativa en la educación superior Analizar cómo la inteligencia artificial generativa está transformando la docencia y la investigación, identificando tanto sus oportunidades como sus desafíos en el ámbito académico. 2. Explorar aplicaciones prácticas de la IA generativa en la docencia Identificar y experimentar con herramientas de IA generativa para la creación de materiales educativos, el diseño de actividades interactivas y la evaluación del aprendizaje, garantizando su uso pedagógico adecuado. 3. Desarrollar estrategias para el uso responsable de la IA en la investigación Examinar cómo la IA generativa puede facilitar la redacción académica, la síntesis de información y el análisis de datos, asegurando la integridad científica y el rigor metodológico en los procesos de investigación. 4. Fomentar el pensamiento crítico y la ética en el uso de la IA generativa Reflexionar sobre las implicaciones éticas del uso de la IA generativa en la academia, abordando temas como la seguridad, el plagio, la originalidad, la transparencia y los sesgos en los modelos de IA. 5. Conocer el marco normativo y las mejores prácticas en el uso de IA generativa Explorar regulaciones, recomendaciones y guías institucionales emergentes sobre el uso de la IA en la educación superior, con el fin de promover un uso alineado con estándares académicos y éticos. 6. Diseñar estrategias personalizadas para la integración de la IA en la labor académica Facilitar la creación de planes de acción individuales para que los participantes puedan implementar la IA generativa en su enseñanza o investigación de manera efectiva y adaptada a sus necesidades específicas. Los contenidos del seminario son: 1. Bloque I: Expectativas, ética y marco normativo. 2. Bloque II: Fundamentos de la IAGen. 3. Bloque III. Docencia universitaria con IAGen. 4. Bloque IV: Investigación académica con IAGen 5. Bloque V: Estrategias y conclusiones.Item Inteligencia Artificial en el aula. De los mitos a la realidad(Grupo GRIAL, 2025-04-11) García-Peñalvo, Francisco JoséInvestigación Educativa, celebrado del 9 al 12 de abril de 2025 en Punta Cana (República Dominicana). La conferencia aborda de manera crítica y documentada cómo la irrupción de la inteligencia artificial generativa (IAGen) está transformando la educación, especialmente en el aula universitaria, separando realidades de mitos que distorsionan la comprensión de su impacto. En primer lugar, se indica cada época ha tenido sus propios mitos tecnológicos y la IA no es una excepción: desde visiones apocalípticas al estilo Skynet o HAL 9000, hasta las utopías hipertecnológicas como Multivac de Asimov. Uno de los focos clave es la generación automática de contenidos educativos por parte de la IAGen, una tecnología que ha demostrado capacidad suficiente para producir materiales de alta calidad pero que también plantea dilemas sobre la autoría, la ética y la integridad académica. La presentación desmonta tres mitos principales que afectan especialmente al ámbito educativo. El primero es el mito de la sustitución del profesorado. Aunque se ha promovido la idea de que la IA puede reemplazar a los docentes, la conferencia demuestra que esta visión es reduccionista. La educación no se limita a la transmisión de conocimientos, sino que involucra una dimensión relacional, emocional y ética que la tecnología por sí sola no puede suplir. La IA debe entenderse como un complemento al profesorado, no como un sustituto. El segundo mito tratado es el de la autonomía del aprendizaje. Se analiza la promesa de la personalización radical mediante IA, que pretende empoderar al estudiante para que controle completamente su proceso de aprendizaje. Sin embargo, la automatización excesiva puede paradójicamente erosionar la autonomía del estudiante, fomentando la dependencia de las soluciones automáticas y restando oportunidades para el desarrollo de competencias como el pensamiento crítico y la autorregulación. Además, se advierte de los riesgos de que estos sistemas centren la interacción en el binomio individuo-máquina, limitando las oportunidades para la colaboración y el aprendizaje social. El tercer mito es el de la “muerte de la originalidad” en los trabajos académicos. Si bien la IA facilita la producción de textos originales desde el punto de vista formal, no siempre garantiza una aportación genuina del estudiante. Las herramientas de detección de IA son limitadas y pueden generar falsos positivos, por lo que no deben convertirse en el eje central del control académico. La clave está en fomentar la reflexión crítica y valorar el proceso de aprendizaje, más que únicamente el producto final. La conferencia concluye enfatizando la necesidad de pasar del “modo pánico” al “modo diseño”. Se apuesta por un enfoque basado en la creatividad, la responsabilidad compartida y la construcción de comunidades de práctica que promuevan una integración equilibrada de la IA. Además, se presenta el “Manifiesto para una IA segura en la educación”, que propone principios como la supervisión humana, la confidencialidad, la explicabilidad y la alineación con las estrategias pedagógicas. En definitiva, la IA no es ni una amenaza absoluta ni una solución mágica. Su impacto dependerá de cómo se diseñen las prácticas educativas y de la capacidad de las comunidades académicas para aprovechar sus ventajas sin renunciar a los valores esenciales de la educación: pensamiento crítico, ética, agencia y aprendizaje auténtico.Item Desarrollo de un GPT personalizado para la orientación universitaria(Grupo GRIAL, 2025-03-06) García-Peñalvo, Francisco José; Vázquez-Ingelmo, AndreaEl taller “Desarrollo de un GPT personalizado para la orientación universitaria” se impartió el 6 de marzo de 2025 en las I Jornadas de Orientación Profesional y Competencias CRUE España, celebradas en la Universidad de Salamanca. En el taller se explora cómo las tecnologías de Inteligencia Artificial Generativa (IAGen) y, en particular, los modelos GPT personalizados, pueden transformar la orientación académica en las universidades. La presentación arranca contextualizando la revolución tecnológica que ha supuesto la IAGen, destacando cómo los modelos de lenguaje a gran escala (LLM) han cambiado la producción de contenidos y la interacción con la información. Los LLM funcionan prediciendo la siguiente palabra en un contexto dado, lo que les permite generar texto coherente. Su efectividad depende de la cantidad de parámetros (pueden superar los 10.000 millones) y de la amplitud de la ventana de contexto, que define cuánta información puede considerar el modelo a la vez. Una mayor ventana permite mantener el contexto en conversaciones largas o analizar documentos extensos. El taller también presenta el “Manifiesto para una IA segura en la educación”, un conjunto de principios que garantizan el uso ético y seguro de la IA en el entorno educativo. Entre estos principios destacan la supervisión humana, la protección de la confidencialidad, la alineación con las estrategias educativas, la precisión y explicabilidad de las respuestas, y la transparencia en el comportamiento del asistente. El taller subraya la necesidad de desarrollar asistentes virtuales inteligentes adaptados a necesidades específicas, como la orientación universitaria. Un GPT personalizado no es simplemente una versión adaptada de ChatGPT, sino un asistente ajustado a un propósito concreto, que sigue instrucciones específicas, accede a información relevante y ofrece respuestas alineadas con las políticas y el contexto institucional. La diferencia clave es que ChatGPT es un generalista, mientras que un GPT personalizado es un especialista entrenado con manuales, procedimientos y documentación concreta. La personalización de un GPT implica definir su propósito, el tono de sus respuestas y el nivel de detalle. Es crucial proporcionar al modelo un conjunto de instrucciones claras y ejemplos de respuestas esperadas, además de establecer restricciones para evitar respuestas ambiguas o erróneas. Un aspecto clave es la personalización del conocimiento, cargando documentos específicos (normativas, reglamentos o guías de la universidad) que el GPT puede consultar para generar respuestas precisas. El proceso técnico de creación de un GPT personalizado en la plataforma ChatGPT de OpenAI es descrito paso a paso. OpenAI ofrece una interfaz de configuración intuitiva, donde es posible definir el comportamiento del asistente, subir documentos de conocimiento, habilitar la consulta de información en la web, e incluso conectar el GPT con API externas para realizar tareas avanzadas. Además, OpenAI recomienda redactar instrucciones de forma clara, granular y estructurada, dividiendo procesos complejos en pasos simples, utilizando ejemplos concretos y promoviendo la revisión cuidadosa de las respuestas generadas. En resumen, el taller muestra cómo los GPT personalizados pueden convertirse en herramientas clave para mejorar la orientación universitaria, ofreciendo a estudiantes y personal académico un asistente conversacional inteligente, fiable y adaptado a las necesidades de cada institución. Este enfoque combina la potencia de la IA Gen con las buenas prácticas de personalización y un fuerte compromiso con la ética y la transparencia en el uso de la IA en la educación superior.Item Uso seguro de la IA en la Educación. Perspectivas tras dos años de ChatGPT(Grupo GRIAL, 2024-12-12) García-Peñalvo, Francisco JoséLa conferencia magistral invitada “Uso seguro de la IA en la Educación. Perspectivas tras dos años de ChatGPT” se impartió el 12 de diciembre de 2024 de forma virtual dentro del 5º Congreso Internacional de Tendencias en Innovación Educativa (CITIE 2024), celebrado del 11 al 13 de diciembre de 2024 en el Centro Universitario de los Valles de la Universidad de Guadalajara (México). Se aborda cómo la inteligencia artificial generativa (IAGen), ejemplificada por ChatGPT, ha transformado el panorama educativo desde su lanzamiento el 30 de noviembre de 2022. Este análisis destaca tanto el impacto positivo como los desafíos asociados con la integración de estas tecnologías en el ámbito académico. El contenido explora los conceptos básicos de los modelos de lenguaje grande (LLM), incluyendo su arquitectura, tamaño, y costos económicos y energéticos de entrenamiento. Se discuten las capacidades de generación de contenido, como texto, imágenes y audio, y se subraya el papel crítico del diseño de prompts y del contexto en la calidad de las respuestas generadas. En el ámbito educativo, la presentación evalúa cómo la IA ha potenciado la creatividad, productividad y personalización del aprendizaje, beneficiando tanto al profesorado como al estudiantado. Sin embargo, se identifican riesgos como la despersonalización, el uso deshonesto y la dependencia tecnológica. Para mitigar estos problemas, se proponen buenas prácticas que incluyen formación continua, integración equilibrada y fomento de un uso ético. Se introduce el Manifiesto para una IA Segura en la Educación, que propone principios clave como la supervisión humana, la confidencialidad, y la alineación con estrategias educativas y prácticas didácticas. Se concluye reflexionando sobre el impacto disruptivo de la IAGen y subrayando la necesidad de un enfoque ético, inclusivo y colaborativo para garantizar que esta tecnología sea una herramienta beneficiosa en el futuro de la educación. Finalmente, se resalta la importancia de preparar a profesores y estudiantes para un uso crítico y responsable, alineando estas tecnologías con los valores educativos y sociales.