Conferences
Permanent URI for this collectionhttps://repositorio.grial.eu/handle/123456789/13
Browse
4 results
Search Results
Item Introduciendo la Inteligencia Artificial en el ciclo de investigación bajo un comportamiento ético(Grupo GRIAL, 2026-01-28) García-Peñalvo, Francisco JoséLa conferencia “Introduciendo la Inteligencia Artificial en el ciclo de investigación bajo un comportamiento ético” se ha impartido en el IA in Education Summit: Responsible, Equitable, and Systematic Transformation, celebrado dentro del IFE Conference 2026 del 27 al 29 de enero de 2026 en el Tecnológico de Monterrey, Monterrey, Nuevo León (México). Concretamente, esta conferencia tuvo lugar el 28 de enero, con una duración de 30 minutos. La gran disrupción reciente en IA proviene de la inteligencia artificial generativa (IAGen), entendida como la capacidad de producir contenidos sintéticos inéditos (texto, imagen, audio, vídeo, presentaciones) para apoyar tareas diversas, con un impacto social potencialmente abrumador por su integración en la vida cotidiana. En el ámbito de la investigación, se subraya que la generación automática de contenido académico ya es una realidad y que la calidad alcanzada permite su uso como material de investigación; a la vez, se advierte que la investigación y la transferencia no son inmunes a discursos inflados, mitos e inexactitudes sobre la IA (catastrofismo vs. “solucionismo tecnológico”). Se ofrece un panorama de herramientas generalistas basadas en texto (algunas multimodales) y se introduce una idea clave: las herramientas generalistas suponen un riesgo en contextos de investigación, por lo que su adopción debe ser crítica y situada. La charla estructura el uso de la IAGen a lo largo de todo el ciclo de investigación: desde la generación de ideas, objetivos e hipótesis, el estado de la cuestión, el desarrollo de código, la recogida y análisis de datos, hasta la redacción, publicación y comunicación; la ética y la transparencia actúan como eje transversal. Como base normativa y ética, se presentan principios para un uso responsable: fiabilidad (verificación y reproducción), honestidad (revelar el uso), respeto (privacidad, confidencialidad, propiedad intelectual y citación) y responsabilidad (agencia humana y supervisión). En la misma línea, se introduce la alfabetización crítica: no basta con saber usar herramientas, sino hacerlo con juicio dentro de valores y prácticas académicas. En cuanto a marcos de referencia, se alinean las recomendaciones de la UNESCO, el AI Act y el Safe AI in Education Manifesto como un continuo entre guía ética y regulación legal, y se resume su aterrizaje en investigación: validación ética, protección de datos y PI, trazabilidad (registrar herramienta/versión/prompts y declarar uso), triaje de riesgo y debida diligencia con proveedores, y protocolos human-in-the-loop. Se aportan ejemplos de reconocimiento del uso (Monash) y guías editoriales (Wiley), destacando qué debe declararse (redacción/edición, metodología, código, análisis y visuales) y qué información conviene documentar (nombre/versión, fecha, función, secciones afectadas, rol del autor y cumplimiento de privacidad en datos sensibles). También se aborda la revisión por pares: los manuscritos son confidenciales y no deben cargarse en aplicaciones de IA; se proponen usos seguros (mejorar claridad/tono, traducción, consultas generales sin detalles del manuscrito). Las conclusiones enfatizan que la IAGen ofrece beneficios, pero su punto crítico es la trazabilidad: muchas herramientas no la garantizan robustamente, lo que puede reducir la transparencia, complicar la atribución de autoría y aumentar el riesgo de contenido no verificado (alucinaciones). Se remarca que la IA puede aumentar la eficiencia, pero no sustituye capacidades humanas esenciales, y que, aunque los marcos establecen una base común, la decisión ética no se automatiza y cada investigador y equipo debe definir sus líneas rojas según contexto, riesgo y datos, asumiendo responsabilidad por su aplicación.Item Inteligencia Artificial Generativa y su influencia en los procesos educativos(Grupo GRIAL, 2025-12-03) García-Peñalvo, Francisco JoséClase magistral y taller de inteligencia artificial generativa (IAGen) impartidos en el contexto de la Unidad I: Gestión de la Tecnología y del Conocimiento, de la asignatura Diseño y Evaluación de Recursos Informáticos del Máster Universitario en las TIC en la Educación: Análisis y Diseño de Procesos, Recursos y Prácticas Formativas, el día 3 de diciembre de 2025 en la Facultad de Educación, Universidad de Salamanca. La inteligencia artificial generativa, con ChatGPT como emblema, está transformando la educación y, en particular, los procesos de enseñanza, aprendizaje e investigación en la universidad. A la hora de construir un relato sobre su uso en la academia, es importante no limitarse a describir herramientas, sino que se debe construir un marco conceptual, ético y normativo para decidir cómo usarlas, con qué fines y en qué condiciones, proponiendo una hoja de ruta razonada para el profesorado. El punto de partida es la constatación de que la inteligencia artificial (IA) ya forma parte del ecosistema educativo. Hoy la IA puede ser simultáneamente objeto de estudio, herramienta de aprendizaje y entorno en el que se aprende. Se diferencia entre aprender sobre la IA (comprender sus fundamentos, límites y sesgos), aprender con la IA (usar sistemas de recomendación, analítica de aprendizaje o tutores inteligentes para mejorar la docencia) y aprender a través de la IA, cuando esta se convierte en medio principal de acceso al conocimiento, como ocurre con los tutores adaptativos o los asistentes personales avanzados. Este contexto se enmarca en iniciativas internacionales como el Consenso de Beijing sobre IA y educación, que insiste en planificar la IA en las políticas educativas, apoyar a la docencia, favorecer el aprendizaje a lo largo de la vida y promover un uso equitativo, ético y transparente de los datos y algoritmos. La idea clave es que la IA no es un añadido accesorio, sino un factor estructural que condiciona la manera de aprender, trabajar y participar en la sociedad. A partir de ahí, el material introduce de forma accesible la irrupción de la IAGen. subraya que ya es posible generar automáticamente contenido educativo en múltiples formatos (texto, imagen, vídeo, audio, presentaciones) con calidad suficiente para ser usado como material docente o como producto de tareas académicas, muchas veces sin que sea viable detectar con certeza su origen. Esto abre oportunidades, pero también tensiona los modelos de evaluación, la autoría y la integridad académica. Se alerta además frente a los mitos y exageraciones asociados a la IA, tanto los catastrofistas como los excesivamente optimistas, que alimentan un solucionismo tecnológico ajeno a los matices de la práctica educativa real. Uno de los hilos conductores es el dilema de Prometeo. Ante una tecnología poderosa, opaca y propensa a alucinaciones, ¿la respuesta educativa debe ser prohibir su uso o aprender a integrarla críticamente? El recurso insiste en que la prohibición es una falsa solución, porque el estudiantado ya utiliza estas herramientas en todos los niveles educativos. La cuestión relevante no es tanto si se usarán, sino cómo lograr que su uso contribuya a un aprendizaje más profundo y honesto. En este marco se analizan las oportunidades y retos de la IAGen en la universidad. Para el profesorado, los beneficios potenciales incluyen el enriquecimiento del contenido educativo, el apoyo a la creatividad y la productividad, la mejora de la evaluación y la posibilidad de personalizar el aprendizaje del alumnado, además de favorecer su propia competencia digital. El reverso de la moneda son riesgos como el recelo ante el uso estudiantil de la IA, la sobrevaloración de sus capacidades, su utilización inadecuada, la dependencia tecnológica, la pérdida de autoría, la despersonalización de la relación pedagógica y las amenazas a la privacidad. En el caso del estudiantado, se señalan potenciales impactos positivos en el pensamiento crítico y la creatividad, el prototipado de ideas, el aprendizaje personalizado, la productividad y el desarrollo de competencias digitales. Pero también se advierte del peligro de un aprendizaje superficial, el uso deshonesto, la falta de capacidad para curar la información, la pérdida de pensamiento crítico, la despersonalización y las brechas de acceso entre quienes pueden usar estas herramientas en buenas condiciones y quienes no. Algo similar ocurre con la investigación: la IAGen puede acelerar procesos, automatizar tareas rutinarias y abrir vías de innovación, pero también plantear problemas de alucinaciones no detectadas, debates éticos, falta de curación del contenido, sesgos y vulneraciones de privacidad. Para ordenar esta discusión, el recurso dedica una parte importante a los marcos normativos y éticos que orientan el uso responsable de la IA. Se presentan las orientaciones de la UNESCO sobre IA y educación, que priorizan los derechos humanos, la inclusión y el desarrollo sostenible, y la necesidad de alfabetizar en IA tanto a profesorado como a estudiantes, diseñar experiencias centradas en la persona y fortalecer la capacidad institucional. Se resume el AI Act de la Unión Europea, una regulación basada en el riesgo que establece categorías de sistemas, obligaciones de transparencia y seguridad y, muy especialmente, el artículo 50 sobre el marcado del contenido generado por IA, que obliga a identificar los materiales sintéticos. Junto a ello se describe el marco SAFE, que organiza la reflexión en torno a cuatro principios: seguridad (Safety), responsabilidad (Accountability), justicia (Fairness) y eficacia (Efficacy), con especial atención a la coherencia con los principios éticos en educación y al diseño de actividades que garanticen estos criterios. Finalmente se presenta el Safe AI in Education Manifesto, que defiende que la IA en educación debe estar siempre al servicio de las personas y de los fines formativos, subrayando principios como la agencia del estudiantado, la verificación de la información, la inclusión, la transparencia, el derecho de apelación y la necesidad de explicitar cómo se usan los datos y las fuentes. Un apartado especialmente relevante es el dedicado a las tres grandes formas de integrar la IA en educación, formuladas como escenarios graduados por autonomía, agencia y riesgo. En el primero, el profesorado usa herramientas de IA como apoyo a su trabajo (por ejemplo, para preparar materiales, diseñar rúbricas o generar ejemplos). En el segundo, el profesorado incorpora esas herramientas en actividades con el estudiantado, lo que exige una alfabetización elevada en ambos colectivos y una definición clara de qué herramientas son aceptables, con qué usos y cómo debe declararse su empleo. En el tercero, el estudiantado utiliza por su cuenta herramientas de IA para aprender, lo que aumenta el riesgo y hace aún más necesaria la competencia digital y la capacidad de mantener la agencia sobre el propio aprendizaje. En todos los escenarios se enfatizan principios comunes: transparencia (declarar en qué procesos se usa la IA), evaluación auténtica centrada en el proceso y apoyada en evidencias (trabajo en clase, entregas incrementales, diarios o cuadernos de laboratorio) en lugar de confiar ciegamente en detectores de texto generado, equidad (garantizar que todo el estudiantado pueda realizar las tareas aunque no disponga de las mismas herramientas) y protección de la privacidad, especialmente en lo relativo a datos clínicos u otros datos sensibles. La presentación aterriza estos principios en una serie de roles y aplicaciones concretas de la IAGen en educación. Se describen, por ejemplo, funciones como la de “compañero de estudios” que ayuda al alumnado a reflexionar y preparar tareas; la de “motivador” que propone retos y actividades para ampliar el aprendizaje; o la de “evaluador dinámico” capaz de perfilar el conocimiento actual de cada estudiante y generar herramientas de autoevaluación, siempre que se mantenga el control humano y se diseñen estrategias claras de uso. Otras aplicaciones incluyen la generación de cuestionarios, rúbricas, explicaciones adaptadas al nivel del estudiante, guías de estudio, ejemplos de buena práctica o estímulos para el debate crítico. Todo esto lleva a la idea de alfabetización crítica en IA generativa. No basta con saber usar herramientas, sino que hay que usarlas con juicio, integrándolas en valores y prácticas académicas sólidas. Se ofrecen pautas para el reconocimiento explícito del uso de IAGen en trabajos académicos: explicar qué herramientas se han utilizado y con qué objetivos, indicar el número de iteraciones, describir los resultados incorporados, detallar las instrucciones empleadas y explicar cómo se ha integrado el output en el producto final. Esta práctica enlaza con las exigencias del AI Act y con la cultura de transparencia que promueven las universidades. Se presentan casos de uso detallados, donde se muestran flujos de trabajo que integran IAGen para ampliar contenidos, sintetizar bibliografía, analizar transcripciones de audio con herramientas como otter.ai, elaborar nubes de palabras o realizar investigación en profundidad mediante agentes que combinan razonamiento y búsqueda en múltiples fuentes. Estos casos están pensados para ilustrar cómo se pueden diseñar actividades que aprovechen las capacidades de la IA sin delegar en ella el juicio académico ni la responsabilidad última sobre el aprendizaje. Se reconoce que la IA amplifica problemas ya existentes en el sistema educativo, como la la superficialidad del aprendizaje, las desigualdades de acceso o la presión por la productividad, pero también que abre oportunidades sin precedentes para experimentar con nuevas formas de enseñar y aprender. Lejos de la retórica apocalíptica o ingenuamente entusiasta, se propone evitar que la ilusión eclipse la preocupación, pero también que la preocupación neutralice la ilusión. El salto vivido con ChatGPT y otras herramientas exige estudiar, diseñar, experimentar y evaluar sin descanso, con prudencia, pero con audacia, descartando la idea de que la tecnología vaya a arruinar por sí misma la educación. Se trata de ofrecer una visión panorámica y crítica de la IA generativa en educación. Se sitúan las herramientas en su contexto tecnológico e histórico, se exponen sus beneficios y riesgos para los distintos actores, se introducen los principales marcos éticos y normativos, se proponen escenarios operativos para su integración en la práctica docente y se ofrecen ejemplos concretos de uso responsable. Todo ello converge en un mensaje central, la IAGen no es un fin en sí mismo, sino un conjunto de instrumentos que, gestionados con criterio pedagógico, sentido ético y conocimiento del marco regulatorio, pueden contribuir a una educación más personalizada, inclusiva y orientada al desarrollo de competencias para la vida en la era de la IA.Item Inteligencia Artificial en el aula. De los mitos a la realidad(Grupo GRIAL, 2025-04-11) García-Peñalvo, Francisco JoséInvestigación Educativa, celebrado del 9 al 12 de abril de 2025 en Punta Cana (República Dominicana). La conferencia aborda de manera crítica y documentada cómo la irrupción de la inteligencia artificial generativa (IAGen) está transformando la educación, especialmente en el aula universitaria, separando realidades de mitos que distorsionan la comprensión de su impacto. En primer lugar, se indica cada época ha tenido sus propios mitos tecnológicos y la IA no es una excepción: desde visiones apocalípticas al estilo Skynet o HAL 9000, hasta las utopías hipertecnológicas como Multivac de Asimov. Uno de los focos clave es la generación automática de contenidos educativos por parte de la IAGen, una tecnología que ha demostrado capacidad suficiente para producir materiales de alta calidad pero que también plantea dilemas sobre la autoría, la ética y la integridad académica. La presentación desmonta tres mitos principales que afectan especialmente al ámbito educativo. El primero es el mito de la sustitución del profesorado. Aunque se ha promovido la idea de que la IA puede reemplazar a los docentes, la conferencia demuestra que esta visión es reduccionista. La educación no se limita a la transmisión de conocimientos, sino que involucra una dimensión relacional, emocional y ética que la tecnología por sí sola no puede suplir. La IA debe entenderse como un complemento al profesorado, no como un sustituto. El segundo mito tratado es el de la autonomía del aprendizaje. Se analiza la promesa de la personalización radical mediante IA, que pretende empoderar al estudiante para que controle completamente su proceso de aprendizaje. Sin embargo, la automatización excesiva puede paradójicamente erosionar la autonomía del estudiante, fomentando la dependencia de las soluciones automáticas y restando oportunidades para el desarrollo de competencias como el pensamiento crítico y la autorregulación. Además, se advierte de los riesgos de que estos sistemas centren la interacción en el binomio individuo-máquina, limitando las oportunidades para la colaboración y el aprendizaje social. El tercer mito es el de la “muerte de la originalidad” en los trabajos académicos. Si bien la IA facilita la producción de textos originales desde el punto de vista formal, no siempre garantiza una aportación genuina del estudiante. Las herramientas de detección de IA son limitadas y pueden generar falsos positivos, por lo que no deben convertirse en el eje central del control académico. La clave está en fomentar la reflexión crítica y valorar el proceso de aprendizaje, más que únicamente el producto final. La conferencia concluye enfatizando la necesidad de pasar del “modo pánico” al “modo diseño”. Se apuesta por un enfoque basado en la creatividad, la responsabilidad compartida y la construcción de comunidades de práctica que promuevan una integración equilibrada de la IA. Además, se presenta el “Manifiesto para una IA segura en la educación”, que propone principios como la supervisión humana, la confidencialidad, la explicabilidad y la alineación con las estrategias pedagógicas. En definitiva, la IA no es ni una amenaza absoluta ni una solución mágica. Su impacto dependerá de cómo se diseñen las prácticas educativas y de la capacidad de las comunidades académicas para aprovechar sus ventajas sin renunciar a los valores esenciales de la educación: pensamiento crítico, ética, agencia y aprendizaje auténtico.Item Uso seguro de la IA en la Educación. Perspectivas tras dos años de ChatGPT(Grupo GRIAL, 2024-12-12) García-Peñalvo, Francisco JoséLa conferencia magistral invitada “Uso seguro de la IA en la Educación. Perspectivas tras dos años de ChatGPT” se impartió el 12 de diciembre de 2024 de forma virtual dentro del 5º Congreso Internacional de Tendencias en Innovación Educativa (CITIE 2024), celebrado del 11 al 13 de diciembre de 2024 en el Centro Universitario de los Valles de la Universidad de Guadalajara (México). Se aborda cómo la inteligencia artificial generativa (IAGen), ejemplificada por ChatGPT, ha transformado el panorama educativo desde su lanzamiento el 30 de noviembre de 2022. Este análisis destaca tanto el impacto positivo como los desafíos asociados con la integración de estas tecnologías en el ámbito académico. El contenido explora los conceptos básicos de los modelos de lenguaje grande (LLM), incluyendo su arquitectura, tamaño, y costos económicos y energéticos de entrenamiento. Se discuten las capacidades de generación de contenido, como texto, imágenes y audio, y se subraya el papel crítico del diseño de prompts y del contexto en la calidad de las respuestas generadas. En el ámbito educativo, la presentación evalúa cómo la IA ha potenciado la creatividad, productividad y personalización del aprendizaje, beneficiando tanto al profesorado como al estudiantado. Sin embargo, se identifican riesgos como la despersonalización, el uso deshonesto y la dependencia tecnológica. Para mitigar estos problemas, se proponen buenas prácticas que incluyen formación continua, integración equilibrada y fomento de un uso ético. Se introduce el Manifiesto para una IA Segura en la Educación, que propone principios clave como la supervisión humana, la confidencialidad, y la alineación con estrategias educativas y prácticas didácticas. Se concluye reflexionando sobre el impacto disruptivo de la IAGen y subrayando la necesidad de un enfoque ético, inclusivo y colaborativo para garantizar que esta tecnología sea una herramienta beneficiosa en el futuro de la educación. Finalmente, se resalta la importancia de preparar a profesores y estudiantes para un uso crítico y responsable, alineando estas tecnologías con los valores educativos y sociales.