GRIAL resources

Permanent URI for this communityhttps://repositorio.grial.eu/handle/123456789/1

Browse

Search Results

Now showing 1 - 4 of 4
  • Thumbnail Image
    Item
    Inteligencia Artificial Generativa y su influencia en los procesos educativos
    (Grupo GRIAL, 2025-12-03) García-Peñalvo, Francisco José
    Clase magistral y taller de inteligencia artificial generativa (IAGen) impartidos en el contexto de la Unidad I: Gestión de la Tecnología y del Conocimiento, de la asignatura Diseño y Evaluación de Recursos Informáticos del Máster Universitario en las TIC en la Educación: Análisis y Diseño de Procesos, Recursos y Prácticas Formativas, el día 3 de diciembre de 2025 en la Facultad de Educación, Universidad de Salamanca. La inteligencia artificial generativa, con ChatGPT como emblema, está transformando la educación y, en particular, los procesos de enseñanza, aprendizaje e investigación en la universidad. A la hora de construir un relato sobre su uso en la academia, es importante no limitarse a describir herramientas, sino que se debe construir un marco conceptual, ético y normativo para decidir cómo usarlas, con qué fines y en qué condiciones, proponiendo una hoja de ruta razonada para el profesorado. El punto de partida es la constatación de que la inteligencia artificial (IA) ya forma parte del ecosistema educativo. Hoy la IA puede ser simultáneamente objeto de estudio, herramienta de aprendizaje y entorno en el que se aprende. Se diferencia entre aprender sobre la IA (comprender sus fundamentos, límites y sesgos), aprender con la IA (usar sistemas de recomendación, analítica de aprendizaje o tutores inteligentes para mejorar la docencia) y aprender a través de la IA, cuando esta se convierte en medio principal de acceso al conocimiento, como ocurre con los tutores adaptativos o los asistentes personales avanzados. Este contexto se enmarca en iniciativas internacionales como el Consenso de Beijing sobre IA y educación, que insiste en planificar la IA en las políticas educativas, apoyar a la docencia, favorecer el aprendizaje a lo largo de la vida y promover un uso equitativo, ético y transparente de los datos y algoritmos. La idea clave es que la IA no es un añadido accesorio, sino un factor estructural que condiciona la manera de aprender, trabajar y participar en la sociedad. A partir de ahí, el material introduce de forma accesible la irrupción de la IAGen. subraya que ya es posible generar automáticamente contenido educativo en múltiples formatos (texto, imagen, vídeo, audio, presentaciones) con calidad suficiente para ser usado como material docente o como producto de tareas académicas, muchas veces sin que sea viable detectar con certeza su origen. Esto abre oportunidades, pero también tensiona los modelos de evaluación, la autoría y la integridad académica. Se alerta además frente a los mitos y exageraciones asociados a la IA, tanto los catastrofistas como los excesivamente optimistas, que alimentan un solucionismo tecnológico ajeno a los matices de la práctica educativa real. Uno de los hilos conductores es el dilema de Prometeo. Ante una tecnología poderosa, opaca y propensa a alucinaciones, ¿la respuesta educativa debe ser prohibir su uso o aprender a integrarla críticamente? El recurso insiste en que la prohibición es una falsa solución, porque el estudiantado ya utiliza estas herramientas en todos los niveles educativos. La cuestión relevante no es tanto si se usarán, sino cómo lograr que su uso contribuya a un aprendizaje más profundo y honesto. En este marco se analizan las oportunidades y retos de la IAGen en la universidad. Para el profesorado, los beneficios potenciales incluyen el enriquecimiento del contenido educativo, el apoyo a la creatividad y la productividad, la mejora de la evaluación y la posibilidad de personalizar el aprendizaje del alumnado, además de favorecer su propia competencia digital. El reverso de la moneda son riesgos como el recelo ante el uso estudiantil de la IA, la sobrevaloración de sus capacidades, su utilización inadecuada, la dependencia tecnológica, la pérdida de autoría, la despersonalización de la relación pedagógica y las amenazas a la privacidad. En el caso del estudiantado, se señalan potenciales impactos positivos en el pensamiento crítico y la creatividad, el prototipado de ideas, el aprendizaje personalizado, la productividad y el desarrollo de competencias digitales. Pero también se advierte del peligro de un aprendizaje superficial, el uso deshonesto, la falta de capacidad para curar la información, la pérdida de pensamiento crítico, la despersonalización y las brechas de acceso entre quienes pueden usar estas herramientas en buenas condiciones y quienes no. Algo similar ocurre con la investigación: la IAGen puede acelerar procesos, automatizar tareas rutinarias y abrir vías de innovación, pero también plantear problemas de alucinaciones no detectadas, debates éticos, falta de curación del contenido, sesgos y vulneraciones de privacidad. Para ordenar esta discusión, el recurso dedica una parte importante a los marcos normativos y éticos que orientan el uso responsable de la IA. Se presentan las orientaciones de la UNESCO sobre IA y educación, que priorizan los derechos humanos, la inclusión y el desarrollo sostenible, y la necesidad de alfabetizar en IA tanto a profesorado como a estudiantes, diseñar experiencias centradas en la persona y fortalecer la capacidad institucional. Se resume el AI Act de la Unión Europea, una regulación basada en el riesgo que establece categorías de sistemas, obligaciones de transparencia y seguridad y, muy especialmente, el artículo 50 sobre el marcado del contenido generado por IA, que obliga a identificar los materiales sintéticos. Junto a ello se describe el marco SAFE, que organiza la reflexión en torno a cuatro principios: seguridad (Safety), responsabilidad (Accountability), justicia (Fairness) y eficacia (Efficacy), con especial atención a la coherencia con los principios éticos en educación y al diseño de actividades que garanticen estos criterios. Finalmente se presenta el Safe AI in Education Manifesto, que defiende que la IA en educación debe estar siempre al servicio de las personas y de los fines formativos, subrayando principios como la agencia del estudiantado, la verificación de la información, la inclusión, la transparencia, el derecho de apelación y la necesidad de explicitar cómo se usan los datos y las fuentes. Un apartado especialmente relevante es el dedicado a las tres grandes formas de integrar la IA en educación, formuladas como escenarios graduados por autonomía, agencia y riesgo. En el primero, el profesorado usa herramientas de IA como apoyo a su trabajo (por ejemplo, para preparar materiales, diseñar rúbricas o generar ejemplos). En el segundo, el profesorado incorpora esas herramientas en actividades con el estudiantado, lo que exige una alfabetización elevada en ambos colectivos y una definición clara de qué herramientas son aceptables, con qué usos y cómo debe declararse su empleo. En el tercero, el estudiantado utiliza por su cuenta herramientas de IA para aprender, lo que aumenta el riesgo y hace aún más necesaria la competencia digital y la capacidad de mantener la agencia sobre el propio aprendizaje. En todos los escenarios se enfatizan principios comunes: transparencia (declarar en qué procesos se usa la IA), evaluación auténtica centrada en el proceso y apoyada en evidencias (trabajo en clase, entregas incrementales, diarios o cuadernos de laboratorio) en lugar de confiar ciegamente en detectores de texto generado, equidad (garantizar que todo el estudiantado pueda realizar las tareas aunque no disponga de las mismas herramientas) y protección de la privacidad, especialmente en lo relativo a datos clínicos u otros datos sensibles. La presentación aterriza estos principios en una serie de roles y aplicaciones concretas de la IAGen en educación. Se describen, por ejemplo, funciones como la de “compañero de estudios” que ayuda al alumnado a reflexionar y preparar tareas; la de “motivador” que propone retos y actividades para ampliar el aprendizaje; o la de “evaluador dinámico” capaz de perfilar el conocimiento actual de cada estudiante y generar herramientas de autoevaluación, siempre que se mantenga el control humano y se diseñen estrategias claras de uso. Otras aplicaciones incluyen la generación de cuestionarios, rúbricas, explicaciones adaptadas al nivel del estudiante, guías de estudio, ejemplos de buena práctica o estímulos para el debate crítico. Todo esto lleva a la idea de alfabetización crítica en IA generativa. No basta con saber usar herramientas, sino que hay que usarlas con juicio, integrándolas en valores y prácticas académicas sólidas. Se ofrecen pautas para el reconocimiento explícito del uso de IAGen en trabajos académicos: explicar qué herramientas se han utilizado y con qué objetivos, indicar el número de iteraciones, describir los resultados incorporados, detallar las instrucciones empleadas y explicar cómo se ha integrado el output en el producto final. Esta práctica enlaza con las exigencias del AI Act y con la cultura de transparencia que promueven las universidades. Se presentan casos de uso detallados, donde se muestran flujos de trabajo que integran IAGen para ampliar contenidos, sintetizar bibliografía, analizar transcripciones de audio con herramientas como otter.ai, elaborar nubes de palabras o realizar investigación en profundidad mediante agentes que combinan razonamiento y búsqueda en múltiples fuentes. Estos casos están pensados para ilustrar cómo se pueden diseñar actividades que aprovechen las capacidades de la IA sin delegar en ella el juicio académico ni la responsabilidad última sobre el aprendizaje. Se reconoce que la IA amplifica problemas ya existentes en el sistema educativo, como la la superficialidad del aprendizaje, las desigualdades de acceso o la presión por la productividad, pero también que abre oportunidades sin precedentes para experimentar con nuevas formas de enseñar y aprender. Lejos de la retórica apocalíptica o ingenuamente entusiasta, se propone evitar que la ilusión eclipse la preocupación, pero también que la preocupación neutralice la ilusión. El salto vivido con ChatGPT y otras herramientas exige estudiar, diseñar, experimentar y evaluar sin descanso, con prudencia, pero con audacia, descartando la idea de que la tecnología vaya a arruinar por sí misma la educación. Se trata de ofrecer una visión panorámica y crítica de la IA generativa en educación. Se sitúan las herramientas en su contexto tecnológico e histórico, se exponen sus beneficios y riesgos para los distintos actores, se introducen los principales marcos éticos y normativos, se proponen escenarios operativos para su integración en la práctica docente y se ofrecen ejemplos concretos de uso responsable. Todo ello converge en un mensaje central, la IAGen no es un fin en sí mismo, sino un conjunto de instrumentos que, gestionados con criterio pedagógico, sentido ético y conocimiento del marco regulatorio, pueden contribuir a una educación más personalizada, inclusiva y orientada al desarrollo de competencias para la vida en la era de la IA.
  • Thumbnail Image
    Item
    Evaluación de competencias socioemocionales en el trabajo en equipo a partir de interacciones reales: una rúbrica con apoyo de inteligencia artificial basada en el modelo CTMTC
    (Servicio de Publicaciones Universidad de Zaragoz, 2025-06-11) Fidalgo-Blanco, Ángel; García-Peñalvo, Francisco José; Sein-Echaluce, María Luisa; Wang, Ningjing; Zhang, Xingyue
    Este trabajo presenta el análisis de una rúbrica diseñada para evaluar competencias socioemocionales en contextos de trabajo en equipo. La propuesta se enmarca en el modelo Comprehensive Training Model of the Teamwork Competence, que contempla el desarrollo grupal, las capacidades individuales y las habilidades socioemocionales como dimensiones complementarias de la competencia de trabajo en equipo. La rúbrica se aplicó al análisis de las interacciones reales entre los miembros de ocho equipos de estudiantes universitarios, en tres momentos clave del proceso colaborativo: elección del coordinador, elaboración de la normativa y reparto de tareas. A partir de estas evidencias, se evaluaron siete dimensiones: responsabilidad, empatía, cooperación, comunicación, iniciativa, apoyo/ayuda y flexibilidad/adaptación. Los resultados muestran una evolución positiva de las competencias socioemocionales a lo largo del trabajo en equipo y una alta consistencia interna de la rúbrica. La herramienta permite realizar un seguimiento formativo durante el desarrollo del equipo, aportando indicadores que orientan la intervención docente. Se concluye que este enfoque es válido para analizar de forma continua y precisa el comportamiento grupal en entornos educativos digitales.
  • Thumbnail Image
    Item
    Mito de la inteligencia. Más allá de una educación de silicio
    (Editorial UOC, 2024-12-15) García-Peñalvo, Francisco José
    Este capítulo busca no solo explorar, sino también ofrecer un análisis crítico sobre la IA en educación, avanzando en desmitificar los avances tecnológicos. Se enfoca en cómo la rápida disrupción tecnológica desafía a la sociedad, destacando la necesidad de preparación y comprensión para adaptarse a cambios en el trabajo, educación y vida personal. Además, aborda el problema de la sobreinformación y cómo evaluarla críticamente, enfatizando la importancia de discernir entre datos sesgados y sobredimensionados en este contexto acelerado.
  • Thumbnail Image
    Item
    Desarrollo de un Sistema Interactivo de Interconexión y Análisis de Imágenes DICOM con Retroalimentación Médica
    (Departamento de Informática y Automática. Universidad de Salamanca, 2025-03-19) Santos Blázquez, Pablo; García-Peñalvo, Francisco José; Vázquez-Ingelmo, Andrea
    La segmentación precisa de estructuras cardíacas en imágenes médicas es crucial para un diagnóstico y tratamiento efectivos. Este pro-yecto presenta el desarrollo de "dAIcom", una plataforma web interactiva para la visualización, anotación y análisis de imágenes DICOM (Digital Imaging and Communication in Medicine), mejorando la colaboración multidisciplinaria y la retroalimentación médica. Para ello, se ha integra-do un modelo de inteligencia artificial basado en la arquitectura UNET, entrenado específicamente para segmentar estructuras cardíacas como el ventrículo izquierdo, la aurícula izquierda y el miocardio en imágenes obtenidas mediante el uso de ultrasonidos (ecocardiografías). Con el fin de evaluar el rendimiento y la adaptabilidad del modelo, se han reali-zado tres experimentos de reentrenamiento. Los resultados revelan que un mayor número de imágenes y anotaciones mejora significativamente la capacidad de generalización del modelo, reduciendo el sobreajuste. Además, se desarrolla un sistema PACS (Picture Archiving and Commu-nication System) para gestionar y almacenar eficientemente las imágenes DICOM, asegurando la interoperabilidad y el almacenamiento seguro de los datos médicos. A lo largo del trabajo se han identificado diversos desafíos, incluyendo dificultades para obtener imágenes médicas debido a restricciones de confidencialidad y limitaciones computacionales. El trabajo futuro se centra en ampliar el conjunto de datos, optimizar los hiperparámetros y mejorar el proceso de anotación para incrementar la robustez y relevancia clínica del sistema. Estos esfuerzos buscan asegurar que la plataforma "dAIcom"no solo sea tecnológicamente avanzada, sino también clínicamente útil para mejorar la atención médica.
Creative Commons Attribution-NonCommercial-ShareAlike 4.0 Unported