GRIAL resources

Permanent URI for this communityhttps://repositorio.grial.eu/handle/123456789/1

Browse

Search Results

Now showing 1 - 10 of 32
  • Thumbnail Image
    Item
    Alfabetización en IA y su impacto en el empleo
    (Grupo GRIAL, 2026-02-16) García-Peñalvo, Francisco José
    Participación en el curso “La IA en la búsqueda de empleo”, organizado por el Servicio de Empleo y Emprendimiento (SIPPE) de la Universidad de Salamanca, con el tema “Alfabetización en IA y su impacto en el empleo”, de 4 horas de duración, impartido el 16 de febrero de 2026. El material de la sesión “Alfabetización en IA y su impacto en el empleo” se estructura como un recorrido que abarca desde la activación inicial del grupo hasta una comprensión básica (pero rigurosa) de la IA y, finalmente, a su aterrizaje en el mercado laboral y en la búsqueda de empleo. Empieza con una dinámica de “romper el hielo” para diagnosticar el punto de partida del alumnado: un semáforo de familiaridad con la IA (de “no he usado IA” a “la uso a menudo y sé comparar resultados”), un sondeo rápido sobre las herramientas utilizadas (ChatGPT, Gemini, Claude) y un mapa de usos reales (estudio, trabajo y búsqueda de empleo). También incorpora una “línea de posición” para debatir mitos y miedos: desde “la IA me ayuda y me da ventaja” hasta “la IA pone en riesgo mi empleo”, conectando con el contexto social del cambio tecnológico y con el “shock del futuro”. A partir de ahí, se define qué es la Inteligencia Artificial desde distintas perspectivas: se reconoce la dificultad de definirla debido a la coexistencia de paradigmas, se introduce la definición de McCarthy y se incluye la definición de la Comisión Europea, que enfatiza sistemas capaces de analizar su entorno y actuar con cierto grado de autonomía. Se distingue entre IA fuerte y débil, y se presentan tipologías (ANI, AGI, ASI) y ámbitos de aplicación (derecho, medicina, industria, educación, etc.), para evidenciar que la IA ya opera en múltiples dominios. El bloque “cómo funciona una IA” utiliza una analogía pedagógica (un bebé que aprende) para explicar conceptos como modelo, datos, entrenamiento y evaluación, y para diferenciar entre el aprendizaje supervisado, el no supervisado y el por refuerzo. Se introduce el ajuste fino (fine-tuning) como una especialización, lo que refuerza la idea de que no existe un modelo universalmente excelente para todo: la especialización y el contexto importan. En la parte de Inteligencia Artificial Generativa se enmarca la disrupción asociada a los grandes modelos de lenguaje (LLM) y a la popularización de las interfaces conversacionales. Se explican, de forma accesible, conceptos como token, probabilidad de la siguiente palabra, parámetros y ventana de contexto. Se ofrece un panorama de técnicas (GAN, GPT, modelos de difusión, etc.), beneficios (productividad, creatividad, aprendizaje informal) y riesgos (alucinaciones, sesgos, privacidad, dependencia, impacto ambiental), con especial atención a las alucinaciones y sus tipos: contradicciones, errores factuales o matemáticos y citas inventadas. El tramo de mercado laboral aterriza en el ATS (Applicant Tracking System): software que recibe, parsea y organiza candidaturas, permite filtrar por palabras clave y prioriza una lista para su revisión humana. De ahí se derivan reglas prácticas: CV legible para el sistema y convincente para la persona, secciones estándar, texto real (evitar imágenes para datos clave), ítems claros con logros medibles y palabras clave coherentes sin “relleno”. Se enseña a identificar keywords en la oferta (técnicas, transversales, tareas y “knockout”) y dónde ubicarlas en el CV. Finalmente, se presenta cómo “traduce” la IA un perfil (experiencia → competencias inferidas → evidencias/logros → keywords) y se propone un proceso guiado con herramientas: crear cuentas, probar prompts y realizar un caso completo de oferta → requisitos → viñetas STAR y versión ATS. Como cierre, se subraya que el chat parece fácil, pero la calidad depende del prompt y del contexto; y que hay que verificar, medir y mantener la autenticidad.
  • Thumbnail Image
    Item
    Uso de la IA generativa en la docencia
    (Grupo GRIAL, 2026-02-06) García-Peñalvo, Francisco José
    Conferencia plenaria invitada de 1 hora de duración impartida en las II Jornadas de Inteligencia Artificial para la Docencia Universitaria de la Universidad de La Laguna, celebradas en el Salón de Actos del Edificio de Ciencias de la Comunicación “La Pirámide”, La Laguna, Tenerife, España, el 6 de febrero de 2026. Se explora el impacto disruptivo de la Inteligencia Artificial Generativa (IAGen) en la educación superior. Se define la IAGen como una tecnología capaz de producir contenidos sintéticos inéditos en diversos formatos, marcando un punto de inflexión por su accesibilidad e integración en la vida cotidiana del ciudadano. Uno de los grandes desafíos analizados son las “alucinaciones”, fenómenos donde los modelos generan información falsa o inventada que resulta coherente, incluyendo citas bibliográficas inexistentes o errores lógicos. Asimismo, se aborda el “mito de la muerte de la originalidad”, señalando que, si bien la IA facilita el trabajo superficial, puede socavar la integridad académica y el aprendizaje genuino si se emplea de forma acrítica. Ante esta realidad, el autor propone transitar de la prohibición hacia una regulación ética basada en el reconocimiento del uso de la IA, tratándola como una herramienta legítima siempre que se declare de forma transparente. La ponencia defiende un cambio de paradigma fundamental: pasar de la visión del “reemplazo” a la del “aumento”. Bajo este enfoque, la IA no busca sustituir al docente, sino actuar como un instrumento avanzado dentro de una "orquesta" dirigida por humanos. Surge así el concepto de “Inteligencia Híbrida”, definida como la capacidad de alcanzar objetivos complejos mediante la combinación de la inteligencia humana y la artificial para lograr resultados superiores. En este ecosistema, lo “híbrido” trasciende la dualidad presencial/virtual para integrar humanos, IA, datos y responsabilidad. Para garantizar una implementación segura, se presentan marcos de referencia clave como las orientaciones de la UNESCO, el Reglamento de IA de la Unión Europea (AI Act) y el “Safe AI in Education Manifesto”. Estos marcos enfatizan principios esenciales como la supervisión humana, la transparencia en el contenido sintético, la privacidad y la equidad. En el plano práctico, se proponen tres escenarios de uso graduados por autonomía y riesgo: el apoyo responsable al trabajo docente, la colaboración guiada en actividades de aula y la cocreación por parte del estudiantado para su propio aprendizaje. Cada escenario exige niveles específicos de alfabetización y plantea retos en la evaluación auténtica, donde el proceso de interacción y el juicio crítico cobran más relevancia que el producto final. Finalmente, la conferencia concluye que la tecnología no es neutral y que el profesorado debe liderar esta transformación. Es imperativo fomentar una “alfabetización crítica” que permita discernir las capacidades reales de la IA, automatizar tareas tediosas y centrar el esfuerzo educativo en el desarrollo de la creatividad y la autonomía intelectual. El éxito reside en enriquecer la orquesta educativa con este nuevo instrumento, manteniendo siempre el propósito humano como guía pedagógica.
  • Thumbnail Image
    Item
    Estrategias para gestionar el uso de la inteligencia artificial en la práctica docente
    (Grupo GRIAL, 2026-02-03) García-Peñalvo, Francisco José
    Conferencia plenaria invitada de 1 hora de duración impartida en las VIII Jornadas de Experiencias Docentes de la Universitat de les Illes Balears, celebradas el 3 de febrero de 2026 en el edificio Gaspar Melchor de Jovellanos, Palma de Mallorca. Se plantea un marco práctico para gestionar el uso de la inteligencia artificial generativa (IAGen) en docencia, partiendo de una aclaración conceptual: la IA se entiende como sistemas que actúan con cierto grado de autonomía para lograr objetivos, mientras que la IAGen se centra en la producción de contenidos sintéticos inéditos (texto, imagen, audio, vídeo, código, etc.) mediante modelización generativa. A partir de ahí, se subraya que la educación ya convive con contenidos generados automáticamente difíciles de atribuir con certeza, lo que alimenta debates (a veces polarizados) sobre integridad, evaluación y aprendizaje. Uno de los ejes es reducir la discusión “prohibir vs permitir” y moverla hacia cómo usar estas herramientas con sentido pedagógico: no tanto “cómo evitar que el estudiantado engañe”, sino cómo incorporarlas de manera que se aprenda. Para ello, se destacan riesgos bien conocidos, como las alucinaciones y la fabricación de información plausible pero falsa, y el “mito de la muerte de la originalidad”: la IAGen puede producir trabajos “originales” que no son copias, pero tampoco expresan autoría genuina, favoreciendo el trabajo superficial si se usa de forma acrítica. En coherencia, se apunta a que existe consenso institucional en considerar plagio el texto totalmente generado por IA sin reconocimiento y se propone una respuesta regulatoria y ética basada en declarar el uso. Se ofrecen pautas concretas de reconocimiento (qué herramienta, con qué propósito, iteraciones, qué se incorpora y cómo se adapta), junto con la idea de que la alfabetización crítica no es solo “saber usar”, sino usar con juicio dentro de valores académicos. El núcleo propositivo articula un cambio de paradigma: del reemplazo al aumento, entendiendo la IA como “instrumento” que docentes y estudiantes dirigen para potenciar el aprendizaje, y defendiendo ecosistemas híbridos donde la IA potencia la inteligencia humana en lugar de sustituirla. En esa línea, se introduce la colaboración persona-IA como aumento de metas, percepción/interpretación, acción y decisión, siempre con supervisión humana. Se recuerda además el valor educativo del proceso de interacción (prompts y diálogo): el proceso puede ser tan importante como el resultado. Para operativizarlo, se proponen tres escenarios graduados por autonomía, agencia y riesgo: (1) apoyo responsable (IA como soporte al trabajo docente), (2) colaboración guiada (IA integrada en actividades con estudiantes) y (3) cocreación con declaración reforzada (estudiantes usando IA para aprender). En los tres aparecen principios recurrentes: transparencia (definir usos aceptables/obligatorios y cómo declararlos), privacidad, equidad (accesos desiguales), sostenibilidad (licencias/recursos) y evaluación auténtica centrada en el proceso, evitando confianza ciega en detectores y usando evidencias (vivas, trabajo en clase, iteraciones, entregas incrementales…). Todo ello se encuadra en marcos de referencia (UNESCO, AI Act, SAFE y el Safe AI in Education Manifesto) para asegurar una adopción segura, responsable y alineada con fines educativos.
  • Thumbnail Image
    Item
    Inteligencia Artificial Generativa y su influencia en los procesos educativos
    (Grupo GRIAL, 2025-12-03) García-Peñalvo, Francisco José
    Clase magistral y taller de inteligencia artificial generativa (IAGen) impartidos en el contexto de la Unidad I: Gestión de la Tecnología y del Conocimiento, de la asignatura Diseño y Evaluación de Recursos Informáticos del Máster Universitario en las TIC en la Educación: Análisis y Diseño de Procesos, Recursos y Prácticas Formativas, el día 3 de diciembre de 2025 en la Facultad de Educación, Universidad de Salamanca. La inteligencia artificial generativa, con ChatGPT como emblema, está transformando la educación y, en particular, los procesos de enseñanza, aprendizaje e investigación en la universidad. A la hora de construir un relato sobre su uso en la academia, es importante no limitarse a describir herramientas, sino que se debe construir un marco conceptual, ético y normativo para decidir cómo usarlas, con qué fines y en qué condiciones, proponiendo una hoja de ruta razonada para el profesorado. El punto de partida es la constatación de que la inteligencia artificial (IA) ya forma parte del ecosistema educativo. Hoy la IA puede ser simultáneamente objeto de estudio, herramienta de aprendizaje y entorno en el que se aprende. Se diferencia entre aprender sobre la IA (comprender sus fundamentos, límites y sesgos), aprender con la IA (usar sistemas de recomendación, analítica de aprendizaje o tutores inteligentes para mejorar la docencia) y aprender a través de la IA, cuando esta se convierte en medio principal de acceso al conocimiento, como ocurre con los tutores adaptativos o los asistentes personales avanzados. Este contexto se enmarca en iniciativas internacionales como el Consenso de Beijing sobre IA y educación, que insiste en planificar la IA en las políticas educativas, apoyar a la docencia, favorecer el aprendizaje a lo largo de la vida y promover un uso equitativo, ético y transparente de los datos y algoritmos. La idea clave es que la IA no es un añadido accesorio, sino un factor estructural que condiciona la manera de aprender, trabajar y participar en la sociedad. A partir de ahí, el material introduce de forma accesible la irrupción de la IAGen. subraya que ya es posible generar automáticamente contenido educativo en múltiples formatos (texto, imagen, vídeo, audio, presentaciones) con calidad suficiente para ser usado como material docente o como producto de tareas académicas, muchas veces sin que sea viable detectar con certeza su origen. Esto abre oportunidades, pero también tensiona los modelos de evaluación, la autoría y la integridad académica. Se alerta además frente a los mitos y exageraciones asociados a la IA, tanto los catastrofistas como los excesivamente optimistas, que alimentan un solucionismo tecnológico ajeno a los matices de la práctica educativa real. Uno de los hilos conductores es el dilema de Prometeo. Ante una tecnología poderosa, opaca y propensa a alucinaciones, ¿la respuesta educativa debe ser prohibir su uso o aprender a integrarla críticamente? El recurso insiste en que la prohibición es una falsa solución, porque el estudiantado ya utiliza estas herramientas en todos los niveles educativos. La cuestión relevante no es tanto si se usarán, sino cómo lograr que su uso contribuya a un aprendizaje más profundo y honesto. En este marco se analizan las oportunidades y retos de la IAGen en la universidad. Para el profesorado, los beneficios potenciales incluyen el enriquecimiento del contenido educativo, el apoyo a la creatividad y la productividad, la mejora de la evaluación y la posibilidad de personalizar el aprendizaje del alumnado, además de favorecer su propia competencia digital. El reverso de la moneda son riesgos como el recelo ante el uso estudiantil de la IA, la sobrevaloración de sus capacidades, su utilización inadecuada, la dependencia tecnológica, la pérdida de autoría, la despersonalización de la relación pedagógica y las amenazas a la privacidad. En el caso del estudiantado, se señalan potenciales impactos positivos en el pensamiento crítico y la creatividad, el prototipado de ideas, el aprendizaje personalizado, la productividad y el desarrollo de competencias digitales. Pero también se advierte del peligro de un aprendizaje superficial, el uso deshonesto, la falta de capacidad para curar la información, la pérdida de pensamiento crítico, la despersonalización y las brechas de acceso entre quienes pueden usar estas herramientas en buenas condiciones y quienes no. Algo similar ocurre con la investigación: la IAGen puede acelerar procesos, automatizar tareas rutinarias y abrir vías de innovación, pero también plantear problemas de alucinaciones no detectadas, debates éticos, falta de curación del contenido, sesgos y vulneraciones de privacidad. Para ordenar esta discusión, el recurso dedica una parte importante a los marcos normativos y éticos que orientan el uso responsable de la IA. Se presentan las orientaciones de la UNESCO sobre IA y educación, que priorizan los derechos humanos, la inclusión y el desarrollo sostenible, y la necesidad de alfabetizar en IA tanto a profesorado como a estudiantes, diseñar experiencias centradas en la persona y fortalecer la capacidad institucional. Se resume el AI Act de la Unión Europea, una regulación basada en el riesgo que establece categorías de sistemas, obligaciones de transparencia y seguridad y, muy especialmente, el artículo 50 sobre el marcado del contenido generado por IA, que obliga a identificar los materiales sintéticos. Junto a ello se describe el marco SAFE, que organiza la reflexión en torno a cuatro principios: seguridad (Safety), responsabilidad (Accountability), justicia (Fairness) y eficacia (Efficacy), con especial atención a la coherencia con los principios éticos en educación y al diseño de actividades que garanticen estos criterios. Finalmente se presenta el Safe AI in Education Manifesto, que defiende que la IA en educación debe estar siempre al servicio de las personas y de los fines formativos, subrayando principios como la agencia del estudiantado, la verificación de la información, la inclusión, la transparencia, el derecho de apelación y la necesidad de explicitar cómo se usan los datos y las fuentes. Un apartado especialmente relevante es el dedicado a las tres grandes formas de integrar la IA en educación, formuladas como escenarios graduados por autonomía, agencia y riesgo. En el primero, el profesorado usa herramientas de IA como apoyo a su trabajo (por ejemplo, para preparar materiales, diseñar rúbricas o generar ejemplos). En el segundo, el profesorado incorpora esas herramientas en actividades con el estudiantado, lo que exige una alfabetización elevada en ambos colectivos y una definición clara de qué herramientas son aceptables, con qué usos y cómo debe declararse su empleo. En el tercero, el estudiantado utiliza por su cuenta herramientas de IA para aprender, lo que aumenta el riesgo y hace aún más necesaria la competencia digital y la capacidad de mantener la agencia sobre el propio aprendizaje. En todos los escenarios se enfatizan principios comunes: transparencia (declarar en qué procesos se usa la IA), evaluación auténtica centrada en el proceso y apoyada en evidencias (trabajo en clase, entregas incrementales, diarios o cuadernos de laboratorio) en lugar de confiar ciegamente en detectores de texto generado, equidad (garantizar que todo el estudiantado pueda realizar las tareas aunque no disponga de las mismas herramientas) y protección de la privacidad, especialmente en lo relativo a datos clínicos u otros datos sensibles. La presentación aterriza estos principios en una serie de roles y aplicaciones concretas de la IAGen en educación. Se describen, por ejemplo, funciones como la de “compañero de estudios” que ayuda al alumnado a reflexionar y preparar tareas; la de “motivador” que propone retos y actividades para ampliar el aprendizaje; o la de “evaluador dinámico” capaz de perfilar el conocimiento actual de cada estudiante y generar herramientas de autoevaluación, siempre que se mantenga el control humano y se diseñen estrategias claras de uso. Otras aplicaciones incluyen la generación de cuestionarios, rúbricas, explicaciones adaptadas al nivel del estudiante, guías de estudio, ejemplos de buena práctica o estímulos para el debate crítico. Todo esto lleva a la idea de alfabetización crítica en IA generativa. No basta con saber usar herramientas, sino que hay que usarlas con juicio, integrándolas en valores y prácticas académicas sólidas. Se ofrecen pautas para el reconocimiento explícito del uso de IAGen en trabajos académicos: explicar qué herramientas se han utilizado y con qué objetivos, indicar el número de iteraciones, describir los resultados incorporados, detallar las instrucciones empleadas y explicar cómo se ha integrado el output en el producto final. Esta práctica enlaza con las exigencias del AI Act y con la cultura de transparencia que promueven las universidades. Se presentan casos de uso detallados, donde se muestran flujos de trabajo que integran IAGen para ampliar contenidos, sintetizar bibliografía, analizar transcripciones de audio con herramientas como otter.ai, elaborar nubes de palabras o realizar investigación en profundidad mediante agentes que combinan razonamiento y búsqueda en múltiples fuentes. Estos casos están pensados para ilustrar cómo se pueden diseñar actividades que aprovechen las capacidades de la IA sin delegar en ella el juicio académico ni la responsabilidad última sobre el aprendizaje. Se reconoce que la IA amplifica problemas ya existentes en el sistema educativo, como la la superficialidad del aprendizaje, las desigualdades de acceso o la presión por la productividad, pero también que abre oportunidades sin precedentes para experimentar con nuevas formas de enseñar y aprender. Lejos de la retórica apocalíptica o ingenuamente entusiasta, se propone evitar que la ilusión eclipse la preocupación, pero también que la preocupación neutralice la ilusión. El salto vivido con ChatGPT y otras herramientas exige estudiar, diseñar, experimentar y evaluar sin descanso, con prudencia, pero con audacia, descartando la idea de que la tecnología vaya a arruinar por sí misma la educación. Se trata de ofrecer una visión panorámica y crítica de la IA generativa en educación. Se sitúan las herramientas en su contexto tecnológico e histórico, se exponen sus beneficios y riesgos para los distintos actores, se introducen los principales marcos éticos y normativos, se proponen escenarios operativos para su integración en la práctica docente y se ofrecen ejemplos concretos de uso responsable. Todo ello converge en un mensaje central, la IAGen no es un fin en sí mismo, sino un conjunto de instrumentos que, gestionados con criterio pedagógico, sentido ético y conocimiento del marco regulatorio, pueden contribuir a una educación más personalizada, inclusiva y orientada al desarrollo de competencias para la vida en la era de la IA.
  • Thumbnail Image
    Item
    IA en Educación: Tres escenarios clave para aplicar la IA en la práctica docente
    (Grupo GRIAL, 2025-11-19) García-Peñalvo, Francisco José
    Conferencia plenaria invitada de 1 hora de duración impartida en las XII Jornadas Iberoamericanas de Innovación Educativa en el ámbito de las TIC y las TAC - InnoEducaTIC 2025, celebradas del 19 al 21 de noviembre de 2025 en el Edificio de Electrónica y Telecomunicación de la Universidad de Las Palmas de Gran Canaria, ubicado en el Campus Universitario de Tafira. Esta conferencia se impartió en modo online el 19 de noviembre. Se presenta un recorrido estructurado sobre cómo integrar la inteligencia artificial generativa (IAGen) en la educación desde una perspectiva crítica, apoyándose en marcos internacionales y desembocando en tres escenarios de uso para la práctica docente. Se inicia recordando qué es la IA y, en concreto, la IAGen: sistemas capaces de generar contenido sintético original (texto, imágenes, audio, vídeo, código…) con calidad suficiente como para convertirse en material docente o en productos entregables de los estudiantes, difíciles de detectar como generados por máquinas. Tras una breve aclaración de conceptos (IA, modelos de lenguaje masivos, parámetros, ventana de contexto), se plantea el cambio de escala que suponen los LLM y su rápida cronología reciente. A partir de ahí, se introduce el impacto específico en educación: generación automática de contenidos en múltiples formatos, que abre oportunidades, pero también refuerza el problema de la detección y la autoría real de los trabajos. Se señala que la educación no ha quedado al margen del ruido mediático: abundan visiones catastrofistas (la IA destruirá la escuela o anulará la originalidad) y visiones ingenuamente entusiastas (la IA como solución mágica a todos los problemas). Se menciona el “dilema de Prometeo”: ¿tiene sentido prohibir la IAGen como medida de protección, dado su carácter de caja negra y su tendencia a alucinar, o debemos aprender a convivir con ella? Esta tensión está en el fondo del debate educativo actual. Uno de los mensajes centrales es que el estudiantado ya usa estas herramientas en todos los niveles educativos. Los datos recientes sobre educación superior muestran un aumento constante del uso por parte de estudiantes, docentes y administradores, así como un cambio en la carga de trabajo del profesorado: disminuye el tiempo dedicado a diseñar materiales o responder correos, pero aumenta la vigilancia del fraude y la necesidad de rediseñar la evaluación. La pregunta ya no es “si las usarán”, sino “cómo las estamos integrando”. A continuación, se abordan los riesgos específicos, especialmente las alucinaciones: respuestas plausibles pero falsas, contradicciones internas, errores lógicos, invención de citas bibliográficas, etc. Estas limitaciones se conectan con el “mito de la muerte de la originalidad”: la IA permite trabajos formalmente originales que no proceden del esfuerzo del estudiante, facilitando un aprendizaje superficial y amenazando la autoría genuina si se emplea de modo acrítico. Ante esta realidad, muchas instituciones consideran el texto generado íntegramente por IA sin reconocimiento como una forma de plagio. Se está transitando hacia modelos en los que se aceptan ciertos usos, pero con regulación ética y exigencia de transparencia. Se propone, como mínimo, una declaración explícita del uso de IA que describa herramientas empleadas, propósitos, instrucciones clave y cómo se ha adaptado el resultado. Se muestran ejemplos concretos de la Universidad de Monash, que ilustran buenas prácticas para incluir este reconocimiento en los trabajos académicos. Sobre esta base se introduce la alfabetización crítica en IA: no basta con saber manejar herramientas, sino con situar su uso dentro de valores y prácticas académicas. Se resumen cuatro ideas operativas: verificar antes de adoptar; garantizar equidad e inclusión; mantener la agencia humana explícita en la toma de decisiones; y asegurar transparencia y rendición de cuentas documentando el uso de IA. Estos principios se articulan con varios marcos de referencia: las orientaciones de la UNESCO, el Reglamento Europeo de IA (AI Act), el marco SAFE (Safe, Accountable, Fair, Explainable) y el Manifiesto Safe AI in Education, que insiste en la supervisión humana, la confidencialidad, la precisión y la explicabilidad. Se pasa después a una dimensión más práctica: la “caja de herramientas” de IA en educación (transcripción, generación de texto, imagen, audio, vídeo, infografías, presentaciones, chatbots multimodales…). Se insiste en que la calidad de la respuesta depende del prompt y del contexto que se aporta al modelo; un mejor contexto permite respuestas más útiles y ajustadas. Esto es pedagógicamente relevante, porque el proceso de diálogo con el sistema y la calidad de las preguntas tienen valor formativo en sí mismos. El núcleo de la conferencia es la propuesta de tres escenarios de uso de la IA en educación. El primero, apoyo responsable, se centra en el uso de la IA por parte del profesorado como herramienta de preparación y apoyo (generar materiales, reformular explicaciones, diseñar actividades) con bajo riesgo si se mantiene la agencia docente, se respeta la privacidad y se declara el uso. El segundo, colaboración guiada, incorpora la IA como parte de las actividades del estudiantado, pero con una fuerte guía del profesorado, énfasis en la evaluación auténtica y prioridad al proceso (versiones, iteraciones, trabajo en clase) frente al producto final. El tercero, cocreación con declaración de uso reforzada, contempla un uso más autónomo de la IA por parte del estudiantado en productos de alto impacto (TFG/TFM, recursos abiertos), con riesgos mayores que se compensan exigiendo trazabilidad completa, transparencia, equidad en el acceso y revisión rigurosa. En las conclusiones, se destaca que, tres años después de la irrupción de ChatGPT, el profesorado sigue polarizado entre la tecnofobia y la tecnofilia. Muchos problemas que hoy se achacan a la IA (desigualdades, evaluación basada en la memorización, desajuste entre tareas y competencias) ya existían antes, pero la IA los amplifica y visibiliza. Prohibir sin más no resuelve estas tensiones; el reto es comprender qué aporta realmente a la enseñanza, al aprendizaje y a la investigación, y ponerla al servicio de un aprendizaje más profundo. Finalmente, se subraya la importancia de formar tanto al profesorado como al estudiantado en el uso crítico de la IA, promover comunidades de práctica y compartir buenas experiencias. La IA no es buena ni mala, ni neutral: su impacto dependerá de cómo la diseñemos, la gobernemos y la usemos en los contextos educativos reales.
  • Thumbnail Image
    Item
    Inteligencia Artificial Generativa en Investigación
    (Servicio de Publicaciones Universidad de Zaragoza, 2025-06-11) García-Peñalvo, Francisco José; Fonseca, David
    Taller impartido en la VIII Edición del Congreso Internacional sobre Innovación, Aprendizaje y Cooperación, CINAIC 2025. La Inteligencia Artificial Generativa se ha consolidado como una herramienta de uso extendido en múltiples ámbitos, incluyendo el académico, y tiene impacto en todas las funciones universitarias. En el contexto de la investigación, su presencia puede abarcar todas las fases del proceso: desde la formulación de propuestas y la revisión del estado de la cuestión, hasta la redacción de artículos científicos y la difusión de resultados a la comunidad académica y a la sociedad. La prohibición de estas herramientas no resulta una estrategia realista ni eficaz. Por tanto, se hace imprescindible comprender su potencial, sus limitaciones y los principios éticos que deben guiar su integración responsable en la práctica investigadora. Este taller ofrece una reflexión crítica y práctica sobre el uso de la IA generativa en investigación, promoviendo un enfoque ético, informado y productivo.
  • Thumbnail Image
    Item
    La Inteligencia Artificial Generativa como facilitadora de la atención a la Diversidad en Educación
    (Servicio de Publicaciones Universidad de Zaragoza, 2025-06-11) Fonseca, David; García-Peñalvo, Francisco José
    Taller impartido en la VIII Edición del Congreso Internacional sobre Innovación, Aprendizaje y Cooperación, CINAIC 2025. Gracias a los actuales procesos diagnósticos, cada vez en más cantidad, y más pronto, se identifican a los estudiantes afectados por todo tipo de trastornos mentales y situaciones que afectan a su aprendizaje, lo que conocemos como trastornos del aprendizaje. En este sentido, las instituciones educativas han desarrollado e implementado, en mayor o menor medida, políticas que ayudan a atender y mejorar la inclusión de estos perfiles. No obstante, la implementación de dichas políticas suele ser compleja o controvertida en determinadas materias, siendo un nicho de oportunidad para el uso de la Inteligencia Artificial Generativa como método de soporte en la creación, adaptación e incluso evaluación de materiales y estudiantes. En este sentido, la IA generativa brinda una oportunidad para mejorar la inclusión en nuestras aulas a partir de mejorar los actuales formatos educativos y evaluativos en ejecución.
  • Thumbnail Image
    Item
    Integración de herramientas de IA generativa en el Diseño Centrado en el Usuario
    (Universidad de Salamanca. Instituto Universitario de Ciencias de la Educación, 2025-10-31) Therón-Sánchez, Roberto; García-Holgado, Alicia; Silva, Luis Augusto
    Durante los cursos académicos 2023-2024 y 2024-2025 se ha desarrollado una experiencia docente en la asignatura Interacción Persona-Ordenador del Grado en Ingeniería Informática de la Universidad de Salamanca, centrada en la integración de herramientas de inteligencia artificial generativa (IAGen) en el proceso de Diseño Centrado en el Usuario (DCU). Esta práctica surge ante la necesidad de evitar un uso inadecuado o poco crítico de estas herramientas por parte del alumnado, promoviendo en su lugar una integración fundamentada, ética y coherente con los principios del DCU. La experiencia se estructura en torno a seis prácticas de evaluación continua que abarcan las distintas fases del diseño, desde la identificación de necesidades hasta la elaboración y evaluación de prototipos, incorporando ejemplos de uso de IAGen y pautas específicas para orientar al estudiantado. A lo largo del proceso, el alumnado debía documentar el uso de estas herramientas y reflexionar sobre las decisiones tomadas. Los resultados han sido moderadamente positivos: si bien se ha constatado un uso funcional de la IAGen como apoyo en tareas concretas, también se ha identificado una preocupante falta de pensamiento crítico y escasa capacidad para documentar adecuadamente su aplicación. La propuesta demuestra que ignorar o prohibir el uso de estas herramientas no resulta realista ni formativo; en cambio, su incorporación guiada puede contribuir al desarrollo de competencias clave como la toma de decisiones fundamentadas, la reflexión sobre el proceso de diseño y el uso responsable de la tecnología.
  • Thumbnail Image
    Item
    Análisis PESTLE potenciado por IA Generativa: Una experiencia innovadora en la asignatura Gobierno de Tecnologías de la Información del Máster Universitario en Ingeniería Informática
    (Universidad de Salamanca. Instituto Universitario de Ciencias de la Educación, 2025-10-31) García-Peñalvo, Francisco José
    Este trabajo describe una experiencia docente en la que se empleó inteligencia artificial generativa para ayudar a estudiantes del Máster Universitario en Ingeniería Informática de la Universidad de Salamanca a analizar el impacto de nuevas tecnologías usando el modelo PESTLE, que evalúa factores políticos, económicos, sociales, tecnológicos, legales y ambientales. Ante la dificultad de contar con expertos reales en temas emergentes, se diseñó un asistente virtual personalizado, configurado y utilizado por los propios estudiantes para “entrevistar” a un experto simulado. Esta metodología fomentó el trabajo en equipo, el pensamiento crítico y el uso ético y transparente de la inteligencia artificial. Los resultados fueron muy positivos: la mayoría del alumnado obtuvo calificaciones excelentes y valoró muy bien la experiencia. Además, la práctica es fácilmente adaptable a otras asignaturas y destaca la importancia de reflexionar sobre el uso seguro y responsable de la inteligencias artificial en la universidad.
  • Thumbnail Image
    Item
    Chatbot ético y supervisado para la enseñanza de UML: Una experiencia en Ingeniería del Software
    (Universidad de Salamanca. Instituto Universitario de Ciencias de la Educación, 2025-10-31) Vázquez-Ingelmo, Andrea; García-Holgado, Alicia; García-Peñalvo, Francisco José; Therón-Sánchez, Roberto; Conde-González, Miguel Ángel
    Esta buena práctica presenta el diseño, implementación y evaluación de un sistema basado en inteligencia artificial para apoyar el aprendizaje del modelado conceptual con diagramas de clases UML. Desarrollado en dos asignaturas del Grado en Ingeniería Informática de la Universidad de Salamanca (curso 2024-2025), el sistema funciona de forma local, ética y segura, mediante un chatbot especializado supervisado por el profesorado. Su objetivo es ofrecer un entorno interactivo que facilite la comprensión del modelado UML, promoviendo el razonamiento autónomo y la reflexión crítica sobre el uso de la IA. La herramienta permite generar enunciados, subir soluciones en imagen y recibir retroalimentación asíncrona, todo de forma anónima y en servidores institucionales. Durante la fase piloto, se registraron 110 mensajes de 13 estudiantes, con resultados positivos en facilidad de uso y potencial de adopción según la escala SUS. Sin embargo, se identificaron desafíos técnicos (sobrecarga, errores en español) y una baja adhesión a los requisitos de trazabilidad en el uso de IA. La experiencia evidencia la importancia de reforzar la alfabetización digital crítica, aclarar el alcance funcional y acompañar pedagógicamente el uso de estas herramientas.
Creative Commons Attribution-NonCommercial-ShareAlike 4.0 Unported