GRIAL resources
Permanent URI for this communityhttps://repositorio.grial.eu/handle/123456789/1
Browse
1368 results
Search Results
Item Alfabetización en IA y su impacto en el empleo(Grupo GRIAL, 2026-02-16) García-Peñalvo, Francisco JoséParticipación en el curso “La IA en la búsqueda de empleo”, organizado por el Servicio de Empleo y Emprendimiento (SIPPE) de la Universidad de Salamanca, con el tema “Alfabetización en IA y su impacto en el empleo”, de 4 horas de duración, impartido el 16 de febrero de 2026. El material de la sesión “Alfabetización en IA y su impacto en el empleo” se estructura como un recorrido que abarca desde la activación inicial del grupo hasta una comprensión básica (pero rigurosa) de la IA y, finalmente, a su aterrizaje en el mercado laboral y en la búsqueda de empleo. Empieza con una dinámica de “romper el hielo” para diagnosticar el punto de partida del alumnado: un semáforo de familiaridad con la IA (de “no he usado IA” a “la uso a menudo y sé comparar resultados”), un sondeo rápido sobre las herramientas utilizadas (ChatGPT, Gemini, Claude) y un mapa de usos reales (estudio, trabajo y búsqueda de empleo). También incorpora una “línea de posición” para debatir mitos y miedos: desde “la IA me ayuda y me da ventaja” hasta “la IA pone en riesgo mi empleo”, conectando con el contexto social del cambio tecnológico y con el “shock del futuro”. A partir de ahí, se define qué es la Inteligencia Artificial desde distintas perspectivas: se reconoce la dificultad de definirla debido a la coexistencia de paradigmas, se introduce la definición de McCarthy y se incluye la definición de la Comisión Europea, que enfatiza sistemas capaces de analizar su entorno y actuar con cierto grado de autonomía. Se distingue entre IA fuerte y débil, y se presentan tipologías (ANI, AGI, ASI) y ámbitos de aplicación (derecho, medicina, industria, educación, etc.), para evidenciar que la IA ya opera en múltiples dominios. El bloque “cómo funciona una IA” utiliza una analogía pedagógica (un bebé que aprende) para explicar conceptos como modelo, datos, entrenamiento y evaluación, y para diferenciar entre el aprendizaje supervisado, el no supervisado y el por refuerzo. Se introduce el ajuste fino (fine-tuning) como una especialización, lo que refuerza la idea de que no existe un modelo universalmente excelente para todo: la especialización y el contexto importan. En la parte de Inteligencia Artificial Generativa se enmarca la disrupción asociada a los grandes modelos de lenguaje (LLM) y a la popularización de las interfaces conversacionales. Se explican, de forma accesible, conceptos como token, probabilidad de la siguiente palabra, parámetros y ventana de contexto. Se ofrece un panorama de técnicas (GAN, GPT, modelos de difusión, etc.), beneficios (productividad, creatividad, aprendizaje informal) y riesgos (alucinaciones, sesgos, privacidad, dependencia, impacto ambiental), con especial atención a las alucinaciones y sus tipos: contradicciones, errores factuales o matemáticos y citas inventadas. El tramo de mercado laboral aterriza en el ATS (Applicant Tracking System): software que recibe, parsea y organiza candidaturas, permite filtrar por palabras clave y prioriza una lista para su revisión humana. De ahí se derivan reglas prácticas: CV legible para el sistema y convincente para la persona, secciones estándar, texto real (evitar imágenes para datos clave), ítems claros con logros medibles y palabras clave coherentes sin “relleno”. Se enseña a identificar keywords en la oferta (técnicas, transversales, tareas y “knockout”) y dónde ubicarlas en el CV. Finalmente, se presenta cómo “traduce” la IA un perfil (experiencia → competencias inferidas → evidencias/logros → keywords) y se propone un proceso guiado con herramientas: crear cuentas, probar prompts y realizar un caso completo de oferta → requisitos → viñetas STAR y versión ATS. Como cierre, se subraya que el chat parece fácil, pero la calidad depende del prompt y del contexto; y que hay que verificar, medir y mantener la autenticidad.Item Uso de la IA generativa en la docencia(Grupo GRIAL, 2026-02-06) García-Peñalvo, Francisco JoséConferencia plenaria invitada de 1 hora de duración impartida en las II Jornadas de Inteligencia Artificial para la Docencia Universitaria de la Universidad de La Laguna, celebradas en el Salón de Actos del Edificio de Ciencias de la Comunicación “La Pirámide”, La Laguna, Tenerife, España, el 6 de febrero de 2026. Se explora el impacto disruptivo de la Inteligencia Artificial Generativa (IAGen) en la educación superior. Se define la IAGen como una tecnología capaz de producir contenidos sintéticos inéditos en diversos formatos, marcando un punto de inflexión por su accesibilidad e integración en la vida cotidiana del ciudadano. Uno de los grandes desafíos analizados son las “alucinaciones”, fenómenos donde los modelos generan información falsa o inventada que resulta coherente, incluyendo citas bibliográficas inexistentes o errores lógicos. Asimismo, se aborda el “mito de la muerte de la originalidad”, señalando que, si bien la IA facilita el trabajo superficial, puede socavar la integridad académica y el aprendizaje genuino si se emplea de forma acrítica. Ante esta realidad, el autor propone transitar de la prohibición hacia una regulación ética basada en el reconocimiento del uso de la IA, tratándola como una herramienta legítima siempre que se declare de forma transparente. La ponencia defiende un cambio de paradigma fundamental: pasar de la visión del “reemplazo” a la del “aumento”. Bajo este enfoque, la IA no busca sustituir al docente, sino actuar como un instrumento avanzado dentro de una "orquesta" dirigida por humanos. Surge así el concepto de “Inteligencia Híbrida”, definida como la capacidad de alcanzar objetivos complejos mediante la combinación de la inteligencia humana y la artificial para lograr resultados superiores. En este ecosistema, lo “híbrido” trasciende la dualidad presencial/virtual para integrar humanos, IA, datos y responsabilidad. Para garantizar una implementación segura, se presentan marcos de referencia clave como las orientaciones de la UNESCO, el Reglamento de IA de la Unión Europea (AI Act) y el “Safe AI in Education Manifesto”. Estos marcos enfatizan principios esenciales como la supervisión humana, la transparencia en el contenido sintético, la privacidad y la equidad. En el plano práctico, se proponen tres escenarios de uso graduados por autonomía y riesgo: el apoyo responsable al trabajo docente, la colaboración guiada en actividades de aula y la cocreación por parte del estudiantado para su propio aprendizaje. Cada escenario exige niveles específicos de alfabetización y plantea retos en la evaluación auténtica, donde el proceso de interacción y el juicio crítico cobran más relevancia que el producto final. Finalmente, la conferencia concluye que la tecnología no es neutral y que el profesorado debe liderar esta transformación. Es imperativo fomentar una “alfabetización crítica” que permita discernir las capacidades reales de la IA, automatizar tareas tediosas y centrar el esfuerzo educativo en el desarrollo de la creatividad y la autonomía intelectual. El éxito reside en enriquecer la orquesta educativa con este nuevo instrumento, manteniendo siempre el propósito humano como guía pedagógica.Item Estrategias para gestionar el uso de la inteligencia artificial en la práctica docente(Grupo GRIAL, 2026-02-03) García-Peñalvo, Francisco JoséConferencia plenaria invitada de 1 hora de duración impartida en las VIII Jornadas de Experiencias Docentes de la Universitat de les Illes Balears, celebradas el 3 de febrero de 2026 en el edificio Gaspar Melchor de Jovellanos, Palma de Mallorca. Se plantea un marco práctico para gestionar el uso de la inteligencia artificial generativa (IAGen) en docencia, partiendo de una aclaración conceptual: la IA se entiende como sistemas que actúan con cierto grado de autonomía para lograr objetivos, mientras que la IAGen se centra en la producción de contenidos sintéticos inéditos (texto, imagen, audio, vídeo, código, etc.) mediante modelización generativa. A partir de ahí, se subraya que la educación ya convive con contenidos generados automáticamente difíciles de atribuir con certeza, lo que alimenta debates (a veces polarizados) sobre integridad, evaluación y aprendizaje. Uno de los ejes es reducir la discusión “prohibir vs permitir” y moverla hacia cómo usar estas herramientas con sentido pedagógico: no tanto “cómo evitar que el estudiantado engañe”, sino cómo incorporarlas de manera que se aprenda. Para ello, se destacan riesgos bien conocidos, como las alucinaciones y la fabricación de información plausible pero falsa, y el “mito de la muerte de la originalidad”: la IAGen puede producir trabajos “originales” que no son copias, pero tampoco expresan autoría genuina, favoreciendo el trabajo superficial si se usa de forma acrítica. En coherencia, se apunta a que existe consenso institucional en considerar plagio el texto totalmente generado por IA sin reconocimiento y se propone una respuesta regulatoria y ética basada en declarar el uso. Se ofrecen pautas concretas de reconocimiento (qué herramienta, con qué propósito, iteraciones, qué se incorpora y cómo se adapta), junto con la idea de que la alfabetización crítica no es solo “saber usar”, sino usar con juicio dentro de valores académicos. El núcleo propositivo articula un cambio de paradigma: del reemplazo al aumento, entendiendo la IA como “instrumento” que docentes y estudiantes dirigen para potenciar el aprendizaje, y defendiendo ecosistemas híbridos donde la IA potencia la inteligencia humana en lugar de sustituirla. En esa línea, se introduce la colaboración persona-IA como aumento de metas, percepción/interpretación, acción y decisión, siempre con supervisión humana. Se recuerda además el valor educativo del proceso de interacción (prompts y diálogo): el proceso puede ser tan importante como el resultado. Para operativizarlo, se proponen tres escenarios graduados por autonomía, agencia y riesgo: (1) apoyo responsable (IA como soporte al trabajo docente), (2) colaboración guiada (IA integrada en actividades con estudiantes) y (3) cocreación con declaración reforzada (estudiantes usando IA para aprender). En los tres aparecen principios recurrentes: transparencia (definir usos aceptables/obligatorios y cómo declararlos), privacidad, equidad (accesos desiguales), sostenibilidad (licencias/recursos) y evaluación auténtica centrada en el proceso, evitando confianza ciega en detectores y usando evidencias (vivas, trabajo en clase, iteraciones, entregas incrementales…). Todo ello se encuadra en marcos de referencia (UNESCO, AI Act, SAFE y el Safe AI in Education Manifesto) para asegurar una adopción segura, responsable y alineada con fines educativos.Item Visibilizar el ecosistema de políticas abiertas para democratizar el conocimiento(Octaedro, 2025-10-01) Coria Tinoco, Raúl; Delgado Fabián, Mónica; García-Peñalvo, Francisco José; Glasserman-Morales, Leonardo David; González-Pérez, Laura Icela; Rodríguez Palacios, Sara María del Patrocinio; Sánchez Reyes, Miriam Guadalupe; Tenorio-Sepúlveda, Gloria Concepción; Valencia González, Gloria Clemencia; Valenzuela Arvizu, Siria Yahaira; Viñoles Cosentino, VirginiaEn una era de constante cambio, es esencial potenciar el acceso abierto al conocimiento para transformar la educación y la ciencia a nivel global. Ante la falta de transparencia y espacios que canalicen información sobre políticas de acceso abierto surge el Observatorio OPALO (Open Policies for ALl Observatory), que busca mejorar la transparencia y fomentar un ecosistema inclusivo, accesible y equitativo. Su meta es identificar brechas, buenas prácticas y oportunidades para desarrollar políticas que faciliten el acceso a recursos educativos y científicos, especialmente en regiones en desarrollo. El impacto esperado incluye: a) en educación, promo-ver el acceso igualitario a recursos abiertos mediante tecnologías emergentes y metodologías colaborativas; b) en ciencia, impulsar la colaboración global y la reproducibilidad científica a través de políticas de acceso libre y el intercambio de datos; c) en gobernanza, fomentar políticas basadas en evidencia y desarrollar infraestructuras de datos accesibles; y d) crear un modelo de madurez del conocimiento abierto que permita a las instituciones autoevaluarse y mejorar sus prácticas. El equipo, conformado por profesionales de Colombia, España y México, cuenta con experiencia interdisciplinar en ingeniería sostenible, tecnología educativa, ciencia abierta y políticas de conocimiento. Su enfoque en metodologías transformadoras y soluciones accesibles, así como su participación en iniciativas internacionales como la Cátedra UNESCO/ICDE, asegura un impacto global, inclusivo y sostenible.Item Support for specific training plans in the Algerian university system: new teachers and online teaching(Editorial Comares, 2022-01-01) López-Aguado, Mercedes; Hoyuelos Álvaro, Francisco Javier; García-Peñalvo, Francisco JoséProject PAPER. Support for specific training plans in the Algerian university system: new teachers and online teachingItem Los datasets en abierto y su aportación al impacto social de la ciencia(Ediciones Universidad de Salamanca, 2025-11-01) Blázquez, Paloma G.; Mangas-Vega, Almudena; García-Peñalvo, Francisco JoséLos datasets en abierto se han consolidado como una herramienta clave dentro de la ciencia abierta por su potencial para generar impacto más allá del ámbito académico; y, a su vez, como aportación y/o publicación científica susceptible de ser evaluada en convocatorias regionales y nacionales. Este trabajo presenta un estudio de caso centrado en los repositorios institucionales de las universidades públicas de Castilla y León, con el objetivo de analizar el alcance de estos conjuntos de datos no solo como análisis, sino también en términos de visibilidad e impacto social. A partir de métricas de uso (visitas, descargas) y altmétricas disponibles (PlumX, Dimensions), se observa una presencia incipiente pero significativa en términos de reutilización social y académica. Se analiza también la alineación con los principios FAIR, así como las posibilidades que estos datasets ofrecen para la innovación ciudadana, la mejora de políticas públicas o la educación informal. Finalmente, se discuten posibles líneas de acción para favorecer la comunicación, la visibilidad y la reutilización de los datos de investigación en abierto como vía para potenciar su impacto social.Item Analíticas del aprendizaje basadas en datos e inteligencia artificial en la educación superior: una revisión sistemática(IEEE, 2025-09-29) González-Pérez, Laura Icela; García-Peñalvo, Francisco José; Argüelles-Cruz, Amadeo JoséLa integración responsable de la inteligencia artificial en la educación (IAED) ofrece una oportunidad estratégica para alinear los entornos formativos con los principios de la Sociedad 5.0, potenciando la sinergia humano-tecnología en favor de una educación de calidad y del bienestar social. Este estudio presenta una revisión sistemática de 36 artículos arbitrados (2021–2025), centrados en aplicaciones educativas que emplean analíticas de aprendizaje (LA) con enfoques data-driven e integran modelos de Machine Learning (ML) como parte de su evidencia empírica. En cada estudio se identificaron tres elementos clave: el contexto de aplicación de la IAED, el enfoque data-driven adoptado y el modelo de ML utilizado. Los hallazgos revelan una desconexión entre los modelos de IA empleados y los datos educativos, los cuales, en muchos casos, se reducen a logs de acceso a calificaciones capturadas manualmente, que no permiten medir procesos cognitivos de manera profunda. Esta limitación compromete tanto la capacidad de los modelos ML para entrenarse de manera efectiva como su utilidad para ofrecer intervenciones pedagógicas útiles, como pueden ser rutas de aprendizaje personalizadas, retroalimentación en tiempo real, detección temprana de dificultades y seguimiento y visualización. Otro hallazgo relevante es la ausencia de marcos psicopedagógicos integrados a estándares de calidad y de gobernanza de datos, indispensables para avanzar hacia enfoques prescriptivos y éticos, coherentes con las metas de aprendizaje. Se recomienda que los líderes educativos promuevan aplicaciones de IAED sustentadas en marcos de gestión de datos y ética, asegurando métricas válidas y confiables que impulsen una educación más equitativa e inclusiva.Item Data-Driven Learning Analytics and Artificial Intelligence in Higher Education: A Systematic Review(IEEE, 2025-09-29) González-Pérez, Laura Icela; García-Peñalvo, Francisco José; Argüelles-Cruz, Amadeo JoséThe responsible integration of Artificial Intelligence in Education (AIED) offers a strategic opportunity to align learning environments with the principles of Society 5.0, fostering human–technology synergy in support of quality education and social well-being. This study presents a systematic review of 36 peer-reviewed articles (2021–2025) focused on educational appli-cations that employ learning analytics (LA) through data-driven approaches and integrate machine learning (ML) models as part of their empirical evidence. Each study was analyzed according to three key dimensions: the context of AIED application, the data-driven approach adopted, and the ML model implemented. The findings reveal a persistent disconnect between the AI models employed and the available educational data, which in many cases are limited to access logs or manually recorded grades that fail to capture deeper cognitive processes. This limitation constrains both the effective training of ML models and their pedagogical utility for delivering meaningful interventions such as personalized learning pathways, real-time feedback, early detection of learning difficulties, and monitoring and visualization tools. Another significant finding is the absence of psychopeda-gogical frameworks integrated with quality standards and data governance, which are essential for advancing prescriptive and ethical approaches aligned with learning goals. It is therefore recommended that educational leaders foster AIED applications grounded in data governance and ethics frameworks, ensuring valid and reliable metrics that can drive a more equitable and inclusive education.Item Introduciendo la Inteligencia Artificial en el ciclo de investigación bajo un comportamiento ético(Grupo GRIAL, 2026-01-28) García-Peñalvo, Francisco JoséLa conferencia “Introduciendo la Inteligencia Artificial en el ciclo de investigación bajo un comportamiento ético” se ha impartido en el IA in Education Summit: Responsible, Equitable, and Systematic Transformation, celebrado dentro del IFE Conference 2026 del 27 al 29 de enero de 2026 en el Tecnológico de Monterrey, Monterrey, Nuevo León (México). Concretamente, esta conferencia tuvo lugar el 28 de enero, con una duración de 30 minutos. La gran disrupción reciente en IA proviene de la inteligencia artificial generativa (IAGen), entendida como la capacidad de producir contenidos sintéticos inéditos (texto, imagen, audio, vídeo, presentaciones) para apoyar tareas diversas, con un impacto social potencialmente abrumador por su integración en la vida cotidiana. En el ámbito de la investigación, se subraya que la generación automática de contenido académico ya es una realidad y que la calidad alcanzada permite su uso como material de investigación; a la vez, se advierte que la investigación y la transferencia no son inmunes a discursos inflados, mitos e inexactitudes sobre la IA (catastrofismo vs. “solucionismo tecnológico”). Se ofrece un panorama de herramientas generalistas basadas en texto (algunas multimodales) y se introduce una idea clave: las herramientas generalistas suponen un riesgo en contextos de investigación, por lo que su adopción debe ser crítica y situada. La charla estructura el uso de la IAGen a lo largo de todo el ciclo de investigación: desde la generación de ideas, objetivos e hipótesis, el estado de la cuestión, el desarrollo de código, la recogida y análisis de datos, hasta la redacción, publicación y comunicación; la ética y la transparencia actúan como eje transversal. Como base normativa y ética, se presentan principios para un uso responsable: fiabilidad (verificación y reproducción), honestidad (revelar el uso), respeto (privacidad, confidencialidad, propiedad intelectual y citación) y responsabilidad (agencia humana y supervisión). En la misma línea, se introduce la alfabetización crítica: no basta con saber usar herramientas, sino hacerlo con juicio dentro de valores y prácticas académicas. En cuanto a marcos de referencia, se alinean las recomendaciones de la UNESCO, el AI Act y el Safe AI in Education Manifesto como un continuo entre guía ética y regulación legal, y se resume su aterrizaje en investigación: validación ética, protección de datos y PI, trazabilidad (registrar herramienta/versión/prompts y declarar uso), triaje de riesgo y debida diligencia con proveedores, y protocolos human-in-the-loop. Se aportan ejemplos de reconocimiento del uso (Monash) y guías editoriales (Wiley), destacando qué debe declararse (redacción/edición, metodología, código, análisis y visuales) y qué información conviene documentar (nombre/versión, fecha, función, secciones afectadas, rol del autor y cumplimiento de privacidad en datos sensibles). También se aborda la revisión por pares: los manuscritos son confidenciales y no deben cargarse en aplicaciones de IA; se proponen usos seguros (mejorar claridad/tono, traducción, consultas generales sin detalles del manuscrito). Las conclusiones enfatizan que la IAGen ofrece beneficios, pero su punto crítico es la trazabilidad: muchas herramientas no la garantizan robustamente, lo que puede reducir la transparencia, complicar la atribución de autoría y aumentar el riesgo de contenido no verificado (alucinaciones). Se remarca que la IA puede aumentar la eficiencia, pero no sustituye capacidades humanas esenciales, y que, aunque los marcos establecen una base común, la decisión ética no se automatiza y cada investigador y equipo debe definir sus líneas rojas según contexto, riesgo y datos, asumiendo responsabilidad por su aplicación.Item Ecosistemas de aprendizaje híbridos: Orquestando la colaboración entre personas e inteligencia artificial(Grupo GRIAL, 2026-01-08) García-Peñalvo, Francisco JoséConferencia plenaria invitada de 1 hora de duración impartida en las X Jornadas Docentes de la Facultad de Ingeniería – Inteligencia Híbrida en la Educación Superior, organizadas por la Unidad de Investigación Docente y Desarrollo Académico (UNIDA) de la Facultad de Ingeniería de la Universidad Andrés Bello. Estas jornadas se desarrollaron en Santiago (Chile) el 8 y 9 de enero de 2026 y esta conferencia se impartió el 8 de enero de 2026. Se plantea que “lo híbrido” ya no puede entenderse como una simple combinación de presencial + online, sino como un ecosistema más completo que integra presencial + online + IA + datos + responsabilidad. En ese marco, la inteligencia híbrida se define como la capacidad de lograr objetivos complejos combinando inteligencia humana y artificial para obtener resultados mejores que los alcanzables por separado. La tesis se refuerza con una idea de sinergia: el valor está en la interacción y la coevolución humano–tecnología (no en sustituir al humano), donde la tecnología libera de lo repetitivo para dedicar energía a creación, estrategia y juicio. A partir de ahí, se introduce el salto desde “herramientas sueltas” a ecosistemas: un ecosistema tecnológico se concibe como un conjunto de componentes software conectados por flujos de información, sostenidos en un entorno físico, con los usuarios como parte del sistema; aplicado al aprendizaje, el objetivo es una red de servicios de aprendizaje y no una colección de “herramientas de moda”. Para orquestar la colaboración persona–IA, la presentación propone un marco de “aumentos” donde la IA y las personas se amplifican mutuamente: metas (se influyen recíprocamente), percepción e interpretación (la IA detecta patrones y datos; el humano aporta contexto), acción (la IA escala acciones como retroalimentación inmediata; el humano crea/personaliza acciones) y decisión (la IA apoya; el humano supervisa y corrige). El núcleo técnico-pedagógico se apoya en la idea de que el ecosistema se sostiene sobre datos y su ciclo de uso: detectar → preparar → diagnosticar → actuar → evaluar. Se distingue además entre intervenciones “blandas” (informar mediante paneles de control, retroalimentación formativa, alertas tempranas, recomendaciones) y “duras” (automatizar adaptación de tareas, retroalimentación paso a paso, asignación automática de práctica, generación guiada). La regla es clara: cuanto más “dura” la automatización, más exigencias de explicabilidad, trazabilidad, control humano y evaluación de sesgos. Se introducen con cuidado las señales multimodales y el componente biométrico. Se enumeran señales de conducta (mirada, postura, teclado/ratón), fisiología (frecuencia cardíaca, actividad electrodérmica, respiración) y contexto (audio/ruido, ubicación, condiciones), subrayando que la fisiología tiene alta sensibilidad, pero también alto riesgo de privacidad e interpretación. De ahí se deriva un mensaje práctico: priorizar evidencias de aprendizaje (interacciones + artefactos) y usar multimodalidad solo si añade valor pedagógico y con controles fuertes. En el caso de la biometría, se listan riesgos (consentimiento, clima panóptico, seguridad, interpretación errónea, sesgos) y controles mínimos (opt-out, minimización, propósito explícito, procesamiento local, revisión humana antes de actuar y auditoría). Como ejemplo “aterrizado”, se propone un laboratorio de programación sin biometría: entradas como commits/tests, errores recurrentes, tiempos en ejercicios y preguntas en foro; modelos de machine learning clásico (predicción/clustering) junto con modelos generativos (retroalimentación formativa); y salidas como alerta al docente, recomendación de práctica, retroalimentación en borrador y priorización de tutoría humana. El bloque decisivo es el de los tres escenarios de uso de IA como “regulador de potencia”. La pregunta guía no es “usar IA sí/no”, sino “cuánta autonomía se da y con qué garantías”. Se formula un principio de proporcionalidad: a mayor impacto educativo y riesgo, más transparencia, más evidencias y más auditoría, y se cambia el tipo de evidencia exigida (declaración → trazabilidad → auditoría). En la parte final, la conferencia conecta ética con práctica mediante marcos y garantías (UNESCO, AI Act, SAFE, Safe AI in Education Manifesto) y advierte sobre la crisis de confianza: confundir “IA” con solo LLM, o asumir transparencia por explicaciones post-hoc (SHAP/LIME) puede crear una falsa sensación de interpretabilidad. El cierre refuerza la metáfora orquestal: el objetivo no es un “solista perfecto”, sino una orquesta enriquecida, donde el profesorado actúa como director y la tecnología se adapta a la pedagogía. La síntesis final queda en una frase: “Más IA, sí; pero con más humanidad, más evidencia y más responsabilidad”.