Ecosistemas de aprendizaje híbridos: Orquestando la colaboración entre personas e inteligencia artificial
No Thumbnail Available
Date
2026-01-08
Authors
García-Peñalvo, Francisco José
Journal Title
Journal ISSN
Volume Title
Publisher
Grupo GRIAL
Abstract
Conferencia plenaria invitada de 1 hora de duración impartida en las X Jornadas Docentes de la Facultad de Ingeniería – Inteligencia Híbrida en la Educación Superior, organizadas por la Unidad de Investigación Docente y Desarrollo Académico (UNIDA) de la Facultad de Ingeniería de la Universidad Andrés Bello. Estas jornadas se desarrollaron en Santiago (Chile) el 8 y 9 de enero de 2026 y esta conferencia se impartió el 8 de enero de 2026.
Se plantea que “lo híbrido” ya no puede entenderse como una simple combinación de presencial + online, sino como un ecosistema más completo que integra presencial + online + IA + datos + responsabilidad. En ese marco, la inteligencia híbrida se define como la capacidad de lograr objetivos complejos combinando inteligencia humana y artificial para obtener resultados mejores que los alcanzables por separado. La tesis se refuerza con una idea de sinergia: el valor está en la interacción y la coevolución humano–tecnología (no en sustituir al humano), donde la tecnología libera de lo repetitivo para dedicar energía a creación, estrategia y juicio.
A partir de ahí, se introduce el salto desde “herramientas sueltas” a ecosistemas: un ecosistema tecnológico se concibe como un conjunto de componentes software conectados por flujos de información, sostenidos en un entorno físico, con los usuarios como parte del sistema; aplicado al aprendizaje, el objetivo es una red de servicios de aprendizaje y no una colección de “herramientas de moda”. Para orquestar la colaboración persona–IA, la presentación propone un marco de “aumentos” donde la IA y las personas se amplifican mutuamente: metas (se influyen recíprocamente), percepción e interpretación (la IA detecta patrones y datos; el humano aporta contexto), acción (la IA escala acciones como retroalimentación inmediata; el humano crea/personaliza acciones) y decisión (la IA apoya; el humano supervisa y corrige).
El núcleo técnico-pedagógico se apoya en la idea de que el ecosistema se sostiene sobre datos y su ciclo de uso: detectar → preparar → diagnosticar → actuar → evaluar. Se distingue además entre intervenciones “blandas” (informar mediante paneles de control, retroalimentación formativa, alertas tempranas, recomendaciones) y “duras” (automatizar adaptación de tareas, retroalimentación paso a paso, asignación automática de práctica, generación guiada). La regla es clara: cuanto más “dura” la automatización, más exigencias de explicabilidad, trazabilidad, control humano y evaluación de sesgos.
Se introducen con cuidado las señales multimodales y el componente biométrico. Se enumeran señales de conducta (mirada, postura, teclado/ratón), fisiología (frecuencia cardíaca, actividad electrodérmica, respiración) y contexto (audio/ruido, ubicación, condiciones), subrayando que la fisiología tiene alta sensibilidad, pero también alto riesgo de privacidad e interpretación. De ahí se deriva un mensaje práctico: priorizar evidencias de aprendizaje (interacciones + artefactos) y usar multimodalidad solo si añade valor pedagógico y con controles fuertes. En el caso de la biometría, se listan riesgos (consentimiento, clima panóptico, seguridad, interpretación errónea, sesgos) y controles mínimos (opt-out, minimización, propósito explícito, procesamiento local, revisión humana antes de actuar y auditoría).
Como ejemplo “aterrizado”, se propone un laboratorio de programación sin biometría: entradas como commits/tests, errores recurrentes, tiempos en ejercicios y preguntas en foro; modelos de machine learning clásico (predicción/clustering) junto con modelos generativos (retroalimentación formativa); y salidas como alerta al docente, recomendación de práctica, retroalimentación en borrador y priorización de tutoría humana.
El bloque decisivo es el de los tres escenarios de uso de IA como “regulador de potencia”. La pregunta guía no es “usar IA sí/no”, sino “cuánta autonomía se da y con qué garantías”. Se formula un principio de proporcionalidad: a mayor impacto educativo y riesgo, más transparencia, más evidencias y más auditoría, y se cambia el tipo de evidencia exigida (declaración → trazabilidad → auditoría).
En la parte final, la conferencia conecta ética con práctica mediante marcos y garantías (UNESCO, AI Act, SAFE, Safe AI in Education Manifesto) y advierte sobre la crisis de confianza: confundir “IA” con solo LLM, o asumir transparencia por explicaciones post-hoc (SHAP/LIME) puede crear una falsa sensación de interpretabilidad. El cierre refuerza la metáfora orquestal: el objetivo no es un “solista perfecto”, sino una orquesta enriquecida, donde el profesorado actúa como director y la tecnología se adapta a la pedagogía. La síntesis final queda en una frase: “Más IA, sí; pero con más humanidad, más evidencia y más responsabilidad”.
Description
Keywords
Inteligencia híbrida, Orquestación, Inteligencia artificial generativa, Trazabilidad, Gobernanza
Citation
F. J. García-Peñalvo, "Ecosistemas de aprendizaje híbridos: Orquestando la colaboración entre personas e inteligencia artificial," presentado en las X Jornadas Docentes de la Facultad de Ingeniería – Inteligencia Híbrida en la Educación Superior, organizadas por la Unidad de Investigación Docente y Desarrollo Académico (UNIDA) de la Facultad de Ingeniería de la Universidad Andrés Bello (Santiago, Chile, 8 de enero de 2026), Salamanca, España: Grupo GRIAL, 2026. Disponible: https://d66z.short.gy/ZQGQ9S. doi: 10.5281/zenodo.18129147.