Conferences
Permanent URI for this collectionhttps://repositorio.grial.eu/handle/123456789/13
Browse
3 results
Search Results
Item Uso de la IA generativa en la docencia(Grupo GRIAL, 2026-02-06) García-Peñalvo, Francisco JoséConferencia plenaria invitada de 1 hora de duración impartida en las II Jornadas de Inteligencia Artificial para la Docencia Universitaria de la Universidad de La Laguna, celebradas en el Salón de Actos del Edificio de Ciencias de la Comunicación “La Pirámide”, La Laguna, Tenerife, España, el 6 de febrero de 2026. Se explora el impacto disruptivo de la Inteligencia Artificial Generativa (IAGen) en la educación superior. Se define la IAGen como una tecnología capaz de producir contenidos sintéticos inéditos en diversos formatos, marcando un punto de inflexión por su accesibilidad e integración en la vida cotidiana del ciudadano. Uno de los grandes desafíos analizados son las “alucinaciones”, fenómenos donde los modelos generan información falsa o inventada que resulta coherente, incluyendo citas bibliográficas inexistentes o errores lógicos. Asimismo, se aborda el “mito de la muerte de la originalidad”, señalando que, si bien la IA facilita el trabajo superficial, puede socavar la integridad académica y el aprendizaje genuino si se emplea de forma acrítica. Ante esta realidad, el autor propone transitar de la prohibición hacia una regulación ética basada en el reconocimiento del uso de la IA, tratándola como una herramienta legítima siempre que se declare de forma transparente. La ponencia defiende un cambio de paradigma fundamental: pasar de la visión del “reemplazo” a la del “aumento”. Bajo este enfoque, la IA no busca sustituir al docente, sino actuar como un instrumento avanzado dentro de una "orquesta" dirigida por humanos. Surge así el concepto de “Inteligencia Híbrida”, definida como la capacidad de alcanzar objetivos complejos mediante la combinación de la inteligencia humana y la artificial para lograr resultados superiores. En este ecosistema, lo “híbrido” trasciende la dualidad presencial/virtual para integrar humanos, IA, datos y responsabilidad. Para garantizar una implementación segura, se presentan marcos de referencia clave como las orientaciones de la UNESCO, el Reglamento de IA de la Unión Europea (AI Act) y el “Safe AI in Education Manifesto”. Estos marcos enfatizan principios esenciales como la supervisión humana, la transparencia en el contenido sintético, la privacidad y la equidad. En el plano práctico, se proponen tres escenarios de uso graduados por autonomía y riesgo: el apoyo responsable al trabajo docente, la colaboración guiada en actividades de aula y la cocreación por parte del estudiantado para su propio aprendizaje. Cada escenario exige niveles específicos de alfabetización y plantea retos en la evaluación auténtica, donde el proceso de interacción y el juicio crítico cobran más relevancia que el producto final. Finalmente, la conferencia concluye que la tecnología no es neutral y que el profesorado debe liderar esta transformación. Es imperativo fomentar una “alfabetización crítica” que permita discernir las capacidades reales de la IA, automatizar tareas tediosas y centrar el esfuerzo educativo en el desarrollo de la creatividad y la autonomía intelectual. El éxito reside en enriquecer la orquesta educativa con este nuevo instrumento, manteniendo siempre el propósito humano como guía pedagógica.Item Estrategias para gestionar el uso de la inteligencia artificial en la práctica docente(Grupo GRIAL, 2026-02-03) García-Peñalvo, Francisco JoséConferencia plenaria invitada de 1 hora de duración impartida en las VIII Jornadas de Experiencias Docentes de la Universitat de les Illes Balears, celebradas el 3 de febrero de 2026 en el edificio Gaspar Melchor de Jovellanos, Palma de Mallorca. Se plantea un marco práctico para gestionar el uso de la inteligencia artificial generativa (IAGen) en docencia, partiendo de una aclaración conceptual: la IA se entiende como sistemas que actúan con cierto grado de autonomía para lograr objetivos, mientras que la IAGen se centra en la producción de contenidos sintéticos inéditos (texto, imagen, audio, vídeo, código, etc.) mediante modelización generativa. A partir de ahí, se subraya que la educación ya convive con contenidos generados automáticamente difíciles de atribuir con certeza, lo que alimenta debates (a veces polarizados) sobre integridad, evaluación y aprendizaje. Uno de los ejes es reducir la discusión “prohibir vs permitir” y moverla hacia cómo usar estas herramientas con sentido pedagógico: no tanto “cómo evitar que el estudiantado engañe”, sino cómo incorporarlas de manera que se aprenda. Para ello, se destacan riesgos bien conocidos, como las alucinaciones y la fabricación de información plausible pero falsa, y el “mito de la muerte de la originalidad”: la IAGen puede producir trabajos “originales” que no son copias, pero tampoco expresan autoría genuina, favoreciendo el trabajo superficial si se usa de forma acrítica. En coherencia, se apunta a que existe consenso institucional en considerar plagio el texto totalmente generado por IA sin reconocimiento y se propone una respuesta regulatoria y ética basada en declarar el uso. Se ofrecen pautas concretas de reconocimiento (qué herramienta, con qué propósito, iteraciones, qué se incorpora y cómo se adapta), junto con la idea de que la alfabetización crítica no es solo “saber usar”, sino usar con juicio dentro de valores académicos. El núcleo propositivo articula un cambio de paradigma: del reemplazo al aumento, entendiendo la IA como “instrumento” que docentes y estudiantes dirigen para potenciar el aprendizaje, y defendiendo ecosistemas híbridos donde la IA potencia la inteligencia humana en lugar de sustituirla. En esa línea, se introduce la colaboración persona-IA como aumento de metas, percepción/interpretación, acción y decisión, siempre con supervisión humana. Se recuerda además el valor educativo del proceso de interacción (prompts y diálogo): el proceso puede ser tan importante como el resultado. Para operativizarlo, se proponen tres escenarios graduados por autonomía, agencia y riesgo: (1) apoyo responsable (IA como soporte al trabajo docente), (2) colaboración guiada (IA integrada en actividades con estudiantes) y (3) cocreación con declaración reforzada (estudiantes usando IA para aprender). En los tres aparecen principios recurrentes: transparencia (definir usos aceptables/obligatorios y cómo declararlos), privacidad, equidad (accesos desiguales), sostenibilidad (licencias/recursos) y evaluación auténtica centrada en el proceso, evitando confianza ciega en detectores y usando evidencias (vivas, trabajo en clase, iteraciones, entregas incrementales…). Todo ello se encuadra en marcos de referencia (UNESCO, AI Act, SAFE y el Safe AI in Education Manifesto) para asegurar una adopción segura, responsable y alineada con fines educativos.Item IA en Educación: Tres escenarios clave para aplicar la IA en la práctica docente(Grupo GRIAL, 2025-11-19) García-Peñalvo, Francisco JoséConferencia plenaria invitada de 1 hora de duración impartida en las XII Jornadas Iberoamericanas de Innovación Educativa en el ámbito de las TIC y las TAC - InnoEducaTIC 2025, celebradas del 19 al 21 de noviembre de 2025 en el Edificio de Electrónica y Telecomunicación de la Universidad de Las Palmas de Gran Canaria, ubicado en el Campus Universitario de Tafira. Esta conferencia se impartió en modo online el 19 de noviembre. Se presenta un recorrido estructurado sobre cómo integrar la inteligencia artificial generativa (IAGen) en la educación desde una perspectiva crítica, apoyándose en marcos internacionales y desembocando en tres escenarios de uso para la práctica docente. Se inicia recordando qué es la IA y, en concreto, la IAGen: sistemas capaces de generar contenido sintético original (texto, imágenes, audio, vídeo, código…) con calidad suficiente como para convertirse en material docente o en productos entregables de los estudiantes, difíciles de detectar como generados por máquinas. Tras una breve aclaración de conceptos (IA, modelos de lenguaje masivos, parámetros, ventana de contexto), se plantea el cambio de escala que suponen los LLM y su rápida cronología reciente. A partir de ahí, se introduce el impacto específico en educación: generación automática de contenidos en múltiples formatos, que abre oportunidades, pero también refuerza el problema de la detección y la autoría real de los trabajos. Se señala que la educación no ha quedado al margen del ruido mediático: abundan visiones catastrofistas (la IA destruirá la escuela o anulará la originalidad) y visiones ingenuamente entusiastas (la IA como solución mágica a todos los problemas). Se menciona el “dilema de Prometeo”: ¿tiene sentido prohibir la IAGen como medida de protección, dado su carácter de caja negra y su tendencia a alucinar, o debemos aprender a convivir con ella? Esta tensión está en el fondo del debate educativo actual. Uno de los mensajes centrales es que el estudiantado ya usa estas herramientas en todos los niveles educativos. Los datos recientes sobre educación superior muestran un aumento constante del uso por parte de estudiantes, docentes y administradores, así como un cambio en la carga de trabajo del profesorado: disminuye el tiempo dedicado a diseñar materiales o responder correos, pero aumenta la vigilancia del fraude y la necesidad de rediseñar la evaluación. La pregunta ya no es “si las usarán”, sino “cómo las estamos integrando”. A continuación, se abordan los riesgos específicos, especialmente las alucinaciones: respuestas plausibles pero falsas, contradicciones internas, errores lógicos, invención de citas bibliográficas, etc. Estas limitaciones se conectan con el “mito de la muerte de la originalidad”: la IA permite trabajos formalmente originales que no proceden del esfuerzo del estudiante, facilitando un aprendizaje superficial y amenazando la autoría genuina si se emplea de modo acrítico. Ante esta realidad, muchas instituciones consideran el texto generado íntegramente por IA sin reconocimiento como una forma de plagio. Se está transitando hacia modelos en los que se aceptan ciertos usos, pero con regulación ética y exigencia de transparencia. Se propone, como mínimo, una declaración explícita del uso de IA que describa herramientas empleadas, propósitos, instrucciones clave y cómo se ha adaptado el resultado. Se muestran ejemplos concretos de la Universidad de Monash, que ilustran buenas prácticas para incluir este reconocimiento en los trabajos académicos. Sobre esta base se introduce la alfabetización crítica en IA: no basta con saber manejar herramientas, sino con situar su uso dentro de valores y prácticas académicas. Se resumen cuatro ideas operativas: verificar antes de adoptar; garantizar equidad e inclusión; mantener la agencia humana explícita en la toma de decisiones; y asegurar transparencia y rendición de cuentas documentando el uso de IA. Estos principios se articulan con varios marcos de referencia: las orientaciones de la UNESCO, el Reglamento Europeo de IA (AI Act), el marco SAFE (Safe, Accountable, Fair, Explainable) y el Manifiesto Safe AI in Education, que insiste en la supervisión humana, la confidencialidad, la precisión y la explicabilidad. Se pasa después a una dimensión más práctica: la “caja de herramientas” de IA en educación (transcripción, generación de texto, imagen, audio, vídeo, infografías, presentaciones, chatbots multimodales…). Se insiste en que la calidad de la respuesta depende del prompt y del contexto que se aporta al modelo; un mejor contexto permite respuestas más útiles y ajustadas. Esto es pedagógicamente relevante, porque el proceso de diálogo con el sistema y la calidad de las preguntas tienen valor formativo en sí mismos. El núcleo de la conferencia es la propuesta de tres escenarios de uso de la IA en educación. El primero, apoyo responsable, se centra en el uso de la IA por parte del profesorado como herramienta de preparación y apoyo (generar materiales, reformular explicaciones, diseñar actividades) con bajo riesgo si se mantiene la agencia docente, se respeta la privacidad y se declara el uso. El segundo, colaboración guiada, incorpora la IA como parte de las actividades del estudiantado, pero con una fuerte guía del profesorado, énfasis en la evaluación auténtica y prioridad al proceso (versiones, iteraciones, trabajo en clase) frente al producto final. El tercero, cocreación con declaración de uso reforzada, contempla un uso más autónomo de la IA por parte del estudiantado en productos de alto impacto (TFG/TFM, recursos abiertos), con riesgos mayores que se compensan exigiendo trazabilidad completa, transparencia, equidad en el acceso y revisión rigurosa. En las conclusiones, se destaca que, tres años después de la irrupción de ChatGPT, el profesorado sigue polarizado entre la tecnofobia y la tecnofilia. Muchos problemas que hoy se achacan a la IA (desigualdades, evaluación basada en la memorización, desajuste entre tareas y competencias) ya existían antes, pero la IA los amplifica y visibiliza. Prohibir sin más no resuelve estas tensiones; el reto es comprender qué aporta realmente a la enseñanza, al aprendizaje y a la investigación, y ponerla al servicio de un aprendizaje más profundo. Finalmente, se subraya la importancia de formar tanto al profesorado como al estudiantado en el uso crítico de la IA, promover comunidades de práctica y compartir buenas experiencias. La IA no es buena ni mala, ni neutral: su impacto dependerá de cómo la diseñemos, la gobernemos y la usemos en los contextos educativos reales.