IA en Educación: Tres escenarios clave para aplicar la IA en la práctica docente
| dc.contributor.author | García-Peñalvo, Francisco José | |
| dc.date.accessioned | 2025-11-17T11:48:16Z | |
| dc.date.issued | 2025-11-19 | |
| dc.description.abstract | Conferencia plenaria invitada de 1 hora de duración impartida en las XII Jornadas Iberoamericanas de Innovación Educativa en el ámbito de las TIC y las TAC - InnoEducaTIC 2025, celebradas del 19 al 21 de noviembre de 2025 en el Edificio de Electrónica y Telecomunicación de la Universidad de Las Palmas de Gran Canaria, ubicado en el Campus Universitario de Tafira. Esta conferencia se impartió en modo online el 19 de noviembre. Se presenta un recorrido estructurado sobre cómo integrar la inteligencia artificial generativa (IAGen) en la educación desde una perspectiva crítica, apoyándose en marcos internacionales y desembocando en tres escenarios de uso para la práctica docente. Se inicia recordando qué es la IA y, en concreto, la IAGen: sistemas capaces de generar contenido sintético original (texto, imágenes, audio, vídeo, código…) con calidad suficiente como para convertirse en material docente o en productos entregables de los estudiantes, difíciles de detectar como generados por máquinas. Tras una breve aclaración de conceptos (IA, modelos de lenguaje masivos, parámetros, ventana de contexto), se plantea el cambio de escala que suponen los LLM y su rápida cronología reciente. A partir de ahí, se introduce el impacto específico en educación: generación automática de contenidos en múltiples formatos, que abre oportunidades, pero también refuerza el problema de la detección y la autoría real de los trabajos. Se señala que la educación no ha quedado al margen del ruido mediático: abundan visiones catastrofistas (la IA destruirá la escuela o anulará la originalidad) y visiones ingenuamente entusiastas (la IA como solución mágica a todos los problemas). Se menciona el “dilema de Prometeo”: ¿tiene sentido prohibir la IAGen como medida de protección, dado su carácter de caja negra y su tendencia a alucinar, o debemos aprender a convivir con ella? Esta tensión está en el fondo del debate educativo actual. Uno de los mensajes centrales es que el estudiantado ya usa estas herramientas en todos los niveles educativos. Los datos recientes sobre educación superior muestran un aumento constante del uso por parte de estudiantes, docentes y administradores, así como un cambio en la carga de trabajo del profesorado: disminuye el tiempo dedicado a diseñar materiales o responder correos, pero aumenta la vigilancia del fraude y la necesidad de rediseñar la evaluación. La pregunta ya no es “si las usarán”, sino “cómo las estamos integrando”. A continuación, se abordan los riesgos específicos, especialmente las alucinaciones: respuestas plausibles pero falsas, contradicciones internas, errores lógicos, invención de citas bibliográficas, etc. Estas limitaciones se conectan con el “mito de la muerte de la originalidad”: la IA permite trabajos formalmente originales que no proceden del esfuerzo del estudiante, facilitando un aprendizaje superficial y amenazando la autoría genuina si se emplea de modo acrítico. Ante esta realidad, muchas instituciones consideran el texto generado íntegramente por IA sin reconocimiento como una forma de plagio. Se está transitando hacia modelos en los que se aceptan ciertos usos, pero con regulación ética y exigencia de transparencia. Se propone, como mínimo, una declaración explícita del uso de IA que describa herramientas empleadas, propósitos, instrucciones clave y cómo se ha adaptado el resultado. Se muestran ejemplos concretos de la Universidad de Monash, que ilustran buenas prácticas para incluir este reconocimiento en los trabajos académicos. Sobre esta base se introduce la alfabetización crítica en IA: no basta con saber manejar herramientas, sino con situar su uso dentro de valores y prácticas académicas. Se resumen cuatro ideas operativas: verificar antes de adoptar; garantizar equidad e inclusión; mantener la agencia humana explícita en la toma de decisiones; y asegurar transparencia y rendición de cuentas documentando el uso de IA. Estos principios se articulan con varios marcos de referencia: las orientaciones de la UNESCO, el Reglamento Europeo de IA (AI Act), el marco SAFE (Safe, Accountable, Fair, Explainable) y el Manifiesto Safe AI in Education, que insiste en la supervisión humana, la confidencialidad, la precisión y la explicabilidad. Se pasa después a una dimensión más práctica: la “caja de herramientas” de IA en educación (transcripción, generación de texto, imagen, audio, vídeo, infografías, presentaciones, chatbots multimodales…). Se insiste en que la calidad de la respuesta depende del prompt y del contexto que se aporta al modelo; un mejor contexto permite respuestas más útiles y ajustadas. Esto es pedagógicamente relevante, porque el proceso de diálogo con el sistema y la calidad de las preguntas tienen valor formativo en sí mismos. El núcleo de la conferencia es la propuesta de tres escenarios de uso de la IA en educación. El primero, apoyo responsable, se centra en el uso de la IA por parte del profesorado como herramienta de preparación y apoyo (generar materiales, reformular explicaciones, diseñar actividades) con bajo riesgo si se mantiene la agencia docente, se respeta la privacidad y se declara el uso. El segundo, colaboración guiada, incorpora la IA como parte de las actividades del estudiantado, pero con una fuerte guía del profesorado, énfasis en la evaluación auténtica y prioridad al proceso (versiones, iteraciones, trabajo en clase) frente al producto final. El tercero, cocreación con declaración de uso reforzada, contempla un uso más autónomo de la IA por parte del estudiantado en productos de alto impacto (TFG/TFM, recursos abiertos), con riesgos mayores que se compensan exigiendo trazabilidad completa, transparencia, equidad en el acceso y revisión rigurosa. En las conclusiones, se destaca que, tres años después de la irrupción de ChatGPT, el profesorado sigue polarizado entre la tecnofobia y la tecnofilia. Muchos problemas que hoy se achacan a la IA (desigualdades, evaluación basada en la memorización, desajuste entre tareas y competencias) ya existían antes, pero la IA los amplifica y visibiliza. Prohibir sin más no resuelve estas tensiones; el reto es comprender qué aporta realmente a la enseñanza, al aprendizaje y a la investigación, y ponerla al servicio de un aprendizaje más profundo. Finalmente, se subraya la importancia de formar tanto al profesorado como al estudiantado en el uso crítico de la IA, promover comunidades de práctica y compartir buenas experiencias. La IA no es buena ni mala, ni neutral: su impacto dependerá de cómo la diseñemos, la gobernemos y la usemos en los contextos educativos reales. | |
| dc.identifier.citation | F. J. García-Peñalvo, "IA en Educación: Tres escenarios clave para aplicar la IA en la práctica docente," presentado en las XII Jornadas Iberoamericanas de Innovación Educativa en el ámbito de las TIC y las TAC - InnoEducaTIC 2025, Universidad de Las Palmas de Gran Canaria (19 de noviembre de 2025), Salamanca, España: Grupo GRIAL, 2025. Disponible: https://d66z.short.gy/jVr4fE. doi: 10.5281/zenodo.17630117. | |
| dc.identifier.uri | https://repositorio.grial.eu/handle/123456789/3250 | |
| dc.language.iso | es | |
| dc.publisher | Grupo GRIAL | |
| dc.subject | Inteligencia Artificial Generativa | |
| dc.subject | Educación Superior | |
| dc.subject | Herramientas de Inteligencia Artificial | |
| dc.subject | Alfabetización crítica en IA | |
| dc.title | IA en Educación: Tres escenarios clave para aplicar la IA en la práctica docente | |
| dc.type | Presentation |
Files
License bundle
1 - 1 of 1
No Thumbnail Available
- Name:
- license.txt
- Size:
- 1.71 KB
- Format:
- Item-specific license agreed upon to submission
- Description: