La evaluación de los trabajos fin de estudios

No Thumbnail Available

Date

2026-04-08

Authors

García-Peñalvo, Francisco José

Journal Title

Journal ISSN

Volume Title

Publisher

Grupo GRIAL

Abstract

Participación en la mesa redonda “La evaluación de los Trabajos fin de Estudios en Psicología”, de 1,5 horas de duración, en la “Jornada para la reflexión sobre la innovación docente en Trabajos fin de Estudios en tiempos de la Inteligencia Artificial”, celebrada el 8 de abril de 2026 en el Salón de Actos de la Facultad de Psicología de la Universidad de Sevilla. La irrupción de la inteligencia artificial (IA), y en particular de la IA generativa, obliga a replantear la evaluación de los trabajos de fin de estudios (TFE). Se parte de una idea general: la universidad debe reflexionar sobre cómo cambian los conocimientos, habilidades, competencias y valores en la era de la IA, porque ya no basta con evaluar únicamente el producto final, sino que también es necesario considerar cómo se ha construido. Tras introducir la diferencia entre inteligencia artificial e IA generativa, se subraya que esta última no posee conocimiento real ni criterio propio; puede inventar información, depende del contexto que se le proporciona y siempre requiere supervisión humana. Estas limitaciones hacen inviable la aceptación acrítica de sus resultados en contextos académicos de alto impacto, como los TFE. La presentación organiza el uso de la IA en educación en tres escenarios: apoyo responsable, colaboración guiada y cocreación con una declaración de uso reforzada. En el caso de los TFE, se defiende claramente este tercer escenario, ya que se trata de productos de alto impacto, para los cuales deben exigirse evidencias de autoría, comprensión y rigor. De ahí se derivan controles concretos: declaración de uso de IA, registro de prompts y de versiones del trabajo, verificación de fuentes, revisión humana previa a la calificación y atención a sesgos e inequidades. La idea central es que, cuando aumenta el impacto, también debe aumentar el rigor documental. Se proponen cinco criterios de evaluación de un TFE: autoría y trazabilidad, comprensión real del trabajo, rigor metodológico, capacidad crítica ante la IA y transparencia académica. Con ello, la evaluación deja de centrarse exclusivamente en el documento final y pasa a incorporar el proceso, la capacidad de justificación y la visibilidad del uso de herramientas de IA. Este planteamiento se apoya, además, en principios de alfabetización crítica y en marcos éticos y regulatorios, como los de la UNESCO, SAFE, el AI Act y el manifiesto Safe AI in Education. A nivel práctico, se concretan seis reglas de uso responsable: minimizar el uso de datos personales, respetar la propiedad intelectual, verificar la información, explicitar cuándo se admite la IA, revisar sesgos y mantener siempre el control humano. Finalmente, se propone avanzar hacia una inteligencia híbrida en educación, entendida como la colaboración entre la inteligencia natural y la inteligencia artificial, siempre bajo control humano, con supervisión experta, diálogo permanente y transparencia. En ese marco, la IA no sustituye el juicio académico, sino que obliga a hacerlo más explícito, más riguroso y más formativo.

Description

Keywords

Inteligencia Artificial, Inteligencia Artificial Generativa, Evaluación, Trabajos académicos

Citation

F. J. García-Peñalvo, “La evaluación de los trabajos fin de estudios,” Jornada para la reflexión sobre la innovación docente en Trabajos fin de Estudios en tiempos de la Inteligencia Artificial. Facultad de Psicología, Universidad de Sevilla, 8 de abril de 2026. Disponible: https://d66z.short.gy/P9V3UH. doi: 10.5281/zenodo.19443066.

Collections

Endorsement

Review

Supplemented By

Referenced By