GRIAL resources

Permanent URI for this communityhttps://repositorio.grial.eu/handle/123456789/1

Browse

Search Results

Now showing 1 - 3 of 3
  • Thumbnail Image
    Item
    Inteligencia Artificial en el aula. De los mitos a la realidad
    (Grupo GRIAL, 2025-04-11) García-Peñalvo, Francisco José
    Investigación Educativa, celebrado del 9 al 12 de abril de 2025 en Punta Cana (República Dominicana). La conferencia aborda de manera crítica y documentada cómo la irrupción de la inteligencia artificial generativa (IAGen) está transformando la educación, especialmente en el aula universitaria, separando realidades de mitos que distorsionan la comprensión de su impacto. En primer lugar, se indica cada época ha tenido sus propios mitos tecnológicos y la IA no es una excepción: desde visiones apocalípticas al estilo Skynet o HAL 9000, hasta las utopías hipertecnológicas como Multivac de Asimov. Uno de los focos clave es la generación automática de contenidos educativos por parte de la IAGen, una tecnología que ha demostrado capacidad suficiente para producir materiales de alta calidad pero que también plantea dilemas sobre la autoría, la ética y la integridad académica. La presentación desmonta tres mitos principales que afectan especialmente al ámbito educativo. El primero es el mito de la sustitución del profesorado. Aunque se ha promovido la idea de que la IA puede reemplazar a los docentes, la conferencia demuestra que esta visión es reduccionista. La educación no se limita a la transmisión de conocimientos, sino que involucra una dimensión relacional, emocional y ética que la tecnología por sí sola no puede suplir. La IA debe entenderse como un complemento al profesorado, no como un sustituto. El segundo mito tratado es el de la autonomía del aprendizaje. Se analiza la promesa de la personalización radical mediante IA, que pretende empoderar al estudiante para que controle completamente su proceso de aprendizaje. Sin embargo, la automatización excesiva puede paradójicamente erosionar la autonomía del estudiante, fomentando la dependencia de las soluciones automáticas y restando oportunidades para el desarrollo de competencias como el pensamiento crítico y la autorregulación. Además, se advierte de los riesgos de que estos sistemas centren la interacción en el binomio individuo-máquina, limitando las oportunidades para la colaboración y el aprendizaje social. El tercer mito es el de la “muerte de la originalidad” en los trabajos académicos. Si bien la IA facilita la producción de textos originales desde el punto de vista formal, no siempre garantiza una aportación genuina del estudiante. Las herramientas de detección de IA son limitadas y pueden generar falsos positivos, por lo que no deben convertirse en el eje central del control académico. La clave está en fomentar la reflexión crítica y valorar el proceso de aprendizaje, más que únicamente el producto final. La conferencia concluye enfatizando la necesidad de pasar del “modo pánico” al “modo diseño”. Se apuesta por un enfoque basado en la creatividad, la responsabilidad compartida y la construcción de comunidades de práctica que promuevan una integración equilibrada de la IA. Además, se presenta el “Manifiesto para una IA segura en la educación”, que propone principios como la supervisión humana, la confidencialidad, la explicabilidad y la alineación con las estrategias pedagógicas. En definitiva, la IA no es ni una amenaza absoluta ni una solución mágica. Su impacto dependerá de cómo se diseñen las prácticas educativas y de la capacidad de las comunidades académicas para aprovechar sus ventajas sin renunciar a los valores esenciales de la educación: pensamiento crítico, ética, agencia y aprendizaje auténtico.
  • Thumbnail Image
    Item
    Desarrollo de un GPT personalizado para la orientación universitaria
    (Grupo GRIAL, 2025-03-06) García-Peñalvo, Francisco José; Vázquez-Ingelmo, Andrea
    El taller “Desarrollo de un GPT personalizado para la orientación universitaria” se impartió el 6 de marzo de 2025 en las I Jornadas de Orientación Profesional y Competencias CRUE España, celebradas en la Universidad de Salamanca. En el taller se explora cómo las tecnologías de Inteligencia Artificial Generativa (IAGen) y, en particular, los modelos GPT personalizados, pueden transformar la orientación académica en las universidades. La presentación arranca contextualizando la revolución tecnológica que ha supuesto la IAGen, destacando cómo los modelos de lenguaje a gran escala (LLM) han cambiado la producción de contenidos y la interacción con la información. Los LLM funcionan prediciendo la siguiente palabra en un contexto dado, lo que les permite generar texto coherente. Su efectividad depende de la cantidad de parámetros (pueden superar los 10.000 millones) y de la amplitud de la ventana de contexto, que define cuánta información puede considerar el modelo a la vez. Una mayor ventana permite mantener el contexto en conversaciones largas o analizar documentos extensos. El taller también presenta el “Manifiesto para una IA segura en la educación”, un conjunto de principios que garantizan el uso ético y seguro de la IA en el entorno educativo. Entre estos principios destacan la supervisión humana, la protección de la confidencialidad, la alineación con las estrategias educativas, la precisión y explicabilidad de las respuestas, y la transparencia en el comportamiento del asistente. El taller subraya la necesidad de desarrollar asistentes virtuales inteligentes adaptados a necesidades específicas, como la orientación universitaria. Un GPT personalizado no es simplemente una versión adaptada de ChatGPT, sino un asistente ajustado a un propósito concreto, que sigue instrucciones específicas, accede a información relevante y ofrece respuestas alineadas con las políticas y el contexto institucional. La diferencia clave es que ChatGPT es un generalista, mientras que un GPT personalizado es un especialista entrenado con manuales, procedimientos y documentación concreta. La personalización de un GPT implica definir su propósito, el tono de sus respuestas y el nivel de detalle. Es crucial proporcionar al modelo un conjunto de instrucciones claras y ejemplos de respuestas esperadas, además de establecer restricciones para evitar respuestas ambiguas o erróneas. Un aspecto clave es la personalización del conocimiento, cargando documentos específicos (normativas, reglamentos o guías de la universidad) que el GPT puede consultar para generar respuestas precisas. El proceso técnico de creación de un GPT personalizado en la plataforma ChatGPT de OpenAI es descrito paso a paso. OpenAI ofrece una interfaz de configuración intuitiva, donde es posible definir el comportamiento del asistente, subir documentos de conocimiento, habilitar la consulta de información en la web, e incluso conectar el GPT con API externas para realizar tareas avanzadas. Además, OpenAI recomienda redactar instrucciones de forma clara, granular y estructurada, dividiendo procesos complejos en pasos simples, utilizando ejemplos concretos y promoviendo la revisión cuidadosa de las respuestas generadas. En resumen, el taller muestra cómo los GPT personalizados pueden convertirse en herramientas clave para mejorar la orientación universitaria, ofreciendo a estudiantes y personal académico un asistente conversacional inteligente, fiable y adaptado a las necesidades de cada institución. Este enfoque combina la potencia de la IA Gen con las buenas prácticas de personalización y un fuerte compromiso con la ética y la transparencia en el uso de la IA en la educación superior.
  • Thumbnail Image
    Item
    Uso seguro de la IA en la Educación. Perspectivas tras dos años de ChatGPT
    (Grupo GRIAL, 2024-12-12) García-Peñalvo, Francisco José
    La conferencia magistral invitada “Uso seguro de la IA en la Educación. Perspectivas tras dos años de ChatGPT” se impartió el 12 de diciembre de 2024 de forma virtual dentro del 5º Congreso Internacional de Tendencias en Innovación Educativa (CITIE 2024), celebrado del 11 al 13 de diciembre de 2024 en el Centro Universitario de los Valles de la Universidad de Guadalajara (México). Se aborda cómo la inteligencia artificial generativa (IAGen), ejemplificada por ChatGPT, ha transformado el panorama educativo desde su lanzamiento el 30 de noviembre de 2022. Este análisis destaca tanto el impacto positivo como los desafíos asociados con la integración de estas tecnologías en el ámbito académico. El contenido explora los conceptos básicos de los modelos de lenguaje grande (LLM), incluyendo su arquitectura, tamaño, y costos económicos y energéticos de entrenamiento. Se discuten las capacidades de generación de contenido, como texto, imágenes y audio, y se subraya el papel crítico del diseño de prompts y del contexto en la calidad de las respuestas generadas. En el ámbito educativo, la presentación evalúa cómo la IA ha potenciado la creatividad, productividad y personalización del aprendizaje, beneficiando tanto al profesorado como al estudiantado. Sin embargo, se identifican riesgos como la despersonalización, el uso deshonesto y la dependencia tecnológica. Para mitigar estos problemas, se proponen buenas prácticas que incluyen formación continua, integración equilibrada y fomento de un uso ético. Se introduce el Manifiesto para una IA Segura en la Educación, que propone principios clave como la supervisión humana, la confidencialidad, y la alineación con estrategias educativas y prácticas didácticas. Se concluye reflexionando sobre el impacto disruptivo de la IAGen y subrayando la necesidad de un enfoque ético, inclusivo y colaborativo para garantizar que esta tecnología sea una herramienta beneficiosa en el futuro de la educación. Finalmente, se resalta la importancia de preparar a profesores y estudiantes para un uso crítico y responsable, alineando estas tecnologías con los valores educativos y sociales.
Creative Commons Attribution-NonCommercial-ShareAlike 4.0 Unported