Preguntar a ChatGPT en vez de a tus padres: el coste sobre el pensamiento crítico en estudiantes

octubre 5, 2025

Preguntar a ChatGPT en vez de a tus padres: el coste sobre el pensamiento crítico en estudiantes

Resumen del informe y hallazgos clave

Un informe conjunto de Ayuda en Acción y el Consejo Superior de Investigaciones Científicas (CSIC), titulado “La IA en la FP: oportunidades y riesgos”, alerta de que el uso habitual de herramientas de inteligencia artificial entre alumnado de Formación Profesional está transformando el proceso de aprendizaje y, en muchos casos, erosionando habilidades clave como el pensamiento crítico. El estudio recoge que un 43% del alumnado de Grado Superior utiliza IA, un 55% la emplea para preparar exámenes y hasta un 77% para la elaboración de trabajos académicos.

Los autores del informe, Núria Vallès y Víctor Bermejo (CSIC), resumen el problema así: “La IA en la FP no introduce problemáticas completamente nuevas, sino que intensifica desafíos ya presentes en el sistema educativo”. Entre los efectos observados figuran un aprendizaje más rápido pero superficial, mayor desmotivación del alumnado y una mayor polarización entre quienes usan la IA de forma crítica y quienes la aceptan sin contrastar.

Contexto: por qué esto importa ahora

Desde la aparición y popularización de modelos conversacionales como ChatGPT (lanzado por OpenAI a finales de 2022) la presencia de asistentes de IA en la vida académica se ha acelerado. Las herramientas ofrecen respuestas inmediatas y apoyo para tareas de estudio que antes demandaban más tiempo y mediación humana. Esa conveniencia ha llevado a debates sobre si integrar la IA en la enseñanza, limitarla o prohibirla.

Las discusiones no son nuevas: docentes y centros educativos han revisado políticas de integridad académica, y organismos internacionales como la UNESCO y la OCDE han publicado orientaciones generales sobre alfabetización digital y uso responsable de la IA en educación. El reto actual es práctico: cómo aprovechar las capacidades de la IA sin sacrificar competencias básicas, especialmente el pensamiento crítico, la evaluación de fuentes y la capacidad de argumentar.

Análisis para docentes y responsables educativos

Para el profesorado y los responsables de diseño curricular, los hallazgos del informe obligan a replantear tres dimensiones operativas: evaluación, formación del profesorado y diseño de actividades docentes.

  • Evaluación. Los formatos tradicionales de examen centrados en respuestas correctas cerradas facilitan el uso instrumental de la IA. Es necesario priorizar evaluaciones que valoren procesos, razonamiento y elaboración personal (proyectos, portfolios, exposiciones orales, resolución guiada de problemas).
  • Formación docente. Los profesores requieren formación práctica sobre las limitaciones técnicas de los modelos (alucinaciones, sesgos, falta de trazabilidad) y sobre cómo integrar la IA como herramienta pedagógica que fomente la indagación y la verificación.
  • Diseño de actividades. Conviene proponer tareas que exijan contrastación y crítica explícita de la información proporcionada por un sistema de IA: pedir fuentes verificables, exigir razonamientos paso a paso y fomentar el uso combinado de recursos (libros, artículos, tutoría familiar).

En la práctica, eso implica que la incorporación de la IA no puede quedar reducida a permitir respuestas automatizadas; debe acompañarse de rúbricas que valoren la capacidad de evaluar, sintetizar y contextualizar información.

Riesgos, desigualdades y comparaciones

El informe subraya que el problema no es solo técnico sino social. La IA, usada como atajo, reproduce y amplifica desigualdades existentes. Marta Carretero, responsable de estudios de Ayuda en Acción, explica la dinámica social que observan:

“Los alumnos cuyas familias tienen estudios superiores usan menos la IA para resolver dudas y recurren más a sus padres. En cambio, quienes no tienen ese apoyo dependen mucho más de la IA”.

Ese patrón tiene varias consecuencias:

  • Desarrollo desigual del pensamiento crítico: alumnado con apoyo familiar sigue practicando el contraste de fuentes y el diálogo sobre contenidos; otros no desarrollan esas habilidades.
  • Dependencia de respuestas inmediatas: el uso frecuente de diálogo con un asistente puede reducir la tolerancia a la incertidumbre y la capacidad para resolver problemas complejos.
  • Riesgos de desinformación: las IA pueden ofrecer respuestas plausibles pero incorrectas (alucinaciones), y sin entrenamiento en verificación los estudiantes aceptan esas respuestas como válidas.

Estas dinámicas recuerdan debates previos sobre el acceso desigual a recursos educativos digitales: la brecha digital no solo es de acceso a dispositivos o conectividad, sino también de capital cultural y apoyo domiciliario que permiten transformar la información en conocimiento crítico.

Recomendaciones prácticas y acciones propuestas

Para mitigar los efectos negativos y aprovechar oportunidades, proponemos una hoja de ruta práctica dirigida a centro educativos, profesorado, familias y desarrolladores de tecnología educativa.

  • Reformar evaluaciones: introducir tareas que documenten el proceso (folios de trabajo, justificantes de razonamiento, grabaciones orales) y prioricen la creatividad y la resolución práctica de problemas.
  • Enseñar alfabetización de IA: programas curriculares que expliquen cómo funcionan los modelos, sus limitaciones, la necesidad de contrastar fuentes y cómo formular preguntas críticas.
  • Formación continua del profesorado: talleres sobre diseño de tareas, detección de uso indebido y explotación pedagógica de la IA (generación de ejercicios, simulaciones, retroalimentación formativa).
  • Promover la mediación familiar: iniciativas para involucrar a familias, especialmente en entornos vulnerables, orientadas a reforzar el diálogo sobre contenidos y la tutoría informal.
  • Garantizar equidad de acceso y recursos: becas de conectividad, espacios de apoyo en centros, y herramientas de IA supervisadas o curadas que reduzcan sesgos y errores.
  • Políticas institucionales claras: guías de uso responsable, protocolos de integridad académica y transparencia sobre la utilización de IA en procesos formativos y evaluativos.
  • Diseño de herramientas con trazabilidad: exigir a proveedores que documenten fuentes y grado de confiabilidad, y que incluyan mecanismos para justificar respuestas (explainability).

Estas medidas combinan prevención (reducir dependencia automática) y potenciación (usar IA para enriquecer la práctica docente). No son mutuamente excluyentes: una estrategia completa integra ambas líneas.

Conclusión

El informe del CSIC y Ayuda en Acción aporta evidencia de que preguntar a ChatGPT en lugar de recurrir a padres o a otros recursos puede acelerar el aprendizaje a costa de profundidad y pensamiento crítico. El reto es institucional: transformar la presencia de la IA en una palanca pedagógica que exija contrastación, fomente habilidades metacognitivas y reduzca desigualdades. Para ello se necesitan cambios en evaluación, formación docente, participación familiar y en el diseño de las propias herramientas de IA. Sin estas medidas, la comodidad de respuestas rápidas puede terminar por empobrecer la capacidad de los estudiantes para evaluar información y sostener argumentos propios.

Source: www.genbeta.com