Documento continuación de: “Las alucinaciones de la IA: evidencia empírica”
Introducción
En los últimos años, la inteligencia artificial generativa se ha incorporado rápidamente en la práctica docente. Herramientas como ChatGPT, Gemini o Claude, entre muchas otras, permiten explicar conceptos complejos, generar materiales didácticos y apoyar procesos de enseñanza en cuestión de segundos. Sin embargo, como hemos analizado en entradas anteriores, estos sistemas también pueden producir información falsa con apariencia convincente, fenómeno conocido como alucinaciones (consultar las dos primeras entradas a este Blog sobre el tema).
Ante este escenario, el rol del profesorado no se debilita; por el contrario, se vuelve aún más relevante. No basta con utilizar estas herramientas; es imprescindible hacerlo de manera crítica, reflexiva y responsable. A continuación, se presentan algunas recomendaciones prácticas para verificar la información generada por IA y aprovechar su potencial sin comprometer la calidad académica.
1. Verificar siempre las fuentes
Una de las primeras prácticas que debe consolidarse es la verificación sistemática de la información. La IA puede ofrecer respuestas plausibles, pero esto no garantiza su veracidad, tal como vimos en documento previo. Por ello, es imprescindible contrastar datos, conceptos y afirmaciones con fuentes confiables, como artículos académicos indexados, libros especializados o sitios institucionales reconocidos.
2. Contrastar la información con múltiples referencias
La verificación no debe limitarse a una sola fuente. Comparar la información generada por la IA con diferentes referencias permite identificar inconsistencias, simplificaciones excesivas o interpretaciones erróneas. Esta práctica, habitual en la investigación académica, cobra aún más relevancia en el contexto del uso de IA.
3. Desarrollar el hábito de la duda razonable
Uno de los principales riesgos de la IA generativa es su capacidad para producir textos bien redactados y estructurados, lo que puede generar una falsa sensación de seguridad (Ji et al., 2023). En este sentido, es fundamental fomentar una actitud crítica permanente, basada en la duda razonable y el análisis reflexivo de la información.
4. Revisar cuidadosamente nombres, citas y referencias
Las investigaciones sobre IA generativa han documentado la tendencia de estos sistemas a inventar referencias, autores o publicaciones inexistentes (Li et al., 2023). Por ello, se recomienda verificar siempre la existencia real de las citas, así como su correspondencia con fuentes legítimas y accesibles.
5. Utilizar la IA como herramienta de apoyo, no como sustituto
Las herramientas de IA deben entenderse como asistentes que facilitan tareas, pero no reemplazan el criterio profesional del docente ni el proceso de validación del conocimiento. Como advierten Azamfirei et al. (2023), la confianza excesiva en estos sistemas puede derivar en errores significativos, especialmente en contextos donde la precisión es fundamental.
6. Incorporar estas prácticas en la enseñanza
Más allá del uso individual, es fundamental trasladar estas estrategias al aula. Formar a los estudiantes en el uso crítico de la IA implica enseñarles a verificar información, contrastar fuentes y cuestionar respuestas aparentemente correctas. De esta manera, se promueve no solo el uso responsable de la tecnología, sino también el desarrollo del pensamiento crítico y la necesidad de tener evidencias concretas (Danyaro et al., 2025).
7. Formular preguntas de manera clara y estratégica (el arte del prompting)
La calidad de las respuestas generadas por la inteligencia artificial depende en gran medida de cómo se formulan las preguntas. Este proceso, conocido como prompting, implica diseñar instrucciones claras, específicas y contextualizadas para obtener mejores resultados.
En el ámbito educativo, un prompt impreciso o demasiado general puede dar lugar a respuestas superficiales, incompletas o incluso incorrectas. Por el contrario, una formulación más detallada, que incluya contexto, nivel académico, propósito y tipo de respuesta esperada, permite orientar mejor al sistema y reducir la probabilidad de errores. Por ejemplo, no es lo mismo solicitar “¿me puedes diseñar una actividad para analizar el teorema de Pitágoras?” que formular una petición más específica como: “¿me puedes diseñar una actividad para introducir el teorema de Pitágoras para estudiantes de noveno año en Costa Rica, en concordancia con el currículo vigente, que incluya un contexto real, que active los diferentes procesos matemáticos curriculares y que permita anticipar y analizar posibles errores de los estudiantes?”. En este segundo caso, la instrucción no solo es más precisa, sino que incorpora elementos clave del trabajo docente: el nivel educativo, el contexto curricular, la intencionalidad pedagógica y la atención a las dificultades de aprendizaje. Esto incrementa significativamente la calidad, pertinencia y utilidad de la respuesta generada por la IA.
Dado que el diseño de instrucciones efectivas constituye un campo amplio de estudio, el denominado arte del prompting ha sido ya extensamente abordado en la literatura reciente, destacando la importancia de formular solicitudes claras, contextualizadas y pedagógicamente intencionadas (Mollick & Mollick, 2023); White et al., 2023). En este sentido, profundizar en estas estrategias representa una oportunidad valiosa para el desarrollo profesional docente en entornos mediados por inteligencia artificial.
Un ejemplo ilustrativo
En la práctica, no es infrecuente que una herramienta de IA genere una explicación detallada sobre una teoría o autor que no existe, utilizando un lenguaje técnico y convincente, como en los ejemplos tratados en el segundo documento. Un docente o estudiante podría aceptar esta información como válida si no realiza una verificación posterior. Sin embargo, al intentar localizar la fuente en bases de datos académicas, esta simplemente no aparece. Este tipo de situaciones evidencia la importancia de no asumir la veracidad de la información sin un proceso de validación.
En la entrada de Blog anterior vimos un ejemplo, donde se solicitó información sobre una supuesta poetisa costarricense llamada “Magda Mora”. El sistema respondió que se trataba de una autora prominente cuya obra cumbre era Canto a la alegría (1959), habría recibido el Premio Nacional Aquileo J. Echeverría en 1961. La respuesta que era completamente plausible porque incluye una obra con un título verosímil, una fecha específica y la referencia a un premio nacional legítimo. Si nos enfrentáramos a una situación como la descrita y con vigilancia crítica, tomando en cuenta nuestras recomendación podríamos, por ejemplo, una verificación rápida consiste en acudir a otra herramienta IA y solicitar los nombres de quiénes han sido los ganadores del Premio Nacional Aquileo J. Echeverría en literatura en la década de 1960 y ¿con qué obras han obtenido este premio?. El lector puede constatar que al contrastar esta información, se identifican autores y obras, lo que permite evidenciar que la respuesta inicial fue una construcción errónea del sistema. Ahora si queremos ser todavía más precisos podemos recurrir a los archivos del Ministerio de Cultura de Costa Rica.
Reflexión final
La inteligencia artificial generativa representa una oportunidad significativa para enriquecer los procesos de enseñanza y aprendizaje. No obstante, su uso también plantea desafíos importantes relacionados con la calidad y la veracidad de la información.
En este contexto, el papel del profesorado no se reduce, sino que se fortalece. La capacidad de evaluar, interpretar y validar el conocimiento se vuelve más relevante que nunca. Por ello, el verdadero desafío no es decidir si se deben utilizar estas herramientas, sino cómo hacerlo de manera crítica, ética y responsable, garantizando siempre el rigor académico.
Lista de referencias
Azamfirei, R., Kudchadkar, S. R., & Fackler, J. (2023). Large language models and the perils of their hallucinations. Critical Care, 27(1), 120. https://doi.org/10.1186/s13054-023-04393-x
Digital Education Council [DEC]. (2026). AI in higher education LATAM survey 2026. Instituto para el Futuro de la Educación, Tecnológico de Monterrey. https://www.digitaleducationcouncil.com/post/ai-in-higher-education-latam-survey-2026
Ji, Z., Lee, N., Frieske, R., Yu, T., Su, D., Xu, Y., Ishii, E., Bang, Y., Chen, D., Dai, W., Chan, H. S., Madotto, A., & Fung, P. (2023). Survey of hallucination in natural language generation. ACM Computing Surveys, 55(12), 1–38. https://doi.org/10.1145/3571730
Li, J., Cheng, X., Zhao, X., Nie, J.-Y., & Wen, J.-R. (2023). HaluEval: A large-scale hallucination evaluation benchmark for large language models. En Proceedings of the 2023 Conference on Empirical Methods in Natural Language Processing (pp. 6449–6464). Association for Computational Linguistics. https://doi.org/10.18653/v1/2023.emnlp-main.397
Mollick, E. R., & Mollick, L. (2023). Assigning AI: Seven approaches for students, with prompts. SSRN. https://doi.org/10.2139/ssrn.4475995
White, J., Fu, Q., Hays, S., Sandborn, M., Olea, C., Gilbert, H., Elnashar, A., Spencer-Smith, J., & Schmidt, D. C. (2023). A prompt pattern catalog to enhance prompt engineering with ChatGPT. arXiv preprint arXiv:2302.11382. https://doi.org/10.48550/arXiv.2302.11382