Desde el origen del lenguaje, la propagación de información ha sido una herramienta invaluable para nosotros, los humanos. Siempre hemos estado en constante búsqueda de sistemas que nos permitan registrar, sintetizar y comunicar el conocimiento que constantemente adquirimos. Sin embargo, durante los últimos dos años, hay un sistema en particular que ha generado una gran polémica por su accesibilidad y masificación. Estos son los modelos de inteligencia artificial generativa, los cuales consisten en modelos de lenguaje de gran escala que acumulan enormes cantidades de información y que los procesan para transformarlos en conversaciones con “chatbots”, teniendo como el más representativo a “ChatGPT”. Desde un principio, la aparición de estos modelos supuso un gran avance y demostración de la evolución humana, resultando en un gran ahorro de tiempo y esfuerzo para las personas que los consultaban; no obstante, como cualquier gran instrumento que ha creado el ser humano, estos tienen también ciertas desventajas. Es así que, en estas líneas, surge el objetivo de revisar los principales beneficios y riesgos del uso de este modelo de inteligencia artificial generativa. /
Según el mismo ChatGPT, su propósito consiste en redactar y corregir textos, explicar conceptos complejos, dar ideas creativas y ayudar con tareas educativas o profesionales (OpenAI, 2025). Esto puede sonar sencillo, pero, actualmente, es conocimiento público que lo que, en el pasado, hubiera tomado horas recabar, está actualmente al alcance de una búsqueda; y trabajos que implicaban muchísima preparación e información, hoy en día, pueden ser realizados por cualquier persona con acceso a internet.
Por lo mismo, hay una serie de efectos positivos que vienen de la mano con el uso de estos chatbots de inteligencia artificial generativa, por ejemplo:
- Aprendizaje personalizado: permite adaptar contenido educacional, ofreciéndoles a los estudiantes una experiencia directa con conocimiento que, de otra manera, tomaría mucho tiempo recoger, filtrar y entender. Esto consiste en explicaciones paso a paso, a manera de resúmenes y explicaciones de temas complejos, lo cual puede ayudar a los alumnos a contextualizar y retener el material que están leyendo (Kasneci, et al., 2023).
- Aprendizaje interactivo: la naturaleza de estos chats toma la forma de una conversación, la cual es interactiva y puede incrementar la participación y motivación al momento de construir el aprendizaje. Esto, incluso, podría resultar en un incremento en la retención y comprensión de este conocimiento (Baidoo-Anu & Owusu, 2023).
- Disponibilidad permanente: debido a que están a disposición y alcance permanentemente, estos chatbots permiten que los estudiantes puedan utilizar, a conveniencia, su asistencia sin interrupciones (Kosmyna, et al., 2025).
- Presión reducida: algunos estudiantes podrían preferir interactuar con estos sistemas de inteligencia generativa incluso antes que con algún humano, debido a la poca exigencia que demanda este canal de información; esto puede significar un proceso más relajado y accesible de consolidación del aprendizaje (Long, Xianfei y Jacan, 2023).
Si bien estos son ejemplos magníficos que podrían aparentar no tener efectos colaterales, es importante buscar la objetividad y recoger también los riesgos a los que nos exponemos cuando nos apoyamos con demasiada frecuencia en estas herramientas. Por lo mismo, enlisto aquí algunos potenciales peligros que aparecen con el uso de estos sistemas:
- Uso excesivo: el uso frecuente e indiscriminado de estos chatbots puede convertirse en un riesgo para la manera en la que construimos el conocimiento. Esto, debido al efecto que puede tener en nuestros procesos cognitivos, específicamente en la memoria (Kosmyna, 2025), pues estas herramientas causan el deterioro de estas capacidades al ahorrar a las personas la necesidad de ejercitarla; así como también al arriesgarnos a confiar en lo que encontramos en estos modelos, en vez de recordar lo que ya sabemos, lo cual nos expone a la posibilidad de depender de estas bases de datos externas a nosotros (Risko, 2019).
- Falta de uso del pensamiento crítico: al asumir como verdadero el contenido de las conversaciones con estos chatbots, los estudiantes podrían ver afectado también su pensamiento crítico, pues no hay la necesidad de analizar y profundizar en lo que encuentran (Lodge & Kypri, 2023). Junto con esto, al confiar en los resultados que proporcionan estos chatbots sin criticarlos, llegan a caer también en los sesgos que esta información trae (Zhai, Wibowo y Li, 2024).
- Precisión en la información: estos modelos son conocidos por su utilidad, pero también por sus “alucinaciones”. Esto implica la creación de argumentos plausibles, pero falsos, que pueden ser engañosos, pues dibujan una delgada línea entre lo que es cierto y lo que es ficción. Además, esto crea la preocupación acerca de la capacidad de los usuarios en general de evaluar críticamente y discernir la precisión del contenido generado por inteligencia artificial (Zhai, Wibowo y Li, 2024).
- Reducción de la interacción humana: el uso frecuente de estos modelos puede derivar en menos oportunidades de interactuar con humanos para conseguir la información. Si bien esto se suma a la tendencia que Google habría creado hace ya algunas décadas, no deja de marcar una distancia de la educación tradicional y su forma de construir el conocimiento (Zhou, et al., 2023). Esto también restaría a la capacidad de los estudiantes de tomar decisiones informadas (Buçinca et al., 2021), esto también implica que, poco a poco, se va perdiendo el hábito de consultar a otras personas, ya sean autoridades, familiares o pares.
- Participación superficial en la construcción del conocimiento: debido a la inmediatez de las respuestas provistas, esto podría prevenir a los estudiantes de desarrollar un entendimiento más profundo de los temas consultados. Esto también podría impactar negativamente en la formación de la memoria (Lo, 2023). Esta falta de estimulación podría llevar también a una disminución del desarrollo cognitivo y la capacidad de la memoria (Sparrow, Liu y Wegner, 2011).
Por todo lo anteriormente expuesto, queda en evidencia que tenemos entre manos un poderoso atajo que tiene el potencial de crear tanto como de destruir. Como siempre, la libertad de hacernos cargo de nosotros mismos definirá el resultado. Por lo mismo, la supervisión del uso, las conversaciones en casa y el colegio sobre los beneficios y riesgos del uso de estas herramientas podría hacer la diferencia para permitir que nuestros estudiantes puedan seguir sacando provecho de los logros que hemos conseguido.
——————————————————————————————————————
Referencias Bibliográficas:
Baidoo-Anu, D., & Owusu Ansah, L. (2023). Education in the era of generative artificial intelligence (AI): Understanding the potential benefits of ChatGPT in promoting teaching and learning. SSRN. Recuperado de https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4337484
Buçinca, Z., Malaya, M. B., & Gajos, K. Z. (2021). To trust or to think: Cognitive forcing functions can reduce overreliance on ai in ai-assisted decision-making. Proceedings of the ACM on Human-Computer Interaction, 5(CSCW1), 1–21. https://doi.org/10.1145/3449287
Kasneci, E., Sessler, K., Küchemann, S., Bannert, M., Dementieva, D., Fischer, F., Gasser, U., Groh, G., Günnemann, S., Hüllermeier, E., Krusche, S., Kutyniok, G., Michaeli, T., Nerdel, C., Pfeffer, J., Poquet, O., Sailer, M., Schmidt, A., Seidel, T., … Kasneci, G. (2023). ChatGPT for good? On opportunities and challenges of large language models for education. Learning and Individual Differences, 103, artículo 102274. Recuperado de https://www.sciencedirect.com/science/article/abs/pii/S1041608023000195?via%3Dihub
Kosmyna, N., Hauptmann, E., Yuan, Y. T., Situ, J., Liao, X.-H., Beresnitzky, A. V., Braunstein, I., & Maes, P. (2025). Your Brain on ChatGPT: Accumulation of cognitive debt when using an AI assistant for essay writing task. arXiv. https://doi.org/10.48550/arXiv.2506.08872
Lo, C. (2023). What is the impact of ChatGPT on education? A rapid review of the literature. Education Sciences, 13(4), 410. https://doi.org/10.3390/educsci13040410
Lodge, J. M., & Kypri, K. (2023). ChatGPT: A new threat to academic integrity? Medical Education, 57(3), 296-297.
Long, B., Xiangfei, L., & Jiacan, S. (2023). ChatGPT: The cognitive effects on learning and memory. Brain and Behavior, 13(2), e030. Wiley Online Library. https://doi.org/10.1002/brx2.30
OpenAI. (2025). ChatGPT [Modelo de lenguaje grande]. OpenAI. https://chat.openai.com
Pedro F, Subosa M, Rivas A, Valverde P. (2019). Artificial Intelligence in Education: Challenges and Opportunities for Sustainable Development. United Nations Educational, Scientific and Cultural Organization. Recogido de https://hdl.handle.net/20.500.12799/6533
Risko, E., Kelly, M., Patel, P., & Gaspar, C. (2019). Offloading memory leaves us vulnerable to memory manipulation. Cognition, 191, Article 103954. https://doi.org/10.1016/j.cognition.2019.04.023
Sparrow, B., Liu, J., & Wegner, D. M. (2011). Google effects on memory: Cognitive consequences of having information at our fingertips. Science, 333(6043), 776–778. https://doi.org/10.1126/science.1207745
Zhai, C., Wibowo, S. & Li, L. (2024). The effects of over-reliance on AI dialogue systems on students’ cognitive abilities: a systematic review. Smart Learn. Environ. 11, 28 https://doi.org/10.1186/s40561-024-00316-7
Zhou, J., Müller, H., Holzinger, A., & Chen, F. (2023). Ethical ChatGPT: Concerns, challenges, and commandments. Recuperado de https://arxiv.org/abs/2305.10646