—Esto no lo escribiste vos.
Lo dijo sin levantar la vista del papel, como si el texto, por su sola fluidez, hablara más que la estudiante que lo entregó. Sofía, que nunca había tenido una nota sobresaliente, había presentado un ensayo claro, bien argumentado, con citas ordenadas y una conclusión convincente. El profesor, acostumbrado a ver otros registros suyos –titubeantes, inseguros–, no creyó que el texto fuera suyo.
—¿Lo hiciste con ChatGPT?
—No, me ayudó mi hermano, pero lo escribí yo –respondió ella, bajando la voz.
Le pusieron un «Aceptable».
Podría ser una anécdota menor, pero en realidad es una escena frecuente, casi arquetípica, en las aulas universitarias actuales. No solo por el uso, a veces ingenuo, a veces sofisticado, de herramientas de inteligencia artificial (IA) por parte de los estudiantes, sino por lo que esa escena revela: el modo en que la IA descoloca nuestras certezas sobre qué significa saber, pensar, escribir y hasta ser inteligente.
Porque no se trata solo de evaluar un trabajo. Lo que está en juego es algo más profundo: ¿cómo sabemos que alguien entendió? ¿Cómo distinguimos el pensamiento auténtico de una simulación?
¿Y qué pasa cuando esas fronteras se vuelven borrosas, como ocurre hoy con los textos generados por IA?
Estas preguntas fueron el punto de partida de la conferencia Educar en Tiempos de Inteligencia Artificial, organizada por la Secretaría de Educación de la Unión de Educadores de Córdoba en junio y que tuvo como invitada a Mariana Ferrarelli, magíster en Metodología de la Investigación Científica y consultora tecnopedagógica. Su intervención, lúcida y a la vez incómoda, puso palabras a lo que muchos docentes universitarios sienten, pero aún no logran conceptualizar del todo: que no estamos solo frente a una nueva herramienta, sino frente a una transformación de época que nos exige repensar nuestras prácticas y también nuestras ideas sobre el conocimiento.
Ferrarelli lo dijo con claridad: «La IA no conversa, predice». Lo que parece un diálogo, cuando un estudiante «habla» con ChatGPT o Copilot, es en realidad una producción basada en cálculos estadísticos, patrones lingüísticos y correlaciones. La máquina no entiende, no interpreta, no tiene mundo. Simula. Y esa simulación, tan eficaz y naturalizada, es la que nos interpela.
Hasta ahora, la inteligencia en el aula, y, por extensión, en la universidad, se había asociado a la capacidad de elaborar respuestas correctas, escribir con claridad, articular argumentos, citar fuentes. Toda una serie de marcas visibles que los docentes identificamos con el saber pensar. Pero cuando una máquina puede hacer todo eso en segundos ¿qué queda de esa idea de inteligencia?
Lo inquietante, entonces, no es solo que la IA produzca textos «mejores» que los de muchos estudiantes, sino que esas producciones se parezcan demasiado a aquello que valoramos como evidencia de comprensión. Si una red neuronal puede producir un comentario literario, un informe de laboratorio o una hipótesis sociológica en tres segundos, quizás el problema no está (solo) en la IA, sino en nuestras formas de enseñar y de evaluar.
A nivel global, entre 54 y 60 por ciento de las instituciones educativas ya usan o planean adoptar herramientas de IA en los próximos años. Según encuestas indirectas, más del 60 por ciento de docentes informaron uso activo de IA en el aula, incluidos juegos, plataformas adaptativas y sistemas de retroalimentación automatizada.
Ferrarelli no plantea una rendición frente a las máquinas, sino todo lo contrario: propone que desarmemos las categorías que nos organizaban hasta ahora y construyamos otras, más situadas, más complejas. Porque si seguimos usando los mismos criterios para juzgar trabajos que ya no sabemos si fueron escritos por humanos o algoritmos, nos condenamos a la sospecha permanente. Como en el caso de Sofía: desconfiar del texto y, con ello, del sujeto.
Uno de los conceptos que más resuena actualmente es el de meta-prompts: consignas que no se agotan en una respuesta, sino que abren procesos. No se trata de prohibir la IA, sino de integrarla de forma crítica, pedagógica. ¿Cómo? Enseñando a usarla con criterio, a detectar sus límites, a contrastar sus resultados, a problematizar sus sesgos.
Y aquí aparece otro punto clave: ¿qué no está en internet? Porque la IA genera textos a partir de lo que encuentra en línea, pero hay lenguas que no están, culturas que han sido silenciadas, conocimientos que no fueron digitalizados, memorias que no forman parte del corpus. Lo que no está en los datos no existe para la IA. Y lo que no existe para la IA corre el riesgo de no existir tampoco para quienes dependen de ella para informarse, aprender o crear.
En este sentido, educar en tiempos de IA no es simplemente enseñar a usar herramientas. Es enseñar a mirar críticamente lo que producen, cómo lo producen y desde dónde. Implica también recuperar la pregunta por lo situado, lo que no está en las bases de datos, lo que se construye en diálogo con contextos específicos.
A nivel docente, los estudios sugieren una mezcla de optimismo condicionado y escepticismo fundamentado. En América Latina no existen muchos estudios empíricos, no obstante la campaña regional Enseña tu Voz (noviembre 2023-enero 2024), con más de 13 mil docentes en Argentina, Bolivia, Brasil, Chile, Colombia y otros países, reveló que la gran mayoría considera que la IA impacta positivamente en su práctica pedagógica, aunque menos de la mitad la ha usado activamente en el aula. En Brasil, por ejemplo, el 74,8 por ciento de los docentes expresan apoyo, mientras que solo el 39,2 por ciento la utiliza regularmente en sus clases.
Por su parte, la percepción estudiantil combina curiosidad, entusiasmo y cautela, en un contexto marcado por desigualdades tecnológicas. Según una encuesta realizada por la organización Chispa Educativa (2023), que incluyó a estudiantes secundarios y universitarios de México, Argentina, Colombia y Perú, el 72 por ciento de los jóvenes ha utilizado alguna herramienta de IA generativa, principalmente para tareas académicas y organización del estudio, aunque solo el 28 por ciento dice comprender cómo funciona realmente.
La mayoría la valora como un recurso que facilita el aprendizaje autodirigido y mejora el acceso a la información, pero también expresa preocupaciones éticas: el 61 por ciento teme que su uso pueda considerarse plagio y el 47 por ciento señala que las instituciones educativas no ofrecen orientaciones claras sobre su uso responsable. Estos datos coinciden con un informe de Fundación Ceibal (2024), que muestra que aunque los estudiantes están dispuestos a incorporarla, existe una demanda explícita por marcos normativos, formación crítica y acompañamiento docente.
Hay un asunto que resuena entre los expertos en pedagogía: la evaluación debe cambiar. Ya no alcanza con el producto final. Hay que volver al proceso: a cómo se investiga, cómo se elige, cómo se reescribe. Y, en ese tránsito, la IA puede ser una aliada. Puede ayudar a organizar ideas, corregir errores, traducir, reformular, pero el sentido, la decisión y el criterio siguen siendo humanos.
Lo que emerge, entonces, es la necesidad de nuevas alfabetizaciones: técnicas, sí, pero también epistemológicas, políticas, emocionales. Porque enseñar en este tiempo no es solo enseñar sobre IA, sino con la IA, frente a la IA y, muchas veces, a pesar de la IA.
Volvamos a Sofía. Quizás su ensayo fue imperfecto. Quizás su hermano le corrigió más de lo que ella admite. Pero el gesto automático de sospechar nos dice más sobre nuestras propias inseguridades docentes que sobre las habilidades reales de nuestros estudiantes.
¿Y si en lugar de preguntarnos si un texto fue hecho con IA nos preguntamos cómo fue hecho, qué proceso hubo detrás, qué decisiones se tomaron, qué quedó afuera? ¿Y si abrimos el aula a esos relatos, en vez de encerrarnos en un control que ya no podemos garantizar?
Quizás entonces podamos volver a mirar a Sofía y a tantos otros no como sospechosos de fraude, sino como protagonistas de un tiempo nuevo, en el que educar significa también desarmar nuestras propias definiciones de inteligencia y reconstruirlas con otros materiales: más frágiles, más abiertos, más humanos.