Los estudiantes usan la IA mucho más de lo que las escuelas están preparadas
2 de abril de 2026
La inteligencia artificial ya es una herramienta de estudio diaria para muchos alumnos. Pero la mayoría de las escuelas aún no tienen reglas claras sobre cuándo ayuda o perjudica el aprendizaje. Esta situación está causando confusión, castigos injustos y cambiando el propósito de las tareas.
Muchos adultos todavía hablan del uso de la inteligencia artificial por parte de los estudiantes como si fuera un problema del futuro. No lo es. En muchos colegios y universidades, ya es algo normal. Los estudiantes usan chatbots para generar ideas para ensayos, resumir lecturas, resolver problemas de matemáticas, escribir código, traducir textos y redactar correos a los profesores. La sorpresa no es que esto esté sucediendo. La sorpresa es el poco acuerdo que existe sobre lo que se considera un uso aceptable y la desigualdad en la respuesta de las escuelas.
Esta diferencia es importante porque la IA no llega al aula como una única herramienta con un único propósito. Actúa más bien como una capa que se extiende sobre el propio trabajo escolar. Un estudiante puede usarla para corregir la gramática de una frase o para generar un trabajo completo en segundos. Entre esos dos extremos hay una amplia zona gris, y a muchos profesores se les pide que la controlen sin formación, tiempo o métodos fiables.
La evidencia de su rápida adopción es difícil de ignorar. En Estados Unidos, encuestas del Digital Education Council y otros grupos educativos han encontrado un uso sustancial de la IA generativa entre universitarios para estudiar y hacer trabajos. En Gran Bretaña, una encuesta de 2024 del Higher Education Policy Institute reveló que más de la mitad de los estudiantes de grado habían usado IA generativa para sus evaluaciones, un aumento drástico respecto al año anterior. En los institutos, la adopción es más difícil de rastrear porque los sistemas escolares difieren y es menos probable que los alumnos lo admitan abiertamente. Pero directores de distrito, profesores y empresas de tutorías han descrito el mismo patrón: una vez que las herramientas de IA gratuitas se volvieron fáciles de acceder, los estudiantes las incorporaron a sus tareas rutinarias casi de inmediato.
La investigación está empezando a mostrar por qué esto sucedió tan rápido. La IA ahorra tiempo, reduce el estrés y ofrece ayuda instantánea a cualquier hora. Para los estudiantes que hacen malabares con trabajos, el cuidado de la familia, una conexión a internet débil o aulas abarrotadas, eso no es poca cosa. Un chatbot no cierra a las 5 de la tarde. No hace que un estudiante espere a las horas de consulta. Para los alumnos que tienen dificultades con el inglés, la carga de lectura o la confianza, puede parecer un tutor privado. Ese beneficio es real. Los primeros estudios sugieren que la IA generativa puede ayudar con la lluvia de ideas, los comentarios y la redacción cuando se usa con límites. En algunas tareas de programación y escritura, los investigadores han descubierto que las personas trabajan más rápido con la ayuda de la IA. Esa promesa explica por qué las prohibiciones totales han sido difíciles de aplicar.
Pero la misma rapidez y facilidad también crean serios problemas. El primero es que las escuelas a menudo tratan todo uso de la IA como si fuera trampa o progreso, cuando ninguna de las dos visiones es suficiente. Un estudiante que usa un chatbot para entender un artículo difícil no está haciendo lo mismo que un estudiante que entrega un trabajo escrito por una máquina. Sin embargo, muchas normativas no distinguen claramente entre apoyo y sustitución. Algunas escuelas se han apresurado a usar detectores de IA, a pesar de que los investigadores y expertos en tecnología han advertido repetidamente que no son fiables. La propia OpenAI dijo en 2023 que su clasificador de IA para detectar texto generado tenía una baja tasa de precisión y fue retirado. Los académicos también han advertido que las acusaciones falsas pueden afectar más a los hablantes no nativos de inglés y a los estudiantes cuyo estilo de escritura parece inusualmente formal.
Esta confusión está cambiando la confianza dentro de las aulas. Los profesores dicen que pasan más tiempo preguntándose quién escribió qué. Los estudiantes, a su vez, dicen que no están seguros de lo que está permitido. Un profesor puede permitir la IA para hacer un esquema, pero no para la prosa. Otro puede prohibirla por completo. Y otro puede no mencionarla en absoluto. En la educación primaria y secundaria, la confusión puede ser aún mayor porque las reglas pueden variar según el distrito, la escuela o el profesor. Dos estudiantes que hacen lo mismo en dos clases diferentes pueden enfrentar consecuencias muy distintas.
El problema de fondo es que la IA está dejando al descubierto un problema que ya existía antes de que los chatbots se volvieran populares: gran parte del trabajo escolar ya estaba diseñado de manera que premiaba un resultado pulido más que un razonamiento visible. Si una tarea puede ser realizada de forma convincente por una máquina en segundos, eso no solo revela un problema con la máquina. También plantea una pregunta difícil sobre la propia tarea. ¿El objetivo es producir una respuesta impecable o practicar el razonamiento, el juicio y la memoria? En ese sentido, la IA no solo está poniendo a prueba la honestidad académica. Está poniendo a prueba si las evaluaciones todavía se corresponden con lo que las escuelas dicen valorar.
Las consecuencias van más allá de las notas. Si los estudiantes dependen demasiado de la IA antes de desarrollar habilidades básicas, pueden perder la oportunidad de desarrollarlas por completo. Esa preocupación es mayor en la escritura, la lectura y la resolución de problemas. Aprender a menudo requiere frustración, repetición y un esfuerzo mental lento. La generación instantánea puede crear un atajo en ese proceso. Los estudios sobre la llamada "dificultad deseable" en la educación han demostrado durante mucho tiempo que el aprendizaje que requiere esfuerzo ayuda a que el conocimiento se fije. Si la IA elimina demasiada dificultad demasiado pronto, los estudiantes pueden completar más tareas, pero entendiendo menos.
También hay un problema de equidad. Los estudiantes más ricos tienen más probabilidades de acceder a herramientas de IA de pago con mejor rendimiento y menos límites. También pueden tener más orientación de padres, tutores o escuelas con conocimientos tecnológicos sobre cómo usar esas herramientas de manera estratégica. Los estudiantes más pobres pueden quedarse con versiones gratuitas más débiles o con castigos más duros en escuelas con políticas menos claras. El resultado podría ser un patrón familiar en la educación: una nueva tecnología llega con promesas de acceso, pero sus beneficios se distribuyen de manera desigual mientras que sus riesgos se empujan hacia abajo.
Nada de esto significa que las escuelas deban fingir que la IA puede ser prohibida hasta desaparecer. No pueden. Los estudiantes la usarán en casa, en sus teléfonos y en navegadores que las escuelas no controlan. Una respuesta más realista comienza con reglas claras que separen la ayuda aceptable de la sustitución oculta. Las escuelas pueden decir, en un lenguaje sencillo, si los estudiantes pueden usar la IA para generar ideas, corregir gramática, traducir, hacer preguntas de estudio, obtener pistas de programación o redactar borradores. Pueden exigir que se declare cuándo se usó la IA y para qué. Eso es mejor que advertencias vagas que dejan a los estudiantes adivinando.
La evaluación también tiene que cambiar. Más escritura en clase, defensas orales, planificación a mano, notas sobre el proceso, borradores y trabajos basados en proyectos pueden hacer más visible el razonamiento del estudiante. Ninguno de estos métodos es nuevo. Pero ahora importan más. El objetivo no es convertir la escuela en un ejercicio de vigilancia. Es hacer que el aprendizaje sea observable de nuevo. Los profesores también necesitan formación, no solo software. Necesitan tiempo para rediseñar las tareas y discutir ejemplos con sus colegas. Sin eso, las políticas seguirán siendo abstractas mientras la confusión en el aula crece.
Los estudiantes también merecen más honestidad. Se les debe decir que la IA puede ser útil y arriesgada al mismo tiempo. Puede ayudarles a empezar, pero también puede anular su propia voz, introducir errores y debilitar los hábitos de los que depende el aprendizaje serio. En derecho, medicina, ingeniería, periodismo y servicio público, nadie se beneficia de profesionales que aprendieron a delegar su razonamiento demasiado pronto.
La lucha en las aulas por la IA a menudo se presenta como una batalla entre profesores anticuados y tecnología imparable. Eso es demasiado simple. El verdadero problema es si las escuelas pueden adaptarse lo suficientemente rápido para proteger el aprendizaje sin negar la realidad. Los estudiantes no están esperando esa respuesta. Ya están integrando la IA en su forma de trabajar. Si las escuelas siguen respondiendo con confusión, silencio o malos detectores, no detendrán el cambio. Solo perderán la oportunidad de darle forma.
Source: Editorial Desk