40 El degenerativo -Parte 2

Los peligros particulares de la IAG incluyen:

Inexactitudes y alucinaciones: los modelos generativos son una maravilla al producir lenguaje coherente, fluido y similar al humano. En toda esa elocuencia se esconden errores factuales, verdades limitadas, referencias fabricadas y pura ficción, a lo que se refiere como «alucinaciones»1,2. En la parte inferior de la interfaz de ChatGPT, subrayando todas las conversaciones, está la nota de que ‘ChatGPT puede producir información inexacta sobre personas, lugares o hechos1. La precisión de ChatGPT podría ser alrededor del 60% o peor, dependiendo del tema2,3.

Para empeorar las cosas, ChatGPT tiene la tendencia a presentar verdades sin evidencia o calificación. Cuando se le pide específicamente por referencias, puede conjurar fuentes que no existen o no respaldan tal verdad como se presenta en el texto4,2. Sin embargo, muchos usuarios tienden a usarlo como un «motor de búsqueda en internet, bibliotecario de referencia, o incluso Wikipedia»5. Cuando un profesor o estudiante lo usa para obtener información sobre la cual no tienen conocimiento previo, corren el riesgo de aprender lo incorrecto o presentar conocimiento falso a otros1,5.

El éxito de los LLM hoy en día yace en el enorme número de parámetros y cantidad de datos de entrenamiento que utilizan para modelar cómo se unen las palabras en la comunicación humana. Los profesores y estudiantes siempre deben tener en mente que el texto generado por modelos conversacionales no está conectado con la comprensión de este texto, o incluso con una noción de realidad1. Mientras que pueden manipular la forma lingüística con diversos grados de éxito, no tienen acceso al significado detrás de esta forma6. «El pensamiento al estilo humano se basa en posibles explicaciones y corrección de errores, un proceso que limita gradualmente qué posibilidades pueden ser consideradas racionalmente… Mientras que los humanos estamos limitados en los tipos de explicaciones que podemos conjeturar racionalmente, los SAA pueden aprender tanto que la tierra es plana como que la tierra es redonda»7.

Cambio o empeoramiento del poder y control: la IAG depende de enormes cantidades de datos, poder de cómputo y métodos de computación avanzados. Solo unas pocas compañías, países e idiomas tienen acceso a todo esto. Sin embargo, a medida que más personas adoptan estas tecnologías, gran parte de la humanidad se ve obligada a seguir su línea, y por lo tanto es alienada y forzada a perder su poder expresivo1.

Mientras los creadores mantienen el poder, externalizan la responsabilidad. La tarea de sanear la salida de ChatGPT, por ejemplo, se puso en manos de trabajadores kenianos «que tenían que filtrar contenido violento y perturbador como abuso sexual, discurso de odio y violencia»4.

Infracción de derechos de autor y propiedad intelectual: gran parte del conocimiento tecnológico de los sistemas generativos está protegido detrás de muros corporativos. Sin embargo, los datos se toman del público general1. ¿Está bien tomar imágenes que se hicieron públicas en alguna plataforma y usarlas sin el conocimiento o consentimiento del sujeto? ¿Qué pasa si la cara de alguien se usa para propaganda racista, por ejemplo8? ¿Es la única manera de bloquear la IAG hacer el contenido privado?

Más allá de los datos públicos, los modelos de lenguaje pueden tomar contenido detrás de muros de pago y resumirlos para el usuario. Se sabe que los modelos de imágenes han reunido imágenes donde las piezas mostraban claramente marcas de agua. También está el tema de las licencias de uso común creativo donde un autor hace su trabajo abierto al público pero debe ser citado cada vez que se usa, lo cual los modelos pueden hacer o no.

Para los profesores, esto plantea cuestiones morales, éticas y legales. Si toman contenido generado por modelos, ¿son libres de usarlo y publicarlo como deseen? ¿Quién es responsable si está protegido por derechos de autor o licenciado bajo el uso común creativo9? ¿Cómo sabe el usuario siquiera que está usando la propiedad de otras personas1? Desafortunadamente, no hay pautas claras sobre el tema. Tenemos que esperar y observar y proceder con cuidado hasta que se emita una directiva.

Efectos a largo plazo de usar la IAG en la educación: de todas las modalidades en que la IAG podría usarse en la educación, no está claro cuáles serían los efectos a largo plazo de tal uso:

  • Ya que el acto de escribir también estructura el pensamiento, ¿cómo afectaría escribir a los esquemas de la IAG a los estudiantes1?
  • ¿Afectaría el alcance del pensamiento, el pensamiento crítico, la creatividad y las habilidades para resolver problemas1?
  • ¿Hará que los estudiantes dependan demasiado de ella debido a la facilidad con la que se podría acceder a la información y soluciones1,10,9?
  • ¿Los estudiantes seguirían motivados para investigar el mundo y llegar a sus propias conclusiones10?
  • ¿Nos sumergiría en una visión del mundo desconectada de la realidad que nos rodea?
  • ¿Cuántas habilidades perderíamos por cada paso hacia la maestría en técnicas de solicitud?

Concentrarse en habilidades de orden superior y dejar el trabajo pesado a la IA puede sonar como una buena idea, pero la práctica repetida de ciertas habilidades fundamentales de orden inferior es indispensable, porque la perseverancia e incluso la frustración que viene con esto a menudo son necesarias para adquirir habilidades de orden superior1,8. Esto también es necesario para disminuir la dependencia de los estudiantes en tecnología para realizar cálculos básicos, ya que estos socavan la agencia humana y su confianza para enfrentar el mundo solos.

Algunas medidas para protegerse contra posibles daños a largo plazo podrían ser:

  • Usar modelos de lenguaje solo como un punto de partida, para generar posibilidades y explorar diferentes perspectivas, en lugar de como una solución única para todas las necesidades10;
  • Verificar la salida de los modelos con experimentos directos o fuentes alternativas;
  • Siempre incluir al profesor en el proceso10;
  • Promover el aprendizaje social y aumentar la exposición a la producción humana creativa1;
  • Buscar activamente otros recursos educativos y actividades fuera de pantalla10;
  • Intentar encontrar otras explicaciones, modos de pensar y enfoques.

Siempre es bueno estar atentos a la tendencia de asignar falsas equivalencias entre humanos y máquinas e incluso conceder superioridad a la IAG. Por ejemplo, a menudo se afirma que los humanos no pueden procesar tanta data como la IA. ¿Es incluso necesario para los humanos el procesamiento de gigabytes y gigabytes de datos, dado nuestras habilidades en identificación de patrones, extrapolación y creatividad? Porque la IA puede analizar el contenido de 100 libros en un momento, ¿sigue necesariamente que un estudiante no disfrutará o se beneficiará de uno de esos libros? ¿Hacer algo más rápido es necesariamente algo bueno y una medida que queremos adoptar8?

Tenemos que tener en cuenta que los niños no son educados  para el mundo y las tecnologías que existen hoy. Se les prepara para, o se les dan las habilidades para un mundo que vendrá en diez a quince años8. El modo en que ChatGPT revolucionó tanto en solo un año justifica la educación más allá de ChatGPT en lugar de educación para ChatGPT. Los estudiantes deben ser capaces de pensar por sí mismos, ser resilientes, adaptarse a los cambios y crecer con los nuevos retos que les plantea la vida.

El objetivo último de la educación no puede ser formar operadores eficientes de máquinas inteligentes u hormigas obreras para la cadena de producción, sino ayudar a formar ciudadanos librepensadores, creativos, resilientes y completos. Antes de decidir cuál es la mejor manera de adoptar una tecnología para alcanzar este objetivo, hay que reflexionar sobre cuestiones cruciales y analizar sus efectos a largo plazo. Esta importante tarea no puede delegarse a la IAG, no.


  1. Holmes, W., & Miao, F. (2023). Guidance for generative AI in education and research. UNESCO. https://unesdoc.unesco.org/ark:/48223/pf0000386946

  2. Tlili, A., Shehata, B., Adarkwah, M. A., Bozkurt, A., Hickey, D. T., Huang, R., & Agyemang, B. (2023). What if the devil is my guardian angel: ChatGPT as a case study of using chatbots in education. Smart Learning Environments, 10, Article 15. https://doi.org/10.1186/s40561-023-00237-x

  3. Lewkowycz, A., Andreassen, A., Dohan, D., et al. (2022). Solving quantitative reasoning problems with language models. Google Research. https://arxiv.org/abs/2206.14858

  4. Cooper, G. (2023). Examining science education in ChatGPT: An exploratory study of generative artificial intelligence. Journal of Science Education and Technology, 32, 444–452. https://doi.org/10.1007/s10956-023-10017-8

  5. Trust, T., Whalen, J., & Mouza, C. (2023). Editorial: ChatGPT: Challenges, opportunities, and implications for teacher education. Contemporary Issues in Technology and Teacher Education, 23(1). https://citejournal.org/volume-23/issue-1-23/editorial/chatgpt-challenges-opportunities-and-implications-for-teacher-education/

  6. Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the dangers of stochastic parrots: Can language models be too big? In Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (FAccT ’21) (pp. 610–623). Association for Computing Machinery. https://doi.org/10.1145/3442188.3445922

  7. Chomsky, N., Roberts, I., & Watumull, J. (2023, March 8). Noam Chomsky: The false promise of ChatGPT. The New York Times. https://www.nytimes.com/2023/03/08/opinion/noam-chomsky-chatgpt-ai.html

  8. Vartiainen, H., & Tedre, M. (2023). Using artificial intelligence in craft education: Crafting with text-to-image generative models. Digital Creativity, 34(1), 1–21. https://doi.org/10.1080/14626268.2023.2182158

  9. Becker, B., Aiken, B., Bruner, C., & Turner, L. (2023). Programming is hard – or at least it used to be: Educational opportunities and challenges of AI code generation. In Proceedings of the 54th ACM Technical Symposium on Computer Science Education (SIGCSE 2023) (Vol. 1, pp. 500–506). Association for Computing Machinery. https://doi.org/10.1145/3545945.3569840

  10. Kika, E., Seßler, K., Schmid, U., et al. (2023). ChatGPT for good? On opportunities and challenges of large language models for education. EdArXiv. https://osf.io/preprints/edarxiv/5er8f/

Licencia

Icono de Licencia Creative Commons Atribución 4.0 Internacional

IA para Profesores: un libro de texto abierto Copyright © 2025 por Colin de la Higuera y Jotsna Iyer se distribuye bajo una Licencia Creative Commons Atribución 4.0 Internacional, excepto cuando se especifiquen otros términos.

Comparte este libro

IA para Profesores: un libro de texto abierto
Resumen de privacidad

Esta web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuario posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestra web o ayudar a nuestro equipo a comprender qué secciones de la web encuentras más interesantes y útiles.