31 IA, AIED y la agencia humana
Wayne Holmes
La IA ha sido frecuentemente acusada de amenazar la agencia humana (por ejemplo, vea el resumen de 979 opiniones de «expertos» reportadas en Inteligencia artificial y el futuro de los humanos1). Esto es particularmente el caso de la aplicación de IA en educación (IAED), incluida mi propia investigación. Por ejemplo, en un informe para el Consejo de Europa, escribimos que el enfoque adoptado por casi todas las herramientas de IAED «prioriza recordar sobre pensar, y conocer hechos sobre el compromiso crítico, socavando así la agencia del aprendiz y el aprendizaje robusto»2. Sin embargo, aunque tales afirmaciones son fáciles de hacer, y yo sostengo esta, raramente son adecuadamente desglosadas. En consecuencia, esa es la intención de esta breve exposición: explorar qué se entiende exactamente por ‘agencia humana’, y considerar el impacto tanto de la IA como de la IAED.
Hablando en términos generales, la agencia humana es la capacidad de los individuos para actuar de manera independiente, tomando decisiones entre diferentes opciones basadas en sus propias creencias, valores y objetivos. En otras palabras, es la habilidad de los humanos para tomar decisiones e iniciar y llevar a cabo acciones que influyen en sus vidas y en el mundo que les rodea. Puede involucrar múltiples dimensiones. Estas incluyen la intencionalidad (actuar conscientemente con un objetivo o meta específica en mente), autonomía (independencia, autodeterminación y la libertad para tomar decisiones y elecciones que reflejen las propias preferencias, valores y objetivos), adaptabilidad (la capacidad para aprender, modificar el comportamiento propio y tener éxito en respuesta a circunstancias cambiantes), y responsabilidad (la dimensión ética y moral de la agencia, ser responsable de las consecuencias de las decisiones y acciones propias).
La agencia humana es crucial para el crecimiento personal y una vida exitosa. Empodera a los individuos para dar forma a sus propias vidas e influir en el mundo que les rodea. Fomenta un sentido de control y autoeficacia, y está correlacionada con niveles más altos de bienestar psicológico. Cuando los individuos sienten que tienen control sobre sus vidas y pueden hacer elecciones significativas, en otras palabras, cuando sienten que tienen una agencia genuina, es más probable que experimenten satisfacción y cumplimiento. Como uno de los principales investigadores de la agencia humana explica: «A menos que las personas crean que pueden producir efectos deseados por sus acciones, tienen poco incentivo para actuar o para perseverar frente a las dificultades.»3.
En contextos educativos, la agencia humana se refiere a la capacidad de estudiantes y profesores para tomar decisiones, actuar de manera autónoma y tomar control de la enseñanza y el aprendizaje dentro de los entornos de aula. El énfasis está en el papel de los individuos en dar forma a los viajes educativos, tomando decisiones sobre qué, cómo y por qué se aprende algo. La agencia humana en contextos educativos involucra múltiples consideraciones. Por ejemplo, la agencia del estudiante puede ser mejorada cuando no son tratados como receptores pasivos del conocimiento sino como participantes activos en el proceso de aprendizaje, y tienen la autonomía para explorar temas de interés, hacer preguntas, identificar y establecer sus propios objetivos académicos, y tomar posesión de su aprendizaje. Mejorar la agencia del estudiante también implica promover habilidades de resolución de problemas y pensamiento crítico (centradas en problemas del mundo real) junto con habilidades de autorregulación (como gestionar el tiempo, establecer prioridades y monitorear el progreso), Todo esto es valioso para el desarrollo de individuos independientes y autodirigidos y para el éxito académico y de por vida. Finalmente, mientras que los profesores juegan un papel central en apoyar y mejorar la agencia del estudiante, la agencia humana en contextos educativos también incluye la agencia de los propios profesores, reconociendo su experiencia en la materia, pedagogía y profesionalismo, permitiéndoles tomar decisiones sobre cómo conducir mejor su enseñanza y apoyar a sus estudiantes.
La siguiente pregunta es, ¿cuál es el impacto de la IA en la agencia humana? Inevitablemente, cada impacto potencial tiene tanto un giro positivo como negativo. Por ejemplo, algunas tecnologías habilitadas para IA pueden realizar tareas repetitivas, posiblemente liberando a las personas para concentrarse en los aspectos más creativos de su trabajo, tal vez permitiéndoles decidir cómo asignar mejor su propio tiempo y esfuerzo, mejorando así su agencia. Por otro lado, usar tecnologías habilitadas para IA para realizar tareas comunes puede llevar a la pérdida de habilidades o experiencia humanas. Con el tiempo, a medida que se vuelvan cada vez más dependientes de la IA, esto podría en cambio reducir las opciones disponibles para los individuos y así debilitar su agencia. De manera similar, a menudo se argumenta que las tecnologías habilitadas para IA pueden personalizar las interacciones de los usuarios con varios servicios (como plataformas de video en línea y de compras), proporcionando sugerencias adaptadas a sus preferencias, lo que fortalece su sentido de agencia. Sin embargo, visto con un ojo más crítico, la personalización proporcionada por tales servicios suele estar más adaptada a las necesidades del proveedor y sus anunciantes que al usuario. Esto significa que el sentido de agencia del individuo enmascara la realidad, que es una reducción en la agencia individual, ya que el usuario es impulsado en direcciones particulares. Además, los análisis de datos habilitados para IA pueden proporcionar acceso a percepciones valiosas que de otro modo no estarían fácilmente disponibles, mejorando así la toma de decisiones humana y la agencia. Sin embargo, es bien sabido que los sistemas de IA heredan y perpetúan los sesgos presentes en sus datos de entrenamiento. Esto puede llevar a resultados injustos y discriminatorios, que inevitablemente socavan la agencia humana al limitar las oportunidades. Las tecnologías habilitadas para IA, o al menos la forma en que se emplean en la práctica, pueden tener otros impactos negativos en la agencia humana. Por ejemplo, el uso generalizado de IA para monitoreo (o vigilancia) y toma de decisiones controlada por IA, plantea importantes preocupaciones sobre la privacidad, limita las opciones de acción y puede llevar a un sentimiento de impotencia o dependencia de la tecnología, todo lo cual puede socavar la agencia individual.
La siguiente pregunta es, ¿cuál es el impacto de la IAED en la agencia de estudiantes y profesores? Las posibilidades son muchas. Primero, si los estudiantes interactúan frecuentemente con tecnologías habilitadas para IA, podrían fácilmente volverse demasiado dependientes de las recomendaciones de contenido, la retroalimentación instantánea o las «soluciones» que se proporcionan. En consecuencia, podrían perder oportunidades para desarrollar el pensamiento crítico, la resolución de problemas independiente, la auto-reflexión, la autorregulación y las habilidades metacognitivas, todo lo cual potencialmente reduce la agencia de los estudiantes para realizar los beneficios completos de su propio aprendizaje. Segundo, la mayoría de los sistemas de IAED proporcionan caminos de aprendizaje altamente prescriptivos, dejando poco espacio para que los estudiantes exploren sus propios intereses. Esto puede limitar la agencia de los estudiantes al dictar qué, cuándo y cómo aprenden, y también puede reducir su exposición a perspectivas diversas y áreas de investigación novedosas. Tercero, los sistemas de IAED típicamente rastrean el comportamiento del estudiante, llevando a un sentimiento de vigilancia y autonomía restringida, así como abriendo la posibilidad de socavar la privacidad del estudiante, causando que los estudiantes se vuelvan cautelosos al expresarse libremente. Cuarto, las recomendaciones impulsadas por IA pueden inadvertidamente estrechar las aspiraciones de los estudiantes, limitando su agencia para alcanzar objetivos auto-determinados. Quinto, las tecnologías habilitadas para IA utilizadas para la evaluación implican un énfasis excesivo en las pruebas estandarizadas (y por lo tanto, inevitablemente, enseñanza para la prueba). Además, ningún sistema habilitado para IA es capaz de entender o capturar las sutilezas en el trabajo de un estudiante, reduciendo así la agencia del estudiante en el proceso de evaluación y posiblemente desalentando el pensamiento creativo o no convencional.
Finalmente, con respecto a los profesores, el uso de tecnologías habilitadas para IA en las aulas inevitablemente afecta las elecciones curriculares, el contenido de aprendizaje y los enfoques pedagógicos. Esto puede disminuir el papel de los profesores y llevarlos a sentir que su juicio profesional es subestimado o anulado por la tecnología. En cualquier caso, las herramientas de IAED pueden potencialmente deshabilitar a los profesores, convirtiéndolos en facilitadores de tecnología y monitores de comportamiento. Esto malinterpreta radicalmente lo que hacen los buenos profesores. También podría socavar la agencia de los profesores en construir relaciones significativas con sus estudiantes, que son cruciales para una educación efectiva. Finalmente, la dependencia en métricas generadas por IA (a veces debido a directivas de arriba hacia abajo) puede crear presión sobre los profesores para conformarse a procesos de toma de decisiones basados en datos, lo que podría llevar a menos énfasis en el desarrollo holístico del estudiante.
La pregunta final aquí es, ¿qué se necesita hacer para asegurar la agencia de estudiantes y profesores, a medida que las poderosas tecnologías habilitadas para IA se vuelven cada vez más disponibles en las aulas. En resumen, a los profesores se les deben ofrecer oportunidades que respeten su agencia, permitiéndoles tomar decisiones que se alineen con su experiencia profesional y las necesidades específicas de sus estudiantes. Mientras tanto, los estudiantes necesitan oportunidades para desarrollar su pensamiento crítico, habilidades de autorregulación, metacognitivas, y para desarrollar su intencionalidad, su autonomía, su adaptabilidad y su responsabilidad; ya sea con o sin el uso de tecnologías habilitadas para IA apropiadas, efectivas y seguras.
.
1 Anderson, J., Rainie, L., & Luchsinger, A. (2018, December 10). Artificial intelligence and the future of humans. Pew Research Center. https://www.pewresearch.org/internet/2018/12/10/artificial-intelligence-and-the-future-of-humans/
2 Council of Europe. (2022). Artificial intelligence and education: A critical view through the lens of human rights, democracy and the rule of law. Council of Europe. https://book.coe.int/education-policy/artificial-intelligence-and-education-a-critical-view-through-the-lens-of-human-rights-democracy-and-the-rule-of-law.html
3 Bandura, A. (2018). Toward a psychology of human agency: Pathways and reflections. Perspectives on Psychological Science, 13(2), 130–136. https://doi.org/10.1177/1745691617699280