18 Problemas con los datos: identidad personal

Los datos sobre nosotros se registran constantemente a través de nuestros teléfonos y computadoras. Estos datos se interpretan en función de quién los registra y quién los mira. Para dar solo un ejemplo, Google crea su versión digital de nosotros, la identidad digital, basada en lo que hacemos en sus plataformas. Procede a etiquetarnos basándose en estos datos y luego reorganiza lo que vemos en sus motores de búsqueda y aplicaciones en consecuencia. Nos comercializa a empresas que podrían querer comercialízanos.

Actividad

Accede a tu perfil de «Configuración de anuncios» en Google, Facebook o Instagram. Si usas regularmente otra plataforma, intenta averiguar si tienen configuraciones de anuncios y si puedes acceder a ellas. Estas son parte de nuestra identidad digital.

Preguntas para discusión:

  • ¿Cómo luce tu «identidad digital»? ¿Refleja tus demografías e intereses? ¿Estás de acuerdo con esta identidad?
  • ¿Cómo crees que Google decidió cada uno de estos intereses? ¿Qué datos podrían haberse tenido en cuenta? Estas categorías de interés cambian frecuentemente y son recursivas: un interés publicitario con el que estás asociado puede determinar con qué interés publicitario serás categorizado a continuación. ¿Qué nos puede decir esto sobre el perfilado?
  • ¿Estás de acuerdo con académicos como Cheney-Lippold y Bassett en que aquí hay una sobre-reducción de la identidad? ¿Por qué esto es una preocupación ética?
  • Éticamente, ¿importa más si estos perfiles aciertan o fallan en tus intereses?
  • ¿Tu género y raza juegan un papel en cómo te etiquetan? ¿Cómo te hace sentir eso?

Esta actividad ha sido adaptada de Identidad, Publicidad y Segmentación Algorítmica: O Cómo (No) Dirigirse a tu «Usuario Ideal».«,  licenciado bajo CC BY NC 4.0. 1

Las etiquetas que Google nos da -masculino, femenino, joven o anciano, no tienen nada que ver con nuestras identidades, necesidades o valores. Alguien puede ser masculino si mira ciertos sitios web (digamos, tiendas de hardware) y compra ciertos artículos2. Mañana, un masculino puede convertirse en femenino si su actividad o las actividades de un millón de otros humanos que contribuyeron a lo que es comportamiento masculino cambian. Diferentes empresas nos dan identidades completamente diferentes basadas en lo que les interesa.

Lo mismo le hace a nuestros estudiantes cuando interactúan con software de aprendizaje personalizado y están sujetos a análisis de aprendizaje. Su identidad digital, su rendimiento, compromiso y satisfacción, según lo ven estos sistemas, se utiliza entonces para evaluar no solo su rendimiento sino también el rendimiento de sus compañeros, profesores, instituciones educativas y el sistema educativo en sí3.

 

¿Por qué es esto un problema?

  1. Estos perfiles a menudo se componen en base a datos ruidosos e incorrectos de varias fuentes y pueden ser muy engañosos4;
  2. Estas identidades digitales pueden cambiar cómo un estudiante se ve a sí mismo y a los demás, cómo los profesores ven a cada estudiante, cómo el sistema ve a cada profesor, cómo la sociedad ve la educación y la pedagogía, y cómo todos reaccionan a decisiones y retroalimentación3;
  3. Sin embargo, estos juicios sobre quién es alguien se hacen sin su conocimiento y consentimiento -por cajas negras a las que nadie tiene acceso. A menudo, no hay control sobre qué datos se registran, dónde y cuándo se registran y cómo se toman decisiones basadas en ellos4,1.  Los estudiantes y profesores pierden su poder expresivo y agencia humana;
  4. Estos datos y juicios tienden a persistir como datos almacenados mucho tiempo después de que tuvo lugar el evento registrado4;
  5. El énfasis en métricas, donde los estudiantes, profesores y personal son constantemente evaluados, comparados y clasificados, puede inducir reacciones como ansiedad y competencia en lugar de motivación y crecimiento3.
  6. Aspectos de la educación que pueden ser capturados y analizados automáticamente se les da más importancia; nos empujan hacia resultados y prácticas que son diferentes de lo que de otro modo nos preocuparía.
  7. Las organizaciones que hacen la «dataficación» tienen el poder de definir «qué ‘cuenta’ como educación de calidad, un buen estudiante o un profesor efectivo3

Aquí están las contramedidas que los expertos sugieren que tomen los profesores:

  1. Considerar a las personas, su identidad, integridad y dignidad. «Acercarse a las personas con respeto de su valor intrínseco y no como un objeto de datos o un medio para un fin»5. Las personas no son solo los datos; que la etiqueta que un software podría dar a los estudiantes para personalizar caminos de aprendizaje o para dividirlos en grupos no es su verdadera identidad5;
  2. Ser alfabetizado en datos. Aprender a manejar datos correctamente. Aprender qué hacen los diferentes sistemas basados en datos, cómo lo hacen, cuál es su uso recomendado y cómo interpretar la información que generan y las decisiones que toman;
  3. Mantener una distancia crítica de las compañías y software de AIED. Cuestionar sus afirmaciones, pedir evidencias de su validez y fiabilidad, verificar que el sistema sigue las pautas éticas de tu institución y país3;
  4. Monitorear los efectos que estos sistemas tienen en ti, tus estudiantes, su aprendizaje y el ambiente del aula.
  5. Llamar a sistemas abiertos que te den control y el poder de anular decisiones automatizadas. Intervenir, aclarar o anular dónde y cuándo sientas la necesidad.

1 Kant, T. (2021). Identity, advertising, and algorithmic targeting: Or how (not) to target your “ideal user.” MIT Case Studies in Social and Ethical Responsibilities of Computing. MIT SERC. Recuperado de https://pubpub.mit‑serc.org/pub/identity-advertising-and-algorithmic-targeting

2 Cheney‑Lippold, J. (2017). We are data: Algorithms and the making of our digital selves. NYU Press. https://doi.org/10.1177/0267323118824876c

3 Williamson, B., Bayne, S., & Shay, S. (2020). The datafication of teaching in Higher Education: Critical issues and perspectives. Teaching in Higher Education, 25(4), 351–365. https://doi.org/10.1080/13562517.2020.1748811

4 Kelleher, J. D., & Tierney, B. (2018). Data science. MIT Press. https://mitpress.mit.edu/9780262535434/data-science/

5 European Commission. (2022, October). Ethical guidelines on the use of artificial intelligence and data in teaching and learning for educators. Publications Office of the European Union. https://education.ec.europa.eu/document/ethical-guidelines-on-the-use-of-ai-and-data-in-teaching-and-learning-for-educators

Licencia

Icono de Licencia Creative Commons Atribución 4.0 Internacional

IA para Profesores: un libro de texto abierto Copyright © 2025 por Colin de la Higuera y Jotsna Iyer se distribuye bajo una Licencia Creative Commons Atribución 4.0 Internacional, excepto cuando se especifiquen otros términos.

Comparte este libro

IA para Profesores: un libro de texto abierto
Resumen de privacidad

Esta web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuario posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestra web o ayudar a nuestro equipo a comprender qué secciones de la web encuentras más interesantes y útiles.