18 Problemas con los datos: identidad personal
Los datos sobre nosotros se registran constantemente a través de nuestros teléfonos y computadoras. Estos datos se interpretan en función de quién los registra y quién los mira. Para dar solo un ejemplo, Google crea su versión digital de nosotros, la identidad digital, basada en lo que hacemos en sus plataformas. Procede a etiquetarnos basándose en estos datos y luego reorganiza lo que vemos en sus motores de búsqueda y aplicaciones en consecuencia. Nos comercializa a empresas que podrían querer comercialízanos.
Actividad
Accede a tu perfil de «Configuración de anuncios» en Google, Facebook o Instagram. Si usas regularmente otra plataforma, intenta averiguar si tienen configuraciones de anuncios y si puedes acceder a ellas. Estas son parte de nuestra identidad digital.
Preguntas para discusión:
- ¿Cómo luce tu «identidad digital»? ¿Refleja tus demografías e intereses? ¿Estás de acuerdo con esta identidad?
- ¿Cómo crees que Google decidió cada uno de estos intereses? ¿Qué datos podrían haberse tenido en cuenta? Estas categorías de interés cambian frecuentemente y son recursivas: un interés publicitario con el que estás asociado puede determinar con qué interés publicitario serás categorizado a continuación. ¿Qué nos puede decir esto sobre el perfilado?
- ¿Estás de acuerdo con académicos como Cheney-Lippold y Bassett en que aquí hay una sobre-reducción de la identidad? ¿Por qué esto es una preocupación ética?
- Éticamente, ¿importa más si estos perfiles aciertan o fallan en tus intereses?
- ¿Tu género y raza juegan un papel en cómo te etiquetan? ¿Cómo te hace sentir eso?
Esta actividad ha sido adaptada de Identidad, Publicidad y Segmentación Algorítmica: O Cómo (No) Dirigirse a tu «Usuario Ideal».«, licenciado bajo CC BY NC 4.0. 1
Las etiquetas que Google nos da -masculino, femenino, joven o anciano, no tienen nada que ver con nuestras identidades, necesidades o valores. Alguien puede ser masculino si mira ciertos sitios web (digamos, tiendas de hardware) y compra ciertos artículos2. Mañana, un masculino puede convertirse en femenino si su actividad o las actividades de un millón de otros humanos que contribuyeron a lo que es comportamiento masculino cambian. Diferentes empresas nos dan identidades completamente diferentes basadas en lo que les interesa.
Lo mismo le hace a nuestros estudiantes cuando interactúan con software de aprendizaje personalizado y están sujetos a análisis de aprendizaje. Su identidad digital, su rendimiento, compromiso y satisfacción, según lo ven estos sistemas, se utiliza entonces para evaluar no solo su rendimiento sino también el rendimiento de sus compañeros, profesores, instituciones educativas y el sistema educativo en sí3.
¿Por qué es esto un problema?
- Estos perfiles a menudo se componen en base a datos ruidosos e incorrectos de varias fuentes y pueden ser muy engañosos4;
- Estas identidades digitales pueden cambiar cómo un estudiante se ve a sí mismo y a los demás, cómo los profesores ven a cada estudiante, cómo el sistema ve a cada profesor, cómo la sociedad ve la educación y la pedagogía, y cómo todos reaccionan a decisiones y retroalimentación3;
- Sin embargo, estos juicios sobre quién es alguien se hacen sin su conocimiento y consentimiento -por cajas negras a las que nadie tiene acceso. A menudo, no hay control sobre qué datos se registran, dónde y cuándo se registran y cómo se toman decisiones basadas en ellos4,1. Los estudiantes y profesores pierden su poder expresivo y agencia humana;
- Estos datos y juicios tienden a persistir como datos almacenados mucho tiempo después de que tuvo lugar el evento registrado4;
- El énfasis en métricas, donde los estudiantes, profesores y personal son constantemente evaluados, comparados y clasificados, puede inducir reacciones como ansiedad y competencia en lugar de motivación y crecimiento3.
- Aspectos de la educación que pueden ser capturados y analizados automáticamente se les da más importancia; nos empujan hacia resultados y prácticas que son diferentes de lo que de otro modo nos preocuparía.
- Las organizaciones que hacen la «dataficación» tienen el poder de definir «qué ‘cuenta’ como educación de calidad, un buen estudiante o un profesor efectivo3.»
Aquí están las contramedidas que los expertos sugieren que tomen los profesores:
- Considerar a las personas, su identidad, integridad y dignidad. «Acercarse a las personas con respeto de su valor intrínseco y no como un objeto de datos o un medio para un fin»5. Las personas no son solo los datos; que la etiqueta que un software podría dar a los estudiantes para personalizar caminos de aprendizaje o para dividirlos en grupos no es su verdadera identidad5;
- Ser alfabetizado en datos. Aprender a manejar datos correctamente. Aprender qué hacen los diferentes sistemas basados en datos, cómo lo hacen, cuál es su uso recomendado y cómo interpretar la información que generan y las decisiones que toman;
- Mantener una distancia crítica de las compañías y software de AIED. Cuestionar sus afirmaciones, pedir evidencias de su validez y fiabilidad, verificar que el sistema sigue las pautas éticas de tu institución y país3;
- Monitorear los efectos que estos sistemas tienen en ti, tus estudiantes, su aprendizaje y el ambiente del aula.
- Llamar a sistemas abiertos que te den control y el poder de anular decisiones automatizadas. Intervenir, aclarar o anular dónde y cuándo sientas la necesidad.
1 Kant, T. (2021). Identity, advertising, and algorithmic targeting: Or how (not) to target your “ideal user.” MIT Case Studies in Social and Ethical Responsibilities of Computing. MIT SERC. Recuperado de https://pubpub.mit‑serc.org/pub/identity-advertising-and-algorithmic-targeting
2 Cheney‑Lippold, J. (2017). We are data: Algorithms and the making of our digital selves. NYU Press. https://doi.org/10.1177/0267323118824876c
3 Williamson, B., Bayne, S., & Shay, S. (2020). The datafication of teaching in Higher Education: Critical issues and perspectives. Teaching in Higher Education, 25(4), 351–365. https://doi.org/10.1080/13562517.2020.1748811
4 Kelleher, J. D., & Tierney, B. (2018). Data science. MIT Press. https://mitpress.mit.edu/9780262535434/data-science/
5 European Commission. (2022, October). Ethical guidelines on the use of artificial intelligence and data in teaching and learning for educators. Publications Office of the European Union. https://education.ec.europa.eu/document/ethical-guidelines-on-the-use-of-ai-and-data-in-teaching-and-learning-for-educators