18

Über unsere Smartphones und Computer werden kontinuierlich Daten über uns aufgezeichnet. Diese Daten basieren darauf, wer sie aufzeichnet und wer sie ansieht.  Um nur ein Beispiel zu nennen: Google erstellt eine digitale Version von uns, unsere digitale Identität, auf Grundlage dessen, was wir auf seinen Plattformen tun. Auf der Grundlage dieser Daten ordnet es uns ein und passt das, was wir in seinen Suchmaschinen und Apps sehen, entsprechend an. Es vermarktet uns an Unternehmen, die sich selbst an uns vermarkten wollen.

Aktivität

Rufen Sie die „Anzeigeneinstellungen” Ihres Profils bei Google, Facebook oder Instagram auf. Oder wenn Sie regelmäßig eine andere Plattform nutzen, versuchen Sie herauszufinden, ob es dort Anzeigeneinstellungen gibt und ob Sie darauf zugreifen können. Diese sind Bestandteil unserer digitalen Identität. Diskussionsfragen:

  • Wie sieht Ihre „digitale Identität“ aus? Entspricht sie Ihren demografischen Merkmalen und Interessen? Sind Sie mit dieser Identität einverstanden?
  • Wie hat Google Ihrer Meinung nach die einzelnen Interessen gewichtet? Welche Daten könnten dabei berücksichtigt worden sein? Die Interessenskategorien ändern sich häufig und sind rekursiv: Ein Anzeigeninteresse, dem Sie zugeordnet sind, kann bestimmen, welchem Anzeigeninteresse Sie als nächstes zugeordnet werden. Was sagt uns das über die Profilerstellung?
  • Stimmen Sie mit Wissenschaftlern wie Cheney-Lippold und Bassett darin überein, dass hier die Identität übermäßig reduziert wird? Warum ist das ein ethisches Problem?
  • Ist es aus ethischer Sicht wichtiger, ob diese Profile Ihre Interessen „richtig” oder „falsch” wiedergeben?
  • Spielt Ihr Geschlecht und Ihre ethnische Herkunft eine Rolle dabei, welche Label Ihnen verliehen werden? Wie fühlen Sie sich dabei?

Diese Aktivität wurde übernommen von Identity, Advertising, and Algorithmic Targeting: Or How (Not) to Target Your “Ideal User.”, lizensiert unter CC BY NC 4.0. 1

Die Label, die Google uns gibt – männlich, weiblich, jung oder alt – haben nichts mit unseren Identitäten, Bedürfnissen oder Werten zu tun. Jemand kann “männlich” sein, indem er bestimmte Websites (z. B. Baumärkte) besucht und bestimmte Artikel kauft2. Schon am nächsten Tag kann ein Mann “weiblich” werden, wenn sich seine Aktivitäten oder die Aktivitäten von einer Million anderer Menschen, die zu seinem männlichen Verhalten beigetragen haben, ändern. Verschiedene Unternehmen weisen uns völlig unterschiedliche Identitäten zu, je nachdem, an was sie selbst Interesse haben.

Dasselbe geschieht mit unseren Schülerinnen und Schülern, wenn sie mit personalisierter Lernsoftware interagieren und einer Lernanalyse unterzogen werden. Ihre digitale Identität, ihre Leistung, ihr Engagement und ihre Zufriedenheit, wie sie von diesen Systemen gesehen werden, werden dann nicht nur zur Bewertung ihrer eigenen Leistung, sondern auch zur Bewertung der Leistung ihrer Mitschülerinnen und Mitschüler, Lehrkräfte, Schulen und des Bildungssystems selbst genutzt3.

Warum stellt dies ein Problem dar?

  1. Diese Profile werden oft auf der Grundlage verrauschter und falscher Daten aus verschiedenen Quellen erstellt und können irreführend sein4.
  2. Diese digitalen Identitäten können verändern, wie eine Schülerin oder ein Schüler sich selbst und andere sieht, wie Lehrkräfte die Lernenden sehen, wie das System Lehrkräfte sieht, wie die Gesellschaft Bildung und Pädagogik sieht und wie jeder auf Entscheidungen und Feedback reagiert3.
  3. Dennoch werden diese Urteile darüber, wer jemand ist, ohne sein Wissen und seine Zustimmung gefällt – durch Black Boxes, zu denen niemand Zugang hat. Oft gibt es keinerlei Kontrolle darüber, welche Daten erfasst, wo und wann sie aufgezeichnet und wie Entscheidungen auf dieser Grundlage getroffen werden4,1. Lernende und Lehrkräfte verlieren die Möglichkeit der Einflussnahme und ihre menschliche Handlungsfähigkeit.
  4. Diese Daten und Urteile bleiben in der Regel noch lange nach dem Ereignis, das aufgezeichnet wurde, im Datenspeicher erhalten4.
  5. Die Betonung von Statistiken, bei denen Lernende, Lehrende und Personal ständig bewertet, verglichen und eingestuft werden, kann Reaktionen wie Angst und Konkurrenzdenken anstelle von Motivation und Wachstum hervorrufen3.
  6. Aspekte der Bildung, die automatisch erfasst und analysiert werden können, erhalten mehr Bedeutung und drängen uns zu Ergebnissen und Praktiken, die sich von dem unterscheiden, was uns ansonsten wichtig wäre.
  7. Die Organisationen, die die „Datafizierung” vornehmen, haben die Macht zu definieren, „was als qualitativ hochwertige Bildung, wer als guter Schüler oder effektiver Lehrender‚ gilt3.“

Hier sind die Gegenmaßnahmen, die Expertinnen und Experten den Lehrenden empfehlen:

  1. Berücksichtigen Sie den Menschen, seine Identität, Integrität und Würde: „Begegnen Sie Menschen mit Respekt vor ihrem inneren Wert und nicht als Datenobjekt oder als Mittel zum Zweck”5. Menschen sind nicht nur Daten; das Etikett, das eine Software den Lernender geben könnte, um Lernwege zu personalisieren oder sie in Gruppen einzuteilen, stellt nicht ihre wahre Identität dar5.
  2. Werden sie datenkompetent: Lernen Sie, wie man richtig mit Daten umgeht.Informieren Sie sich darüber, was die verschiedenen datengestützten Systeme leisten, wie sie arbeiten, wie sie zu verwenden sind und wie die Informationen, die sie generieren, und die Entscheidungen, die sie treffen, zu interpretieren sind.
  3. Bewahren Sie kritische Distanz zu KI-Unternehmen und -Software: Hinterfragen Sie ihre Behauptungen, verlangen Sie Beweise für ihre Gültigkeit und Zuverlässigkeit, überprüfen Sie, ob das System den ethischen Richtlinien Ihrer Institution und Ihres Landes entspricht3.
  4. Überwachen Sie die Auswirkungen dieser Systeme auf Sie, Ihre Schülerinnen und Schüler, deren Lernen und die Atmosphäre im Klassenzimmer.
  5. Fordern Sie offene Systeme, die Ihnen die Kontrolle und die Möglichkeit geben, automatische Entscheidungen zu überstimmen. Greifen Sie ein, klären Sie auf oder setzen Sie sie außer Kraft, wo und wann immer Sie es für nötig halten.

Kant, T., Identity, Advertising, and Algorithmic Targeting: Or How (Not) to Target Your “Ideal User”. MIT Case Studies in Social and Ethical Responsibilities of Computing, 2021

Cheney-Lippold, J., We Are Data: Algorithms and the Making of Our Digital Selves, NYU Press, 2017

Williamson, B., Bayne, S., Shay, S., The datafication of teaching in Higher Education: critical issues and perspectives, Teaching in Higher Education, 25:4, 351-365, 2020

4 Kelleher, J.D, Tierney, B, Data Science, MIT Press, London, 2018.

5 Ethical guidelines on the use of artificial intelligence and data in teaching and learning for educators, European Commission, October 2022

License

Icon for the Creative Commons Attribution 4.0 International License

KI für Lehrkräfte : ein offenes Lehrbuch Copyright © 2024 by Colin de la Higuera und Jotsna Iyer is licensed under a Creative Commons Attribution 4.0 International License, except where otherwise noted.

Share This Book