{"id":111,"date":"2023-11-30T17:00:01","date_gmt":"2023-11-30T17:00:01","guid":{"rendered":"https:\/\/aiopentext.itd.cnr.it\/aifurlehrer\/chapter\/issues-with-data-bias-and-fairness\/"},"modified":"2024-01-31T11:43:19","modified_gmt":"2024-01-31T11:43:19","slug":"issues-with-data-bias-and-fairness","status":"publish","type":"chapter","link":"https:\/\/aiopentext.itd.cnr.it\/aifurlehrer\/chapter\/issues-with-data-bias-and-fairness\/","title":{"raw":"Probleme mit Daten: Vorurteile und Fairness","rendered":"Probleme mit Daten: Vorurteile und Fairness"},"content":{"raw":"<p class=\"no-indent\" style=\"text-align: left\">Bei Vorurteilen handelt es sich um Voreingenommenheiten gegen\u00fcber einer Identit\u00e4t. Egal ob gut oder schlecht, absichtlich oder unabsichtlich1. Fairness ist das Gegengewicht zu diesen Vorurteilen - und mehr als das: Sie ist dann gegeben, wenn jeder Mensch unabh\u00e4ngig von seiner Identit\u00e4t und seiner Situation fair behandelt wird. Es m\u00fcssen klare Verfahren festgelegt und befolgt werden, um sicherzustellen, dass jeder gleich behandelt wird und gleichen Zugang zu Chancen hat<sup>1<\/sup>.<\/p>\n<p class=\"indent\">Menschenbasierte Systeme sind oft mit Vorurteilen und Diskriminierung behaftet: Jeder Mensch hat seine eigenen, einzigartigen Meinungen und Vorurteile. Auch sie sind <em>Black Boxes<\/em>, deren Entscheidungen und Meinungen schwer zu verstehen sein k\u00f6nnen. Aber wir haben Strategien entwickelt und Strukturen geschaffen, um auf solche Praktiken zu achten und diese zu hinterfragen.<\/p>\n<p class=\"indent\">Automatisierte Systeme werden manchmal als das Allheilmittel gegen menschliche Subjektivit\u00e4t angepriesen: Algorithmen beruhen auf Zahlen, wie k\u00f6nnen sie da Vorurteile haben? Algorithmen, die unter anderem auf fehlerhaften Daten beruhen, k\u00f6nnen nicht nur bestehende Vorurteile in Bezug auf Geschlecht, ethnische Herkunft, Kultur oder Behinderung aufgreifen und erlernen, sondern sie k\u00f6nnen bestehende Vorurteile sogar noch verst\u00e4rken<sup>1,2,3<\/sup>. Erschwerend kommt hinzu, dass sie selbst dann, wenn sie nicht hinter Firmenmauern eingesperrt sind, nicht zur Erkl\u00e4rung ihres Handelns herangezogen werden k\u00f6nnen, da einige Systeme wie die auf tiefen neuronalen Netzen (<em>Deep Neural Networks<\/em>) basierenden Systeme von Natur aus nicht erkl\u00e4rbar sind.<\/p>\n\n<h3>Beispiele f\u00fcr Vorurteile in KI-Systemen in der Bildung<\/h3>\n<ol>\n \t<li>Wenn Programmierende regelbasierte Systeme programmieren, k\u00f6nnen sie ihre pers\u00f6nlichen Vorurteile und Stereotypen in das System einbringen<sup>1<\/sup>.<\/li>\n \t<li>Ein datengest\u00fctzter Algorithmus kann zu dem Schluss kommen, einem M\u00e4dchen keine MINT-Karriere vorzuschlagen, weil die Zahl der weiblichen Studierenden in den Daten \u00fcber MINT-Absolventen geringer ist. Ist die geringere Anzahl von Mathematikerinnen auf vorhandene Stereotypen und gesellschaftliche Normen zur\u00fcckzuf\u00fchren oder liegt es an einer inh\u00e4renten Eigenschaft des Frauseins? Algorithmen haben keine M\u00f6glichkeit, zwischen diesen beiden Situationen zu unterscheiden. Da die vorhandenen Daten vorhandene Stereotypen widerspiegeln, reproduzieren die Algorithmen, mit denen sie trainiert werden, die bestehenden Ungleichheiten und soziale Dynamik<sup>4<\/sup>. Wenn solche Empfehlungen umgesetzt werden, werden sich au\u00dferdem mehr M\u00e4dchen f\u00fcr Nicht-MINT-F\u00e4cher entscheiden, und die neuen Daten werden dies widerspiegeln - ein Fall von selbsterf\u00fcllender Prophezeiung<sup>3<\/sup>.<\/li>\n \t<li>Sch\u00fclerinnen und Sch\u00fcler aus einer Kultur, die im Trainingsdatensatz unterrepr\u00e4sentiert ist, haben m\u00f6glicherweise unterschiedliche Verhaltensmuster und unterschiedliche Arten, Motivation zu zeigen. Wie w\u00fcrde ein Learning Analytics-System Statistiken f\u00fcr sie berechnen? Wenn die Daten nicht f\u00fcr alle Kategorien von Lernenden repr\u00e4sentativ sind, k\u00f6nnten Systeme, die basierend auf diesen Daten trainiert wurden, die Minderheiten benachteiligen, deren Verhaltenstendenzen nicht dem entsprechen, worauf das Programm optimiert wurde. Wenn wir nicht aufpassen, werden Lernalgorithmen auf der Grundlage der Mehrheitskultur verallgemeinern, was zu einer hohen Fehlerquote bei Minderheitengruppen f\u00fchrt<sup>4,5<\/sup>. Solche Entscheidungen k\u00f6nnten diejenigen entmutigen, die sowohl Diversit\u00e4t, Kreativit\u00e4t und einzigartige Talente einbringen k\u00f6nnten, als auch diejenigen, die andere Erfahrungen, Interessen und Motivationen haben<sup>2<\/sup>.<\/li>\n \t<li>Ein britischer Lernender, der von einer amerikanischen Aufsatzkorrektur-Software beurteilt wird, w\u00fcrde f\u00fcr seine Rechtschreibfehler bestraft werden. Die lokale Sprache, \u00c4nderungen in der Rechtschreibung und im Akzent, die lokale Geografie und Kultur sind f\u00fcr Systeme, die f\u00fcr ein anderes Land und einen anderen Kontext entwickelt und trainiert wurden, immer problematisch.<\/li>\n \t<li>Manche Lehrkr\u00e4fte verbieten Ausdr\u00fccke, die in einer bestimmten Klasse oder Region gebr\u00e4uchlich sind, entweder absichtlich oder aufgrund voreingenommener sozialer Assoziationen. Wenn eine Software f\u00fcr die Bewertung von Aufs\u00e4tzen mit Aufs\u00e4tzen trainiert wird, die von diesen Lehrkr\u00e4ften benotet wurden, wird sie die gleichen Voreingenommenheiten aufweisen.<\/li>\n \t<li>Systeme f\u00fcr maschinelles Lernen ben\u00f6tigen eine Zielvariable und Proxys, f\u00fcr die sie optimiert werden m\u00fcssen. Nehmen wir an, die Pr\u00fcfungsergebnisse in der weiterf\u00fchrenden Schule w\u00fcrden stellvertretend f\u00fcr die akademischen Leistungen herangezogen werden. Die Systeme werden nun ausschlie\u00dflich darauf trainiert, Muster zu verst\u00e4rken, die mit Sch\u00fclerinnen und Sch\u00fclern \u00fcbereinstimmen, die unter dem Stress und in dem eingeschr\u00e4nkten Kontext von Pr\u00fcfungssituationen gute Leistungen erbringen. Diese Systeme werden versuchen, die Testergebnisse und nicht das Gesamtwissen zu verbessern, wenn sie den Lernenden Ressourcen und \u00dcbungsaufgaben empfehlen. Auch wenn dies in vielen heutigen Klassenzimmern der Fall sein mag, erm\u00f6glicht der traditionelle Lehransatz zumindest mehrere Ziele zu verfolgen<sup>4<\/sup>.<\/li>\n \t<li>Adaptive Lernsysteme schlagen den Sch\u00fclerinnen und Sch\u00fclern Ressourcen vor, um einen Mangel an F\u00e4higkeiten oder Wissen zu beheben. Wenn diese Ressourcen gekauft werden m\u00fcssen oder eine Internetverbindung zu Hause erfordern, dann ist das nicht fair gegen\u00fcber den Lernenden, die nicht die Mittel haben, den Empfehlungen zu folgen:<em> \u201eWenn ein Algorithmus einem Sch\u00fcler oder einer Sch\u00fclerin Tipps, n\u00e4chste Ma\u00dfnahmen oder Ressourcen vorschl\u00e4gt, m\u00fcssen wir pr\u00fcfen, ob die Hilfeleistung nicht unfair ist, weil eine Gruppe systematisch keine n\u00fctzliche Hilfe erh\u00e4lt, was diskriminierend ist\"<\/em><sup><em>2<\/em><\/sup><em>.<\/em><\/li>\n \t<li>Das Konzept der Personalisierung des Unterrichts entsprechend dem aktuellen Wissensstand und den Vorlieben des Lernenden k\u00f6nnte an sich schon eine Verzerrung darstellen<sup>1<\/sup>. Halten wir diesen Sch\u00fcler oder diese Sch\u00fclerin nicht auch davon ab, neue Interessen zu entwickeln und Alternativen zu erkunden? W\u00fcrde sie das nicht eindimensional machen und ihre allgemeinen F\u00e4higkeiten und ihr Wissen sowie ihren Zugang zu M\u00f6glichkeiten einschr\u00e4nken?<\/li>\n<\/ol>\n[caption id=\"attachment_110\" align=\"aligncenter\" width=\"1024\"]<img class=\"wp-image-110 size-large\" src=\"http:\/\/aiopentext.itd.cnr.it\/wp-content\/uploads\/sites\/13\/2023\/11\/ch3-page6-bias-scaled-1.jpg\" alt=\"\" width=\"1024\" height=\"724\"> \u201eData and algorithmic bias in the web'\" von jennychamux ist lizenziert unter CC BY 2.0. Informationen zu dieser Lizenz finden Sie unter: <a href=\"https:\/\/creativecommons.org\/licenses\/by\/2.0\/?ref=openverse\">https:\/\/creativecommons.org\/licenses\/by\/2.0\/?ref=openverse<\/a>.[\/caption]\n<h3>Was kann die Lehrkraft tun, um die Auswirkungen von KI-Voreingenommenheit zu verringern?<\/h3>\n<p class=\"no-indent\">Wissenschaftlerinnen und Wissenschaftler schlagen verschiedene M\u00f6glichkeiten zur Verringerung von Vorurteilen vor und analysieren sie. Aber nicht alle Methoden sind einfach umzusetzen. Hinzu kommt, dass es bei Fairness um viel mehr geht, als nur um den Abbau von Vorurteilen.<\/p>\n<p class=\"indent\">Wenn beispielsweise die vorhandenen Daten voller Stereotypen sind, <em>\u201esind wir dann verpflichtet, die Daten zu hinterfragen und unsere Systeme so zu gestalten, dass sie einer bestimmten Vorstellung von gerechtem Verhalten entsprechen, unabh\u00e4ngig davon, ob diese Vorstellung durch die uns derzeit zur Verf\u00fcgung stehenden Daten gest\u00fctzt wird oder nicht?\u201c<\/em><sup>4<\/sup>. Methoden stehen immer in einem Spannungs- und Widerspruchsverh\u00e4ltnis zueinander, und einige Ma\u00dfnahmen, die eine Art von Verzerrung reduzieren, k\u00f6nnen eine andere Verzerrung verursachen!<\/p>\n<p class=\"indent\">Was kann eine Lehrkraft also tun?<\/p>\n\n<ol>\n \t<li>Fragen Sie die Verk\u00e4ufer: Bevor Sie sich f\u00fcr ein KI-System entscheiden, sollten Sie sich erkundigen, mit welchen Datens\u00e4tzen das System trainiert wurde, wo, von wem und f\u00fcr wen das System konzipiert und entwickelt wurde und wie es bewertet wurde.<\/li>\n \t<li>Akzeptieren Sie nicht einfach die Statistiken, die Ihnen pr\u00e4sentiert werden. Eine Gesamtgenauigkeit von z. B. \u201e5 % Fehler\" kann dar\u00fcber hinwegt\u00e4uschen, dass ein Modell f\u00fcr eine Minderheitengruppe erschreckend schlecht abschneidet<sup>4<\/sup>.<\/li>\n \t<li>Sehen Sie sich die Dokumentation an: Welche Ma\u00dfnahmen wurden ergriffen, um Vorurteile zu erkennen und zu bek\u00e4mpfen und Fairness zu gew\u00e4hrleisten<sup>1<\/sup>?<\/li>\n \t<li>Informieren Sie sich \u00fcber die Entwicklerfirma: Handelt es sich ausschlie\u00dflich um Informatik-Expertinnen und -Experten oder waren Bildungsforschende und Lehrkr\u00e4fte an allen Schritten des Prozesses beteiligt? Basiert das System ausschlie\u00dflich auf maschinellem Lernen oder wurden Lerntheorie und -praxis integriert<sup>2<\/sup>?<\/li>\n \t<li>Bevorzugen Sie transparente, offene Lernmodelle, die Ihnen die M\u00f6glichkeit geben, Entscheidungen zu \u00fcberstimmen<sup>2<\/sup>: Viele KI-Modelle f\u00fcr Bildungskontexte haben ein flexibles Design, bei dem Lehrendenen oder sogar Lernenden die Entscheidungen der Maschine \u00fcberwachen, um Erkl\u00e4rungen bitten oder sie komplett ignorieren k\u00f6nnen.<\/li>\n \t<li>Achten Sie auf die Zug\u00e4nglichkeit des Produkts: Ist es f\u00fcr jeden in gleicher Weise zug\u00e4nglich, insbesondere auch f\u00fcr Lernende mit Behinderungen oder besonderen p\u00e4dagogischen Bed\u00fcrfnissen<sup>1<\/sup>?<\/li>\n \t<li>Achten Sie auf die kurz- und langfristigen Auswirkungen des Einsatzes einer Technologie auf Ihre Sch\u00fclerinnen und Sch\u00fclern und den Unterricht und seien Sie bereit, Hilfe anzubieten, wenn dies notwendig ist.<\/li>\n<\/ol>\n<p class=\"no-indent\">Trotz dieser Probleme KI-basierter Technologien gibt es Grund, optimistisch in die Zukunft der KI in Bildungskontexten zu blicken:<\/p>\n\n<ul>\n \t<li>Mit zunehmendem Bewusstsein f\u00fcr diese Themen werden Methoden zur Erkennung und Korrektur von Vorurteilen erforscht und erprobt.<\/li>\n \t<li>Regel- und datenbasierte Systeme mit einem gewissen Grad an Erkl\u00e4rbarkeit bringen verborgene Vorurteile in bisherigen p\u00e4dagogischen Praktiken ans Licht. Indem sie uns zwingen, unsere Gedanken und Prozesse zu artikulieren, zwingen sie uns dazu, unsere Annahmen zu \u00fcberpr\u00fcfen und damit aufzur\u00e4umen.<\/li>\n \t<li>Dank des Anpassungspotenzials von KI-Systemen k\u00f6nnten wir viele Aspekte der Bildung individuell gestalten. Die Ressourcen k\u00f6nnten auf das Wissen und die Erfahrungen jeder einzelnen Lernenden abgestimmt werden. Sie k\u00f6nnen m\u00f6glicherweise lokale Gemeinschaften und Kulturg\u00fcter einbeziehen und spezifische lokale Bed\u00fcrfnisse erf\u00fcllen<sup>2<\/sup>.<\/li>\n<\/ul>\n\n<hr>\n<p class=\"hanging-indent\" style=\"text-align: left\"><sup>1\u00a0<\/sup><a href=\"https:\/\/education.ec.europa.eu\/news\/ethical-guidelines-on-the-use-of-artificial-intelligence-and-data-in-teaching-and-learning-for-educators\">Ethical guidelines on the use of artificial intelligence and data in teaching and learning for educators<\/a>, European Commission, October 2022.<\/p>\n<p class=\"hanging-indent\" style=\"text-align: left\"><sup>2\u00a0<\/sup>U.S. Department of Education, Office of Educational Technology, <em>Artificial Intelligence and Future of Teaching and Learning: Insights and Recommendations<\/em>, Washington, DC, 2023.<\/p>\n<p class=\"hanging-indent\" style=\"text-align: left\"><sup>3 <\/sup>Kelleher, J.D, Tierney, B, <em>Data Science<\/em>, MIT Press, London, 2018.<\/p>\n<p class=\"hanging-indent\" style=\"text-align: left\"><sup>4 <\/sup>Barocas, S.,\u00a0 Hardt, M., Narayanan, A., <em><a href=\"https:\/\/fairmlbook.org\/\" target=\"_blank\" rel=\"noopener\" data-cke-saved-href=\"https:\/\/fairmlbook.org\/\">Fairness and machine learning Limitations and Opportunities<\/a>, 2022<\/em>.<\/p>\n<p class=\"hanging-indent\" style=\"text-align: left\"><sup>5\u00a0<\/sup>Milano, S., Taddeo, M., Floridi, L., Recommender systems and their ethical challenges, AI &amp; Soc 35, 957\u2013967, 2020.<\/p>","rendered":"<p class=\"no-indent\" style=\"text-align: left\">Bei Vorurteilen handelt es sich um Voreingenommenheiten gegen\u00fcber einer Identit\u00e4t. Egal ob gut oder schlecht, absichtlich oder unabsichtlich1. Fairness ist das Gegengewicht zu diesen Vorurteilen &#8211; und mehr als das: Sie ist dann gegeben, wenn jeder Mensch unabh\u00e4ngig von seiner Identit\u00e4t und seiner Situation fair behandelt wird. Es m\u00fcssen klare Verfahren festgelegt und befolgt werden, um sicherzustellen, dass jeder gleich behandelt wird und gleichen Zugang zu Chancen hat<sup>1<\/sup>.<\/p>\n<p class=\"indent\">Menschenbasierte Systeme sind oft mit Vorurteilen und Diskriminierung behaftet: Jeder Mensch hat seine eigenen, einzigartigen Meinungen und Vorurteile. Auch sie sind <em>Black Boxes<\/em>, deren Entscheidungen und Meinungen schwer zu verstehen sein k\u00f6nnen. Aber wir haben Strategien entwickelt und Strukturen geschaffen, um auf solche Praktiken zu achten und diese zu hinterfragen.<\/p>\n<p class=\"indent\">Automatisierte Systeme werden manchmal als das Allheilmittel gegen menschliche Subjektivit\u00e4t angepriesen: Algorithmen beruhen auf Zahlen, wie k\u00f6nnen sie da Vorurteile haben? Algorithmen, die unter anderem auf fehlerhaften Daten beruhen, k\u00f6nnen nicht nur bestehende Vorurteile in Bezug auf Geschlecht, ethnische Herkunft, Kultur oder Behinderung aufgreifen und erlernen, sondern sie k\u00f6nnen bestehende Vorurteile sogar noch verst\u00e4rken<sup>1,2,3<\/sup>. Erschwerend kommt hinzu, dass sie selbst dann, wenn sie nicht hinter Firmenmauern eingesperrt sind, nicht zur Erkl\u00e4rung ihres Handelns herangezogen werden k\u00f6nnen, da einige Systeme wie die auf tiefen neuronalen Netzen (<em>Deep Neural Networks<\/em>) basierenden Systeme von Natur aus nicht erkl\u00e4rbar sind.<\/p>\n<h3>Beispiele f\u00fcr Vorurteile in KI-Systemen in der Bildung<\/h3>\n<ol>\n<li>Wenn Programmierende regelbasierte Systeme programmieren, k\u00f6nnen sie ihre pers\u00f6nlichen Vorurteile und Stereotypen in das System einbringen<sup>1<\/sup>.<\/li>\n<li>Ein datengest\u00fctzter Algorithmus kann zu dem Schluss kommen, einem M\u00e4dchen keine MINT-Karriere vorzuschlagen, weil die Zahl der weiblichen Studierenden in den Daten \u00fcber MINT-Absolventen geringer ist. Ist die geringere Anzahl von Mathematikerinnen auf vorhandene Stereotypen und gesellschaftliche Normen zur\u00fcckzuf\u00fchren oder liegt es an einer inh\u00e4renten Eigenschaft des Frauseins? Algorithmen haben keine M\u00f6glichkeit, zwischen diesen beiden Situationen zu unterscheiden. Da die vorhandenen Daten vorhandene Stereotypen widerspiegeln, reproduzieren die Algorithmen, mit denen sie trainiert werden, die bestehenden Ungleichheiten und soziale Dynamik<sup>4<\/sup>. Wenn solche Empfehlungen umgesetzt werden, werden sich au\u00dferdem mehr M\u00e4dchen f\u00fcr Nicht-MINT-F\u00e4cher entscheiden, und die neuen Daten werden dies widerspiegeln &#8211; ein Fall von selbsterf\u00fcllender Prophezeiung<sup>3<\/sup>.<\/li>\n<li>Sch\u00fclerinnen und Sch\u00fcler aus einer Kultur, die im Trainingsdatensatz unterrepr\u00e4sentiert ist, haben m\u00f6glicherweise unterschiedliche Verhaltensmuster und unterschiedliche Arten, Motivation zu zeigen. Wie w\u00fcrde ein Learning Analytics-System Statistiken f\u00fcr sie berechnen? Wenn die Daten nicht f\u00fcr alle Kategorien von Lernenden repr\u00e4sentativ sind, k\u00f6nnten Systeme, die basierend auf diesen Daten trainiert wurden, die Minderheiten benachteiligen, deren Verhaltenstendenzen nicht dem entsprechen, worauf das Programm optimiert wurde. Wenn wir nicht aufpassen, werden Lernalgorithmen auf der Grundlage der Mehrheitskultur verallgemeinern, was zu einer hohen Fehlerquote bei Minderheitengruppen f\u00fchrt<sup>4,5<\/sup>. Solche Entscheidungen k\u00f6nnten diejenigen entmutigen, die sowohl Diversit\u00e4t, Kreativit\u00e4t und einzigartige Talente einbringen k\u00f6nnten, als auch diejenigen, die andere Erfahrungen, Interessen und Motivationen haben<sup>2<\/sup>.<\/li>\n<li>Ein britischer Lernender, der von einer amerikanischen Aufsatzkorrektur-Software beurteilt wird, w\u00fcrde f\u00fcr seine Rechtschreibfehler bestraft werden. Die lokale Sprache, \u00c4nderungen in der Rechtschreibung und im Akzent, die lokale Geografie und Kultur sind f\u00fcr Systeme, die f\u00fcr ein anderes Land und einen anderen Kontext entwickelt und trainiert wurden, immer problematisch.<\/li>\n<li>Manche Lehrkr\u00e4fte verbieten Ausdr\u00fccke, die in einer bestimmten Klasse oder Region gebr\u00e4uchlich sind, entweder absichtlich oder aufgrund voreingenommener sozialer Assoziationen. Wenn eine Software f\u00fcr die Bewertung von Aufs\u00e4tzen mit Aufs\u00e4tzen trainiert wird, die von diesen Lehrkr\u00e4ften benotet wurden, wird sie die gleichen Voreingenommenheiten aufweisen.<\/li>\n<li>Systeme f\u00fcr maschinelles Lernen ben\u00f6tigen eine Zielvariable und Proxys, f\u00fcr die sie optimiert werden m\u00fcssen. Nehmen wir an, die Pr\u00fcfungsergebnisse in der weiterf\u00fchrenden Schule w\u00fcrden stellvertretend f\u00fcr die akademischen Leistungen herangezogen werden. Die Systeme werden nun ausschlie\u00dflich darauf trainiert, Muster zu verst\u00e4rken, die mit Sch\u00fclerinnen und Sch\u00fclern \u00fcbereinstimmen, die unter dem Stress und in dem eingeschr\u00e4nkten Kontext von Pr\u00fcfungssituationen gute Leistungen erbringen. Diese Systeme werden versuchen, die Testergebnisse und nicht das Gesamtwissen zu verbessern, wenn sie den Lernenden Ressourcen und \u00dcbungsaufgaben empfehlen. Auch wenn dies in vielen heutigen Klassenzimmern der Fall sein mag, erm\u00f6glicht der traditionelle Lehransatz zumindest mehrere Ziele zu verfolgen<sup>4<\/sup>.<\/li>\n<li>Adaptive Lernsysteme schlagen den Sch\u00fclerinnen und Sch\u00fclern Ressourcen vor, um einen Mangel an F\u00e4higkeiten oder Wissen zu beheben. Wenn diese Ressourcen gekauft werden m\u00fcssen oder eine Internetverbindung zu Hause erfordern, dann ist das nicht fair gegen\u00fcber den Lernenden, die nicht die Mittel haben, den Empfehlungen zu folgen:<em> \u201eWenn ein Algorithmus einem Sch\u00fcler oder einer Sch\u00fclerin Tipps, n\u00e4chste Ma\u00dfnahmen oder Ressourcen vorschl\u00e4gt, m\u00fcssen wir pr\u00fcfen, ob die Hilfeleistung nicht unfair ist, weil eine Gruppe systematisch keine n\u00fctzliche Hilfe erh\u00e4lt, was diskriminierend ist&#8221;<\/em><sup><em>2<\/em><\/sup><em>.<\/em><\/li>\n<li>Das Konzept der Personalisierung des Unterrichts entsprechend dem aktuellen Wissensstand und den Vorlieben des Lernenden k\u00f6nnte an sich schon eine Verzerrung darstellen<sup>1<\/sup>. Halten wir diesen Sch\u00fcler oder diese Sch\u00fclerin nicht auch davon ab, neue Interessen zu entwickeln und Alternativen zu erkunden? W\u00fcrde sie das nicht eindimensional machen und ihre allgemeinen F\u00e4higkeiten und ihr Wissen sowie ihren Zugang zu M\u00f6glichkeiten einschr\u00e4nken?<\/li>\n<\/ol>\n<figure id=\"attachment_110\" aria-describedby=\"caption-attachment-110\" style=\"width: 1024px\" class=\"wp-caption aligncenter\"><img loading=\"lazy\" decoding=\"async\" class=\"wp-image-110 size-large\" src=\"http:\/\/aiopentext.itd.cnr.it\/wp-content\/uploads\/sites\/13\/2023\/11\/ch3-page6-bias-scaled-1.jpg\" alt=\"\" width=\"1024\" height=\"724\" srcset=\"https:\/\/aiopentext.itd.cnr.it\/aifurlehrer\/wp-content\/uploads\/sites\/13\/2023\/11\/ch3-page6-bias-scaled-1.jpg 2560w, https:\/\/aiopentext.itd.cnr.it\/aifurlehrer\/wp-content\/uploads\/sites\/13\/2023\/11\/ch3-page6-bias-scaled-1-300x212.jpg 300w, https:\/\/aiopentext.itd.cnr.it\/aifurlehrer\/wp-content\/uploads\/sites\/13\/2023\/11\/ch3-page6-bias-scaled-1-1024x724.jpg 1024w, https:\/\/aiopentext.itd.cnr.it\/aifurlehrer\/wp-content\/uploads\/sites\/13\/2023\/11\/ch3-page6-bias-scaled-1-768x543.jpg 768w, https:\/\/aiopentext.itd.cnr.it\/aifurlehrer\/wp-content\/uploads\/sites\/13\/2023\/11\/ch3-page6-bias-scaled-1-1536x1085.jpg 1536w, https:\/\/aiopentext.itd.cnr.it\/aifurlehrer\/wp-content\/uploads\/sites\/13\/2023\/11\/ch3-page6-bias-scaled-1-2048x1447.jpg 2048w, https:\/\/aiopentext.itd.cnr.it\/aifurlehrer\/wp-content\/uploads\/sites\/13\/2023\/11\/ch3-page6-bias-scaled-1-65x46.jpg 65w, https:\/\/aiopentext.itd.cnr.it\/aifurlehrer\/wp-content\/uploads\/sites\/13\/2023\/11\/ch3-page6-bias-scaled-1-225x159.jpg 225w, https:\/\/aiopentext.itd.cnr.it\/aifurlehrer\/wp-content\/uploads\/sites\/13\/2023\/11\/ch3-page6-bias-scaled-1-350x247.jpg 350w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><figcaption id=\"caption-attachment-110\" class=\"wp-caption-text\">\u201eData and algorithmic bias in the web'&#8221; von jennychamux ist lizenziert unter CC BY 2.0. Informationen zu dieser Lizenz finden Sie unter: <a href=\"https:\/\/creativecommons.org\/licenses\/by\/2.0\/?ref=openverse\">https:\/\/creativecommons.org\/licenses\/by\/2.0\/?ref=openverse<\/a>.<\/figcaption><\/figure>\n<h3>Was kann die Lehrkraft tun, um die Auswirkungen von KI-Voreingenommenheit zu verringern?<\/h3>\n<p class=\"no-indent\">Wissenschaftlerinnen und Wissenschaftler schlagen verschiedene M\u00f6glichkeiten zur Verringerung von Vorurteilen vor und analysieren sie. Aber nicht alle Methoden sind einfach umzusetzen. Hinzu kommt, dass es bei Fairness um viel mehr geht, als nur um den Abbau von Vorurteilen.<\/p>\n<p class=\"indent\">Wenn beispielsweise die vorhandenen Daten voller Stereotypen sind, <em>\u201esind wir dann verpflichtet, die Daten zu hinterfragen und unsere Systeme so zu gestalten, dass sie einer bestimmten Vorstellung von gerechtem Verhalten entsprechen, unabh\u00e4ngig davon, ob diese Vorstellung durch die uns derzeit zur Verf\u00fcgung stehenden Daten gest\u00fctzt wird oder nicht?\u201c<\/em><sup>4<\/sup>. Methoden stehen immer in einem Spannungs- und Widerspruchsverh\u00e4ltnis zueinander, und einige Ma\u00dfnahmen, die eine Art von Verzerrung reduzieren, k\u00f6nnen eine andere Verzerrung verursachen!<\/p>\n<p class=\"indent\">Was kann eine Lehrkraft also tun?<\/p>\n<ol>\n<li>Fragen Sie die Verk\u00e4ufer: Bevor Sie sich f\u00fcr ein KI-System entscheiden, sollten Sie sich erkundigen, mit welchen Datens\u00e4tzen das System trainiert wurde, wo, von wem und f\u00fcr wen das System konzipiert und entwickelt wurde und wie es bewertet wurde.<\/li>\n<li>Akzeptieren Sie nicht einfach die Statistiken, die Ihnen pr\u00e4sentiert werden. Eine Gesamtgenauigkeit von z. B. \u201e5 % Fehler&#8221; kann dar\u00fcber hinwegt\u00e4uschen, dass ein Modell f\u00fcr eine Minderheitengruppe erschreckend schlecht abschneidet<sup>4<\/sup>.<\/li>\n<li>Sehen Sie sich die Dokumentation an: Welche Ma\u00dfnahmen wurden ergriffen, um Vorurteile zu erkennen und zu bek\u00e4mpfen und Fairness zu gew\u00e4hrleisten<sup>1<\/sup>?<\/li>\n<li>Informieren Sie sich \u00fcber die Entwicklerfirma: Handelt es sich ausschlie\u00dflich um Informatik-Expertinnen und -Experten oder waren Bildungsforschende und Lehrkr\u00e4fte an allen Schritten des Prozesses beteiligt? Basiert das System ausschlie\u00dflich auf maschinellem Lernen oder wurden Lerntheorie und -praxis integriert<sup>2<\/sup>?<\/li>\n<li>Bevorzugen Sie transparente, offene Lernmodelle, die Ihnen die M\u00f6glichkeit geben, Entscheidungen zu \u00fcberstimmen<sup>2<\/sup>: Viele KI-Modelle f\u00fcr Bildungskontexte haben ein flexibles Design, bei dem Lehrendenen oder sogar Lernenden die Entscheidungen der Maschine \u00fcberwachen, um Erkl\u00e4rungen bitten oder sie komplett ignorieren k\u00f6nnen.<\/li>\n<li>Achten Sie auf die Zug\u00e4nglichkeit des Produkts: Ist es f\u00fcr jeden in gleicher Weise zug\u00e4nglich, insbesondere auch f\u00fcr Lernende mit Behinderungen oder besonderen p\u00e4dagogischen Bed\u00fcrfnissen<sup>1<\/sup>?<\/li>\n<li>Achten Sie auf die kurz- und langfristigen Auswirkungen des Einsatzes einer Technologie auf Ihre Sch\u00fclerinnen und Sch\u00fclern und den Unterricht und seien Sie bereit, Hilfe anzubieten, wenn dies notwendig ist.<\/li>\n<\/ol>\n<p class=\"no-indent\">Trotz dieser Probleme KI-basierter Technologien gibt es Grund, optimistisch in die Zukunft der KI in Bildungskontexten zu blicken:<\/p>\n<ul>\n<li>Mit zunehmendem Bewusstsein f\u00fcr diese Themen werden Methoden zur Erkennung und Korrektur von Vorurteilen erforscht und erprobt.<\/li>\n<li>Regel- und datenbasierte Systeme mit einem gewissen Grad an Erkl\u00e4rbarkeit bringen verborgene Vorurteile in bisherigen p\u00e4dagogischen Praktiken ans Licht. Indem sie uns zwingen, unsere Gedanken und Prozesse zu artikulieren, zwingen sie uns dazu, unsere Annahmen zu \u00fcberpr\u00fcfen und damit aufzur\u00e4umen.<\/li>\n<li>Dank des Anpassungspotenzials von KI-Systemen k\u00f6nnten wir viele Aspekte der Bildung individuell gestalten. Die Ressourcen k\u00f6nnten auf das Wissen und die Erfahrungen jeder einzelnen Lernenden abgestimmt werden. Sie k\u00f6nnen m\u00f6glicherweise lokale Gemeinschaften und Kulturg\u00fcter einbeziehen und spezifische lokale Bed\u00fcrfnisse erf\u00fcllen<sup>2<\/sup>.<\/li>\n<\/ul>\n<hr \/>\n<p class=\"hanging-indent\" style=\"text-align: left\"><sup>1\u00a0<\/sup><a href=\"https:\/\/education.ec.europa.eu\/news\/ethical-guidelines-on-the-use-of-artificial-intelligence-and-data-in-teaching-and-learning-for-educators\">Ethical guidelines on the use of artificial intelligence and data in teaching and learning for educators<\/a>, European Commission, October 2022.<\/p>\n<p class=\"hanging-indent\" style=\"text-align: left\"><sup>2\u00a0<\/sup>U.S. Department of Education, Office of Educational Technology, <em>Artificial Intelligence and Future of Teaching and Learning: Insights and Recommendations<\/em>, Washington, DC, 2023.<\/p>\n<p class=\"hanging-indent\" style=\"text-align: left\"><sup>3 <\/sup>Kelleher, J.D, Tierney, B, <em>Data Science<\/em>, MIT Press, London, 2018.<\/p>\n<p class=\"hanging-indent\" style=\"text-align: left\"><sup>4 <\/sup>Barocas, S.,\u00a0 Hardt, M., Narayanan, A., <em><a href=\"https:\/\/fairmlbook.org\/\" target=\"_blank\" rel=\"noopener\" data-cke-saved-href=\"https:\/\/fairmlbook.org\/\">Fairness and machine learning Limitations and Opportunities<\/a>, 2022<\/em>.<\/p>\n<p class=\"hanging-indent\" style=\"text-align: left\"><sup>5\u00a0<\/sup>Milano, S., Taddeo, M., Floridi, L., Recommender systems and their ethical challenges, AI &amp; Soc 35, 957\u2013967, 2020.<\/p>\n","protected":false},"author":1,"menu_order":6,"template":"","meta":{"pb_show_title":"","pb_short_title":"","pb_subtitle":"","pb_authors":[],"pb_section_license":""},"chapter-type":[],"contributor":[],"license":[],"part":86,"_links":{"self":[{"href":"https:\/\/aiopentext.itd.cnr.it\/aifurlehrer\/wp-json\/pressbooks\/v2\/chapters\/111"}],"collection":[{"href":"https:\/\/aiopentext.itd.cnr.it\/aifurlehrer\/wp-json\/pressbooks\/v2\/chapters"}],"about":[{"href":"https:\/\/aiopentext.itd.cnr.it\/aifurlehrer\/wp-json\/wp\/v2\/types\/chapter"}],"author":[{"embeddable":true,"href":"https:\/\/aiopentext.itd.cnr.it\/aifurlehrer\/wp-json\/wp\/v2\/users\/1"}],"version-history":[{"count":1,"href":"https:\/\/aiopentext.itd.cnr.it\/aifurlehrer\/wp-json\/pressbooks\/v2\/chapters\/111\/revisions"}],"predecessor-version":[{"id":112,"href":"https:\/\/aiopentext.itd.cnr.it\/aifurlehrer\/wp-json\/pressbooks\/v2\/chapters\/111\/revisions\/112"}],"part":[{"href":"https:\/\/aiopentext.itd.cnr.it\/aifurlehrer\/wp-json\/pressbooks\/v2\/parts\/86"}],"metadata":[{"href":"https:\/\/aiopentext.itd.cnr.it\/aifurlehrer\/wp-json\/pressbooks\/v2\/chapters\/111\/metadata\/"}],"wp:attachment":[{"href":"https:\/\/aiopentext.itd.cnr.it\/aifurlehrer\/wp-json\/wp\/v2\/media?parent=111"}],"wp:term":[{"taxonomy":"chapter-type","embeddable":true,"href":"https:\/\/aiopentext.itd.cnr.it\/aifurlehrer\/wp-json\/pressbooks\/v2\/chapter-type?post=111"},{"taxonomy":"contributor","embeddable":true,"href":"https:\/\/aiopentext.itd.cnr.it\/aifurlehrer\/wp-json\/wp\/v2\/contributor?post=111"},{"taxonomy":"license","embeddable":true,"href":"https:\/\/aiopentext.itd.cnr.it\/aifurlehrer\/wp-json\/wp\/v2\/license?post=111"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}