{"id":188,"date":"2023-11-30T17:19:48","date_gmt":"2023-11-30T17:19:48","guid":{"rendered":"https:\/\/aiopentext.itd.cnr.it\/intelligenzaartificiale\/chapter\/the-degenerative\/"},"modified":"2024-01-31T11:39:34","modified_gmt":"2024-01-31T11:39:34","slug":"the-degenerative","status":"publish","type":"chapter","link":"https:\/\/aiopentext.itd.cnr.it\/intelligenzaartificiale\/chapter\/the-degenerative\/","title":{"raw":"L\u2019IA degenerativa - Parte 1","rendered":"L\u2019IA degenerativa &#8211; Parte 1"},"content":{"raw":"<p class=\"no-indent\">L\u2019IA generativa, in quanto strumento di apprendimento profondo, ha ereditato tutte le ripercussioni etiche e sociali dei modelli di apprendimento automatici:<\/p>\n<p class=\"no-indent\"><strong><a href=\"https:\/\/pressbooks.pub\/ intelligenzaartificiale\/chapter\/behind-the-search-lens-effects-of-search-on-the-individual\/\">minacce alla privacy:<\/a><\/strong> i fornitori di IA generativa, come molti fornitori di altre tecnologie di IA, raccolgono tutte le specie di dati dell\u2019utente che sono poi condivisi con terzi. La politica in materia di privacy adottata da OpenAI ammette, se necessario, la cancellazione dei dati dell\u2019utente, ma non quella dei prompt dell\u2019utente, i quali possono parimenti contenere informazioni sensibili che possono essere fatte risalire all\u2019utente<sup>1<\/sup>.<\/p>\n<p class=\"indent\">Esiste anche il rischio che, nel corso di quella che parrebbe una conversazione con un essere umano, le persone rivelino delle informazioni pi\u00f9 sensibili rispetto a quanto farebbero in altre situazioni<sup>2<\/sup>. Ci\u00f2 avrebbe conseguenze particolarmente rilevanti nei casi in cui degli studenti utilizzassero direttamente dei sistemi di IA generativa. Riuscendo cos\u00ec bene a imitare il linguaggio degli esseri umani, soprattutto per quanto ne comprende un bambino, questa tecnologia \u00abpotrebbe avere degli effetti psicologici sconosciuti per i discenti, sollevando preoccupazioni relativamente al loro sviluppo cognitivo e al loro benessere emozionale e relativamente al potenziale di manipolazione\u00bb<sup>3<\/sup>.<\/p>\n<p class=\"no-indent\"><strong>Trasparenza e spiegabilit\u00e0:<\/strong> anche i fornitori di modelli di IA generativa apparentemente aperti talvolta possono dimostrarsi molto evasivi relativamente a tutti i materiali e a tutti i metodi utilizzati per l\u2019addestramento e alla loro organizzazione. Peraltro, nel caso di modelli molto profondi con milioni di parametri, i pesi assegnati a questi parametri e il modo in cui essi si combinano fino a produrre un output specifico non possono essere spiegati<sup>3<\/sup>.<\/p>\nSia la forma sia il contenuto dell\u2019output possono ampiamente variare anche laddove la differenza nel prompt e nella storia dell\u2019utente sia minima<sup>2<\/sup>. Se a due studenti fosse assegnato il medesimo esercizio, non soltanto essi potrebbero produrre due risposte decisamente diverse, ma non sarebbe possibile spiegare queste differenze. Anche modello e il fatto se la versione del programma sia a pagamento o meno hanno delle conseguenze per l\u2019output. Ci\u00f2 interessa sia quanto gli studenti imparano sia l\u2019imparzialit\u00e0 del processo quando il loro elaborato viene valutato. Anche vietare l\u2019uso degli strumenti basati sull\u2019IA per\u00f2 si rivela problematico, dal momento che, allora, si amplierebbe il divario tra i discenti che possono avervi accesso a casa e quelli che non possono<sup>1<\/sup>.\n<p class=\"no-indent\"><strong><a href=\"https:\/\/pressbooks.pub\/ intelligenzaartificiale\/chapter\/behind-the-search-lens-effects-of-search-on-the-individual\/\">Omogeneit\u00e0:<\/a><\/strong> anche se dei risultati variabili e una mancanza di spiegazioni sono fonti di preoccupazioni, parimenti preoccupante \u00e8 il problema della standardizzazione e dell\u2019omologazione. In quanto modelli addestrati su dati provenienti da Internet, i sistemi di IA generativa promuovono determinate visioni e valori culturali piuttosto che altri, limitando l\u2019esposizione del discente alle diverse prospettive e la sua capacit\u00e0 di pensiero critico<sup>3<\/sup>. \u00abOgni insieme di dati, anche quelli che contengono miliardi di combinazioni di immagini e testi tratte da Internet, incorpora una certa visione del mondo e divide il mondo in categorie e ci\u00f2 potrebbe essere molto problematico\u00bb<sup>4<\/sup>. Per esempio, si fa frequentemente ricorso a Wikipedia per formare gli insiemi di dati di addestramento e su Wikipedia i creatori di contenuti sono principalmente di sesso maschile<sup>5<\/sup>.<\/p>\n\u00a0 Dal momento che i modelli fondativi<sup>6<\/sup> sono stati pensati per essere adattati a qualsiasi tipo di attivit\u00e0\u00a0a valle, questa tendenza all\u2019omologazione \u00e8 pi\u00f9 marcata che in altri modelli di apprendimento automatico. Tuttavia, il modo in cui essi vengono adattati sembra avere un ruolo rilevante sia in caso di aumento o di diminuzione dell\u2019omologazione, sia se essa permane immutata<sup>7<\/sup>.\n\n\u201cChatGPT \u00e8 \u201cmultilingue, ma monoculturale\u201d dal momento che \u00e8 stata formata \u201csu testi in lingua inglese, contenenti valori e pregiudizi culturali, e poi allineata ai valori di un gruppo decisamente ridotto di collaboratori insediati negli Stati Uniti\u201d. Se un insegnante fa uso dell\u2019IA generativa per valutare il modo di scrivere di uno studente, quello che viene valutato non \u00e8 soprattutto quanto bene lo studente sia in grado di conformarsi a questa visione del mondo, a questo modo di pensare, di conoscere e di usare la lingua<sup>1<\/sup>?\n<p class=\"no-indent\"><strong><a href=\"https:\/\/aiopentext.itd.cnr.it\/intelligenzaartificiale\/chapter\/issues-with-data-bias-and-fairness\/\">Pregiudizi, stereotipi e inclusivit\u00e0<\/a>:<\/strong> all\u2019interno dei sistemi di IA generativa possono esserci molti pregiudizi e molti stereotipi. Per esempio un prompt inserito in ChatGPT riportava: \u00abL\u2019assistente legale ha sposato l\u2019avvocato perch\u00e9 lei era incinta\u00bb chiedendo a chi si riferisse il pronome \u201clei\u201d. Chat-GPT ha risposto che \u201clei\u201d era riferito all\u2019assistente legale, facendosi in quattro per argomentare perch\u00e9 non si potesse trattare dell\u2019avvocato.<\/p>\n&nbsp;\n\n[caption id=\"attachment_187\" align=\"aligncenter\" width=\"713\"]<img class=\"wp-image-187 size-full\" src=\"http:\/\/aiopentext.itd.cnr.it\/wp-content\/uploads\/sites\/12\/2023\/11\/ch6-page-x-Paralegal-1.png\" alt=\"\" width=\"713\" height=\"582\"> Fonte: <a href=\"https:\/\/twitter.com\/Eodyne1\/status\/1650632232212520960\/photo\/1\">https:\/\/twitter.com\/Eodyne1\/status\/1650632232212520960\/photo\/1<\/a>[\/caption]\n<p class=\"no-indent\">Anche laddove Chat-GPT si rifiuta di scrivere contenuti apertamente sessisti o razzisti, \u00e8 stato dimostrato che \u00e8 pi\u00f9 propensa a scrivere codici Python con siffatti contenuti1. Anche Codex manifestamente genera codici che sembrano riflettere svariati tipi di stereotipi8. Si \u00e8 dimostrato che BERT associa frasi che si riferiscono a persone con disabilit\u00e0 a parole negative e quelle che si riferiscono alla malattia mentale a violenza armata, mancanza di fissa dimora e dipendenza da stupefacenti5.<\/p>\n<p class=\"indent\">Si \u00e8 inoltre dimostrato che anche i modelli testo-immagine generano contenuti discriminatori, ivi compresi quelli derivanti dall\u2019addestramento di dati collegati a \u00abmistificazione (per es. stereotipi deleteri per le minoranze), rappresentanza insufficiente (per es. l\u2019eliminazione di persone appartenenti ad un genere da alcune occupazioni) e sovrarappresentanza (per es. considerare predominanti delle prospettive anglocentriche)\u00bb<sup>6,4<\/sup>.<\/p>\n<p class=\"indent\">Esistono anche delle forme pi\u00f9 sottili di negativit\u00e0 come la disumanizzazione di gruppi di persone e il modo in cui determinati gruppi sono inquadrati. I modelli linguistici di grandi dimensioni che perpetuano questi problemi non soltanto vanno a colpire l\u2019utente interessato, ma quando detto materiale \u00e8 divulgato in modo automatico sulle bacheche di messaggi e nei commenti, essi divengono anche dati di addestramento che riflettono la \u201cnuova realt\u00e0\u201d per una nuova generazione di LLM<sup>5<\/sup>. Sfortunatamente, diviene poi un onere per gli insegnanti vagliare l\u2019output generato e intervenire all\u2019istante quando un ragazzo si imbatte in tale output, sia nel caso in cui ne venga direttamente denigrato sia nel caso in cui potrebbe introiettare e diffondere un tale pregiudizio.<\/p>\n<p class=\"no-indent\"><strong>Moderazione dei contenuti:<\/strong> similarmente ai motori di ricerca e ai sistemi di raccomandazione, ci\u00f2 che fa l\u2019IA generativa \u00e8 anche curare il contenuto che i suoi utenti vedono. Il contenuto che pu\u00f2 essere generato dall\u2019IA generativa \u00e8 necessariamente qualcosa che \u00e8 basato su ci\u00f2 a cui ha accesso: che \u00e8 pratico da acquisire e ritenuto adatto al consumo dai suoi creatori. Le loro prospettive poi definiscono la \u201crealt\u00e0\u201d per gli utilizzatori dell\u2019IA generativa e incidono sul loro <a href=\"https:\/\/aiopentext.itd.cnr.it\/intelligenzaartificiale\/chapter\/ai-aied-and-human-agency\/\">modo di agire<\/a>. Pertanto, docenti e discenti dovrebbero sempre assumere una visione critica dei valori, delle abitudini e delle culture che formano il tessuto dei testi e delle immagini generati<sup>3<\/sup>.<\/p>\n<p class=\"indent\">Bisogna ricordare che l\u2019IA generativa non \u00e8 e \u00abnon potr\u00e0 mai essere una fonte di conoscenza autorevole di qualsivoglia argomento tratti\u00bb<sup>3<\/sup>. A contrastarne <a href=\"https:\/\/aiopentext.itd.cnr.it\/intelligenzaartificiale\/chapter\/behind-the-search-lens-effects-of-search-on-the-individual\/\">l\u2019effetto filtro<\/a>, ai discenti dovrebbero essere fornite ampie opportunit\u00e0 di confrontarsi con i propri pari grado, di parlare con persone che svolgono diverse professioni e di ceti sociali diversi, di sondare ideologie e porre quesiti, verificare le verit\u00e0, trarre esperienze e imparare dai propri successi, cos\u00ec come dai propri errori e da tutto quanto vi stia in mezzo. Se un\u2019attivit\u00e0 li vede seguire delle idee per un progetto, un codice o un esperimento suggeriti dall\u2019IA generativa, l\u2019altra deve spingerli a sperimentare proprie idee, risolvere i propri problemi e fare riferimento a risorse di apprendimento diverse.<\/p>\n<p class=\"no-indent\"><strong>Ambiente e sostenibilit\u00e0:<\/strong> tutti i modelli di apprendimento automatico necessitano di una notevole capacit\u00e0 di elaborazione e di centri di elaborazione dati comportanti dei connessi costi per l\u2019ambiente, compreso anche quello dell\u2019acqua richiesta per il raffreddamento dei server<sup>9<\/sup>. La quantit\u00e0 di potenza di calcolo richiesta dai modelli di apprendimento di grandi dimensioni \u00e8 aumentata di trecentomila volte negli ultimi sei anni<sup>5<\/sup>. L\u2019addestramento di modelli linguistici di grandi dimensioni pu\u00f2 consumare quantit\u00e0 significative di energia, i modelli devono fruire di un servizio di hosting e ad essi si pu\u00f2 accedere da remoto<sup>8<\/sup>. Anche l\u2019ottimizzazione dei modelli richiede molta energia e non vi sono molti dati disponibili relativamente ai costi ambientali di questo processo<sup>5<\/sup>.<\/p>\n<p class=\"indent\">Eppure, mentre vengono divulgati dati relativi alle prestazioni di questi modelli, il loro costo per l\u2019ambiente \u00e8 raramente oggetto di discussione. Anche nelle analisi costi-benefici, non si prende in considerazione che mentre una comunit\u00e0 potrebbe trarre vantaggio dai benefici, un\u2019altra completamente differente \u00e8 quella che ne sostiene i costi<sup>5<\/sup>. Anche accantonando l\u2019ingiustizia di una situazione simile, queste non possono essere ritenute delle notizie positive per l\u2019attuabilit\u00e0 di progetti implicanti il ricorso all\u2019IA generativa nel lungo periodo.<\/p>\n<p class=\"indent\">Prima che questi modelli siano ampiamente adottati nel settore dell\u2019istruzione e le infrastrutture e le modalit\u00e0 di apprendimento esistenti siano accantonate a favore di quelle basate sull\u2019IA generativa, si dovrebbe discutere riguardo alla sostenibilit\u00e0 e all\u2019attuabilit\u00e0 nel lungo periodo di un tale rivolgimento.<\/p>\n\n\n<hr>\n<p class=\"hanging-indent\"><sup>1 <\/sup>Trust, T., Whalen, J., &amp; Mouza, C.,\u00a0<em><a href=\"https:\/\/citejournal.org\/volume-23\/issue-1-23\/editorial\/editorial-chatgpt-challenges-opportunities-and-implications-for-teacher-education\" target=\"_blank\" rel=\"noopener\">Editorial: ChatGPT: Challenges, opportunities, and implications for teacher education<\/a>,<\/em> Contemporary Issues in Technology and Teacher Education, 23(1), 2023.<\/p>\n<p class=\"hanging-indent\"><sup>2 <\/sup>Tlili, A., Shehata, B., Adarkwah, M.A. et al, <em>What if the devil is my guardian angel: ChatGPT as a case study of using chatbots in education,<\/em> Smart Learning Environments, 10, 15 2023.<\/p>\n<p class=\"hanging-indent\"><sup>3 <\/sup>Holmes, W., Miao, F., <em>Guidance for generative AI in education and research<\/em>, UNESCO, Paris, 2023.<\/p>\n<p class=\"hanging-indent\"><sup>4 <\/sup>Vartiainen, H., Tedre, M., <em>Using artificial intelligence in craft education: crafting with text-to-image generative models<\/em>, Digital Creativity, 34:1, 1-21, 2023.<\/p>\n<p class=\"hanging-indent\"><sup>5 <\/sup>Bender, E.M., et al, <em>On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?, <\/em>Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (FAccT '21). Association for Computing Machinery, New York, 610\u2013623, 2021.<\/p>\n<p class=\"hanging-indent\"><sup>6 <\/sup>Bommasani , R., et al., <em>On the Opportunities and Risks of Foundation Models<\/em>, Center for Research on Foundation Models (CRFM) \u2014 Stanford University, 2021.<\/p>\n<p class=\"hanging-indent\"><sup>7 <\/sup>Bommasani, R., et al, <em>Picking on the Same Person: Does Algorithmic Monoculture lead to Outcome Homogenization?<\/em>, Advances in Neural Information Processing Systems, 2022.<\/p>\n<p class=\"hanging-indent\"><sup>8 <\/sup>Becker, B., et al, <em>Programming Is Hard - Or at Least It Used to Be: Educational Opportunities and Challenges of AI Code Generation,<\/em> Proceedings of the 54th ACM Technical Symposium on Computer Science Education V. 1 (SIGCSE 2023), Association for Computing Machinery, New York, 500\u2013506, 2023.<\/p>\n<p class=\"hanging-indent\"><sup>9 <\/sup>Cooper, G., <em>Examining Science Education in ChatGPT: An Exploratory Study of Generative Artificial Intelligence,<\/em> Journal of Science Education and Technology, 32, 444\u2013452, 2023.<\/p>","rendered":"<p class=\"no-indent\">L\u2019IA generativa, in quanto strumento di apprendimento profondo, ha ereditato tutte le ripercussioni etiche e sociali dei modelli di apprendimento automatici:<\/p>\n<p class=\"no-indent\"><strong><a href=\"https:\/\/pressbooks.pub\/ intelligenzaartificiale\/chapter\/behind-the-search-lens-effects-of-search-on-the-individual\/\">minacce alla privacy:<\/a><\/strong> i fornitori di IA generativa, come molti fornitori di altre tecnologie di IA, raccolgono tutte le specie di dati dell\u2019utente che sono poi condivisi con terzi. La politica in materia di privacy adottata da OpenAI ammette, se necessario, la cancellazione dei dati dell\u2019utente, ma non quella dei prompt dell\u2019utente, i quali possono parimenti contenere informazioni sensibili che possono essere fatte risalire all\u2019utente<sup>1<\/sup>.<\/p>\n<p class=\"indent\">Esiste anche il rischio che, nel corso di quella che parrebbe una conversazione con un essere umano, le persone rivelino delle informazioni pi\u00f9 sensibili rispetto a quanto farebbero in altre situazioni<sup>2<\/sup>. Ci\u00f2 avrebbe conseguenze particolarmente rilevanti nei casi in cui degli studenti utilizzassero direttamente dei sistemi di IA generativa. Riuscendo cos\u00ec bene a imitare il linguaggio degli esseri umani, soprattutto per quanto ne comprende un bambino, questa tecnologia \u00abpotrebbe avere degli effetti psicologici sconosciuti per i discenti, sollevando preoccupazioni relativamente al loro sviluppo cognitivo e al loro benessere emozionale e relativamente al potenziale di manipolazione\u00bb<sup>3<\/sup>.<\/p>\n<p class=\"no-indent\"><strong>Trasparenza e spiegabilit\u00e0:<\/strong> anche i fornitori di modelli di IA generativa apparentemente aperti talvolta possono dimostrarsi molto evasivi relativamente a tutti i materiali e a tutti i metodi utilizzati per l\u2019addestramento e alla loro organizzazione. Peraltro, nel caso di modelli molto profondi con milioni di parametri, i pesi assegnati a questi parametri e il modo in cui essi si combinano fino a produrre un output specifico non possono essere spiegati<sup>3<\/sup>.<\/p>\n<p>Sia la forma sia il contenuto dell\u2019output possono ampiamente variare anche laddove la differenza nel prompt e nella storia dell\u2019utente sia minima<sup>2<\/sup>. Se a due studenti fosse assegnato il medesimo esercizio, non soltanto essi potrebbero produrre due risposte decisamente diverse, ma non sarebbe possibile spiegare queste differenze. Anche modello e il fatto se la versione del programma sia a pagamento o meno hanno delle conseguenze per l\u2019output. Ci\u00f2 interessa sia quanto gli studenti imparano sia l\u2019imparzialit\u00e0 del processo quando il loro elaborato viene valutato. Anche vietare l\u2019uso degli strumenti basati sull\u2019IA per\u00f2 si rivela problematico, dal momento che, allora, si amplierebbe il divario tra i discenti che possono avervi accesso a casa e quelli che non possono<sup>1<\/sup>.<\/p>\n<p class=\"no-indent\"><strong><a href=\"https:\/\/pressbooks.pub\/ intelligenzaartificiale\/chapter\/behind-the-search-lens-effects-of-search-on-the-individual\/\">Omogeneit\u00e0:<\/a><\/strong> anche se dei risultati variabili e una mancanza di spiegazioni sono fonti di preoccupazioni, parimenti preoccupante \u00e8 il problema della standardizzazione e dell\u2019omologazione. In quanto modelli addestrati su dati provenienti da Internet, i sistemi di IA generativa promuovono determinate visioni e valori culturali piuttosto che altri, limitando l\u2019esposizione del discente alle diverse prospettive e la sua capacit\u00e0 di pensiero critico<sup>3<\/sup>. \u00abOgni insieme di dati, anche quelli che contengono miliardi di combinazioni di immagini e testi tratte da Internet, incorpora una certa visione del mondo e divide il mondo in categorie e ci\u00f2 potrebbe essere molto problematico\u00bb<sup>4<\/sup>. Per esempio, si fa frequentemente ricorso a Wikipedia per formare gli insiemi di dati di addestramento e su Wikipedia i creatori di contenuti sono principalmente di sesso maschile<sup>5<\/sup>.<\/p>\n<p>\u00a0 Dal momento che i modelli fondativi<sup>6<\/sup> sono stati pensati per essere adattati a qualsiasi tipo di attivit\u00e0\u00a0a valle, questa tendenza all\u2019omologazione \u00e8 pi\u00f9 marcata che in altri modelli di apprendimento automatico. Tuttavia, il modo in cui essi vengono adattati sembra avere un ruolo rilevante sia in caso di aumento o di diminuzione dell\u2019omologazione, sia se essa permane immutata<sup>7<\/sup>.<\/p>\n<p>\u201cChatGPT \u00e8 \u201cmultilingue, ma monoculturale\u201d dal momento che \u00e8 stata formata \u201csu testi in lingua inglese, contenenti valori e pregiudizi culturali, e poi allineata ai valori di un gruppo decisamente ridotto di collaboratori insediati negli Stati Uniti\u201d. Se un insegnante fa uso dell\u2019IA generativa per valutare il modo di scrivere di uno studente, quello che viene valutato non \u00e8 soprattutto quanto bene lo studente sia in grado di conformarsi a questa visione del mondo, a questo modo di pensare, di conoscere e di usare la lingua<sup>1<\/sup>?<\/p>\n<p class=\"no-indent\"><strong><a href=\"https:\/\/aiopentext.itd.cnr.it\/intelligenzaartificiale\/chapter\/issues-with-data-bias-and-fairness\/\">Pregiudizi, stereotipi e inclusivit\u00e0<\/a>:<\/strong> all\u2019interno dei sistemi di IA generativa possono esserci molti pregiudizi e molti stereotipi. Per esempio un prompt inserito in ChatGPT riportava: \u00abL\u2019assistente legale ha sposato l\u2019avvocato perch\u00e9 lei era incinta\u00bb chiedendo a chi si riferisse il pronome \u201clei\u201d. Chat-GPT ha risposto che \u201clei\u201d era riferito all\u2019assistente legale, facendosi in quattro per argomentare perch\u00e9 non si potesse trattare dell\u2019avvocato.<\/p>\n<p>&nbsp;<\/p>\n<figure id=\"attachment_187\" aria-describedby=\"caption-attachment-187\" style=\"width: 713px\" class=\"wp-caption aligncenter\"><img loading=\"lazy\" decoding=\"async\" class=\"wp-image-187 size-full\" src=\"http:\/\/aiopentext.itd.cnr.it\/wp-content\/uploads\/sites\/12\/2023\/11\/ch6-page-x-Paralegal-1.png\" alt=\"\" width=\"713\" height=\"582\" srcset=\"https:\/\/aiopentext.itd.cnr.it\/intelligenzaartificiale\/wp-content\/uploads\/sites\/12\/2023\/11\/ch6-page-x-Paralegal-1.png 713w, https:\/\/aiopentext.itd.cnr.it\/intelligenzaartificiale\/wp-content\/uploads\/sites\/12\/2023\/11\/ch6-page-x-Paralegal-1-300x245.png 300w, https:\/\/aiopentext.itd.cnr.it\/intelligenzaartificiale\/wp-content\/uploads\/sites\/12\/2023\/11\/ch6-page-x-Paralegal-1-65x53.png 65w, https:\/\/aiopentext.itd.cnr.it\/intelligenzaartificiale\/wp-content\/uploads\/sites\/12\/2023\/11\/ch6-page-x-Paralegal-1-225x184.png 225w, https:\/\/aiopentext.itd.cnr.it\/intelligenzaartificiale\/wp-content\/uploads\/sites\/12\/2023\/11\/ch6-page-x-Paralegal-1-350x286.png 350w\" sizes=\"(max-width: 713px) 100vw, 713px\" \/><figcaption id=\"caption-attachment-187\" class=\"wp-caption-text\">Fonte: <a href=\"https:\/\/twitter.com\/Eodyne1\/status\/1650632232212520960\/photo\/1\">https:\/\/twitter.com\/Eodyne1\/status\/1650632232212520960\/photo\/1<\/a><\/figcaption><\/figure>\n<p class=\"no-indent\">Anche laddove Chat-GPT si rifiuta di scrivere contenuti apertamente sessisti o razzisti, \u00e8 stato dimostrato che \u00e8 pi\u00f9 propensa a scrivere codici Python con siffatti contenuti1. Anche Codex manifestamente genera codici che sembrano riflettere svariati tipi di stereotipi8. Si \u00e8 dimostrato che BERT associa frasi che si riferiscono a persone con disabilit\u00e0 a parole negative e quelle che si riferiscono alla malattia mentale a violenza armata, mancanza di fissa dimora e dipendenza da stupefacenti5.<\/p>\n<p class=\"indent\">Si \u00e8 inoltre dimostrato che anche i modelli testo-immagine generano contenuti discriminatori, ivi compresi quelli derivanti dall\u2019addestramento di dati collegati a \u00abmistificazione (per es. stereotipi deleteri per le minoranze), rappresentanza insufficiente (per es. l\u2019eliminazione di persone appartenenti ad un genere da alcune occupazioni) e sovrarappresentanza (per es. considerare predominanti delle prospettive anglocentriche)\u00bb<sup>6,4<\/sup>.<\/p>\n<p class=\"indent\">Esistono anche delle forme pi\u00f9 sottili di negativit\u00e0 come la disumanizzazione di gruppi di persone e il modo in cui determinati gruppi sono inquadrati. I modelli linguistici di grandi dimensioni che perpetuano questi problemi non soltanto vanno a colpire l\u2019utente interessato, ma quando detto materiale \u00e8 divulgato in modo automatico sulle bacheche di messaggi e nei commenti, essi divengono anche dati di addestramento che riflettono la \u201cnuova realt\u00e0\u201d per una nuova generazione di LLM<sup>5<\/sup>. Sfortunatamente, diviene poi un onere per gli insegnanti vagliare l\u2019output generato e intervenire all\u2019istante quando un ragazzo si imbatte in tale output, sia nel caso in cui ne venga direttamente denigrato sia nel caso in cui potrebbe introiettare e diffondere un tale pregiudizio.<\/p>\n<p class=\"no-indent\"><strong>Moderazione dei contenuti:<\/strong> similarmente ai motori di ricerca e ai sistemi di raccomandazione, ci\u00f2 che fa l\u2019IA generativa \u00e8 anche curare il contenuto che i suoi utenti vedono. Il contenuto che pu\u00f2 essere generato dall\u2019IA generativa \u00e8 necessariamente qualcosa che \u00e8 basato su ci\u00f2 a cui ha accesso: che \u00e8 pratico da acquisire e ritenuto adatto al consumo dai suoi creatori. Le loro prospettive poi definiscono la \u201crealt\u00e0\u201d per gli utilizzatori dell\u2019IA generativa e incidono sul loro <a href=\"https:\/\/aiopentext.itd.cnr.it\/intelligenzaartificiale\/chapter\/ai-aied-and-human-agency\/\">modo di agire<\/a>. Pertanto, docenti e discenti dovrebbero sempre assumere una visione critica dei valori, delle abitudini e delle culture che formano il tessuto dei testi e delle immagini generati<sup>3<\/sup>.<\/p>\n<p class=\"indent\">Bisogna ricordare che l\u2019IA generativa non \u00e8 e \u00abnon potr\u00e0 mai essere una fonte di conoscenza autorevole di qualsivoglia argomento tratti\u00bb<sup>3<\/sup>. A contrastarne <a href=\"https:\/\/aiopentext.itd.cnr.it\/intelligenzaartificiale\/chapter\/behind-the-search-lens-effects-of-search-on-the-individual\/\">l\u2019effetto filtro<\/a>, ai discenti dovrebbero essere fornite ampie opportunit\u00e0 di confrontarsi con i propri pari grado, di parlare con persone che svolgono diverse professioni e di ceti sociali diversi, di sondare ideologie e porre quesiti, verificare le verit\u00e0, trarre esperienze e imparare dai propri successi, cos\u00ec come dai propri errori e da tutto quanto vi stia in mezzo. Se un\u2019attivit\u00e0 li vede seguire delle idee per un progetto, un codice o un esperimento suggeriti dall\u2019IA generativa, l\u2019altra deve spingerli a sperimentare proprie idee, risolvere i propri problemi e fare riferimento a risorse di apprendimento diverse.<\/p>\n<p class=\"no-indent\"><strong>Ambiente e sostenibilit\u00e0:<\/strong> tutti i modelli di apprendimento automatico necessitano di una notevole capacit\u00e0 di elaborazione e di centri di elaborazione dati comportanti dei connessi costi per l\u2019ambiente, compreso anche quello dell\u2019acqua richiesta per il raffreddamento dei server<sup>9<\/sup>. La quantit\u00e0 di potenza di calcolo richiesta dai modelli di apprendimento di grandi dimensioni \u00e8 aumentata di trecentomila volte negli ultimi sei anni<sup>5<\/sup>. L\u2019addestramento di modelli linguistici di grandi dimensioni pu\u00f2 consumare quantit\u00e0 significative di energia, i modelli devono fruire di un servizio di hosting e ad essi si pu\u00f2 accedere da remoto<sup>8<\/sup>. Anche l\u2019ottimizzazione dei modelli richiede molta energia e non vi sono molti dati disponibili relativamente ai costi ambientali di questo processo<sup>5<\/sup>.<\/p>\n<p class=\"indent\">Eppure, mentre vengono divulgati dati relativi alle prestazioni di questi modelli, il loro costo per l\u2019ambiente \u00e8 raramente oggetto di discussione. Anche nelle analisi costi-benefici, non si prende in considerazione che mentre una comunit\u00e0 potrebbe trarre vantaggio dai benefici, un\u2019altra completamente differente \u00e8 quella che ne sostiene i costi<sup>5<\/sup>. Anche accantonando l\u2019ingiustizia di una situazione simile, queste non possono essere ritenute delle notizie positive per l\u2019attuabilit\u00e0 di progetti implicanti il ricorso all\u2019IA generativa nel lungo periodo.<\/p>\n<p class=\"indent\">Prima che questi modelli siano ampiamente adottati nel settore dell\u2019istruzione e le infrastrutture e le modalit\u00e0 di apprendimento esistenti siano accantonate a favore di quelle basate sull\u2019IA generativa, si dovrebbe discutere riguardo alla sostenibilit\u00e0 e all\u2019attuabilit\u00e0 nel lungo periodo di un tale rivolgimento.<\/p>\n<hr \/>\n<p class=\"hanging-indent\"><sup>1 <\/sup>Trust, T., Whalen, J., &amp; Mouza, C.,\u00a0<em><a href=\"https:\/\/citejournal.org\/volume-23\/issue-1-23\/editorial\/editorial-chatgpt-challenges-opportunities-and-implications-for-teacher-education\" target=\"_blank\" rel=\"noopener\">Editorial: ChatGPT: Challenges, opportunities, and implications for teacher education<\/a>,<\/em> Contemporary Issues in Technology and Teacher Education, 23(1), 2023.<\/p>\n<p class=\"hanging-indent\"><sup>2 <\/sup>Tlili, A., Shehata, B., Adarkwah, M.A. et al, <em>What if the devil is my guardian angel: ChatGPT as a case study of using chatbots in education,<\/em> Smart Learning Environments, 10, 15 2023.<\/p>\n<p class=\"hanging-indent\"><sup>3 <\/sup>Holmes, W., Miao, F., <em>Guidance for generative AI in education and research<\/em>, UNESCO, Paris, 2023.<\/p>\n<p class=\"hanging-indent\"><sup>4 <\/sup>Vartiainen, H., Tedre, M., <em>Using artificial intelligence in craft education: crafting with text-to-image generative models<\/em>, Digital Creativity, 34:1, 1-21, 2023.<\/p>\n<p class=\"hanging-indent\"><sup>5 <\/sup>Bender, E.M., et al, <em>On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?, <\/em>Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (FAccT &#8217;21). Association for Computing Machinery, New York, 610\u2013623, 2021.<\/p>\n<p class=\"hanging-indent\"><sup>6 <\/sup>Bommasani , R., et al., <em>On the Opportunities and Risks of Foundation Models<\/em>, Center for Research on Foundation Models (CRFM) \u2014 Stanford University, 2021.<\/p>\n<p class=\"hanging-indent\"><sup>7 <\/sup>Bommasani, R., et al, <em>Picking on the Same Person: Does Algorithmic Monoculture lead to Outcome Homogenization?<\/em>, Advances in Neural Information Processing Systems, 2022.<\/p>\n<p class=\"hanging-indent\"><sup>8 <\/sup>Becker, B., et al, <em>Programming Is Hard &#8211; Or at Least It Used to Be: Educational Opportunities and Challenges of AI Code Generation,<\/em> Proceedings of the 54th ACM Technical Symposium on Computer Science Education V. 1 (SIGCSE 2023), Association for Computing Machinery, New York, 500\u2013506, 2023.<\/p>\n<p class=\"hanging-indent\"><sup>9 <\/sup>Cooper, G., <em>Examining Science Education in ChatGPT: An Exploratory Study of Generative Artificial Intelligence,<\/em> Journal of Science Education and Technology, 32, 444\u2013452, 2023.<\/p>\n","protected":false},"author":1,"menu_order":7,"template":"","meta":{"pb_show_title":"","pb_short_title":"","pb_subtitle":"","pb_authors":[],"pb_section_license":""},"chapter-type":[],"contributor":[],"license":[],"part":164,"_links":{"self":[{"href":"https:\/\/aiopentext.itd.cnr.it\/intelligenzaartificiale\/wp-json\/pressbooks\/v2\/chapters\/188"}],"collection":[{"href":"https:\/\/aiopentext.itd.cnr.it\/intelligenzaartificiale\/wp-json\/pressbooks\/v2\/chapters"}],"about":[{"href":"https:\/\/aiopentext.itd.cnr.it\/intelligenzaartificiale\/wp-json\/wp\/v2\/types\/chapter"}],"author":[{"embeddable":true,"href":"https:\/\/aiopentext.itd.cnr.it\/intelligenzaartificiale\/wp-json\/wp\/v2\/users\/1"}],"version-history":[{"count":1,"href":"https:\/\/aiopentext.itd.cnr.it\/intelligenzaartificiale\/wp-json\/pressbooks\/v2\/chapters\/188\/revisions"}],"predecessor-version":[{"id":189,"href":"https:\/\/aiopentext.itd.cnr.it\/intelligenzaartificiale\/wp-json\/pressbooks\/v2\/chapters\/188\/revisions\/189"}],"part":[{"href":"https:\/\/aiopentext.itd.cnr.it\/intelligenzaartificiale\/wp-json\/pressbooks\/v2\/parts\/164"}],"metadata":[{"href":"https:\/\/aiopentext.itd.cnr.it\/intelligenzaartificiale\/wp-json\/pressbooks\/v2\/chapters\/188\/metadata\/"}],"wp:attachment":[{"href":"https:\/\/aiopentext.itd.cnr.it\/intelligenzaartificiale\/wp-json\/wp\/v2\/media?parent=188"}],"wp:term":[{"taxonomy":"chapter-type","embeddable":true,"href":"https:\/\/aiopentext.itd.cnr.it\/intelligenzaartificiale\/wp-json\/pressbooks\/v2\/chapter-type?post=188"},{"taxonomy":"contributor","embeddable":true,"href":"https:\/\/aiopentext.itd.cnr.it\/intelligenzaartificiale\/wp-json\/wp\/v2\/contributor?post=188"},{"taxonomy":"license","embeddable":true,"href":"https:\/\/aiopentext.itd.cnr.it\/intelligenzaartificiale\/wp-json\/wp\/v2\/license?post=188"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}