40
I pericoli specifici di un ricorso all’IA generativa comprendono:
Imprecisioni e allucinazioni: i modelli generativi sfornano meravigliosamente linguaggio coerente, fluente e simile a quello umano. In tutta quella disinvoltura si celano errori fattuali, verità limitate, riferimenti inventati e pura fantasia, tutto ciò viene definito con il termine “allucinazioni”1,2. Nella parte inferiore dell’interfaccia di Chat-GPT, alla base di tutte le conversazioni, viene riportato l’avviso che “Chat-GPT potrebbe produrre informazioni imprecise su persone, luoghi o fatti”1. La precisione di Chat-GPT si aggirerebbe attorno al 60% o a percentuali minori, a seconda dell’argomento2,3.
A peggiorare le cose c’è il fatto che Chat-GPT ha la tendenza a presentare delle affermazioni come verità, senza prove o precisazioni. Quando le vengono chiesti espressamente dei riferimenti, può menzionare fonti che non esistono o non suffragano quanto presentato nel testo come verità4,2. Eppure, molti utenti tendono ad usarla come un «motore di ricerca su Internet, una biblioteca da consultare, o persino come Wikipedia»5. Quando un insegnante o uno studente la utilizza per ottenere informazioni su un argomento che non conosce, corre il rischio di apprendere cose sbagliate o presentare false conoscenze ad altri1,5.
Il successo degli LLM odierni è insito nell’enorme numero di parametri e nel quantitativo di dati di addestramento, che essi utilizzano per modellare il modo in cui le parole sono combinate fra loro nella comunicazione umana. Insegnanti e studenti dovrebbero sempre ricordare che il testo generato dai modelli conversazionali non è collegato alla comprensione di questo testo da parte di quei modelli, o persino a un concetto di realtà1. Anche se essi possono manipolare la forma della lingua con svariati gradi di successo, non hanno accesso ai risultati che stanno dietro questa forma6. «Un pensiero che riproduce quello umano si basa su spiegazioni possibili e sulla correzione degli errori, un processo che limita gradualmente quali possibilità possano essere considerate razionalmente… Laddove gli esseri umani sono limitati nei tipi di spiegazioni che possiamo razionalmente ipotizzare, i sistemi di apprendimento automatico possono apprendere sia che la terra è piatta sia che la terra è rotonda»7.
Spostare o accrescere potere e controllo: l’IA generativa dipende da notevoli quantità di dati, dalla potenza dei calcoli e da metodi di calcolo avanzati. Solo un gruppo ristretto di società, Paesi e lingue ha accesso a tutto ciò. Eppure, dal momento che sempre più persone adottano queste tecnologie, gran parte dell’umanità è obbligata a conformarsi alle nuove regole, pertanto viene alienata e costretta a perdere la propria capacità espressiva1.
Mentre i creatori mantengono il potere, esternalizzano la responsabilità. L’onere della sanificazione degli output di Chat-GPT, per esempio, è stato imposto a dei lavoratori kenioti «che hanno dovuto vagliare attentamente contenuti violenti e disturbanti come abusi sessuali, discorsi di odio e violenza»4.
Copyright e violazione della proprietà intellettuale: gran parte del know-how tecnologico dei sistemi generativi è custodito entro le mura di alcune società. Eppure, i dati sono prelevati dalla collettività1. È corretto prendere delle fotografie rese pubbliche su alcune piattaforme e utilizzarle a insaputa e senza il consenso del soggetto interessato? E se, per esempio, il viso di una persona fosse usato per fare della propaganda di stampo razzista8? Rendere privati dei contenuti è l’unico modo per bloccare l’IA generativa?
Oltre ai dati pubblici i modelli linguistici possono prelevare dei contenuti da dei paywall e sintetizzarli per gli utenti. È risaputo che i modelli per la generazione di immagini hanno composto delle fotografie i cui frammenti mostravano chiaramente la filigrana. Vi è inoltre la questione delle licenze Creative Commons con le quali un autore rende il proprio lavoro accessibile al pubblico, ma deve essere citato ogniqualvolta esso venga usato, cosa che i modelli potrebbero fare oppure no.
Per gli insegnanti tutto ciò solleva problemi morali, etici e legali. Se prendono dei contenuti generati da dei modelli sono liberi di utilizzarli e divulgarli a proprio piacimento? Chi è responsabile se essi sono tutelati da copyright o concessi in licenza con Creative Commons9? Come fa l’utente a sapere che sta usando proprietà di altre persone1? Sfortunatamente sull’argomento non esistono linee guida chiare. Dobbiamo aspettare, vedere e procedere con cautela fino a che non saranno adottate delle direttive.
Gli effetti a lungo termine dell’uso dell’IA generativa applicata all’istruzione: per quanto concerne tutti i modi in cui l’IA generativa può essere utilizzata in ambito didattico, non è chiaro quali siano gli effetti nel lungo periodo:
- dal momento che l’atto di scrivere struttura anche il pensiero, in che modo scrivere traendo ampiamente spunto dall’IA generativa influenza gli studenti1?
- Incide sulla portata della riflessione, del pensiero critico, della creatività e delle capacità di risoluzione dei problemi1?
- Causerà un eccessivo affidamento degli studenti sull’IA per via dell’assenza di fatica con la quale si può avere accesso a informazioni e soluzioni1,10,9?
- Gli studenti continueranno ad essere motivati e a voler conoscere il mondo traendo le proprie conclusioni10?
- Tutto ciò ci risucchierà in una visione del mondo scollegata dalla realtà attorno a noi?
- Quante competenze perderemo per ogni passo avanti compiuto verso l’acquisizione della padronanza delle tecniche di elaborazione di prompt?
Anche se concentrarsi su competenze di livello superiore e lasciare la parte noiosa del lavoro all’IA sembrerebbe una buona idea, la pratica ripetuta di competenze di ordine inferiore, che sono fondamentali, la perseveranza e anche la frustrazione che deriva da ciò, spesso sono necessarie per acquisire quelle di livello superiore1,8. Ciò è necessario anche per ridurre la dipendenza dei discenti dalla tecnologia per svolgere calcoli elementari, che mina la capacità di agire dell’essere umano, e la loro fiducia nell’affrontare il mondo da soli.
Alcune contromisure per proteggersi da danni potenzialmente a lungo termine potrebbero essere:
- usare i modelli linguistici solo come punto di partenza, per generare possibilità e prendere in esame prospettive diverse, piuttosto che come un’unica soluzione per tutte le esigenze10;
- verificare l’output dei modelli con esperimenti diretti o fonti alternative;
- coinvolgere sempre l’insegnante10;
- promuovere l’apprendimento sociale e aumentare l’esposizione all’output creativo dell’essere umano1;
- cercare sempre attivamente altre risorse didattiche e attività che non prevedano l’uso di dispositivi informatici10;
- cercare di trovare altre spiegazioni, altri modi di pensare, altri approcci.
È sempre un bene monitorare la tendenza ad attribuire false equivalenze tra esseri umani e macchine o persino a decretare la superiorità dell’IA generativa. Per esempio, si sostiene spesso che gli esseri umani non sono in grado di incamerare tanti dati quanto l’IA. Masticare gigabyte su gigabyte di dati è necessario agli esseri umani considerate le loro abilità nell’identificazione di schemi, nell’estrapolazione e di natura creativa? Il fatto che l’IA possa analizzare il contenuto di cento libri in un solo istante, comporta necessariamente che uno studente non possa apprezzare o trarre beneficio da uno solo tra essi? Fare qualcosa più velocemente è necessariamente positivo e indica che è ciò che vogliamo adottare per noi8?
Dobbiamo ricordare che non si insegna ai bambini affinché vivano nel mondo e con le tecnologie che esistono oggi. Sono preparati o verranno loro date le competenze per prepararsi per un mondo che arriverà tra dieci, quindici anni8. Il modo in cui Chat-GPT ha rivoluzionato ogni cosa in un anno pone la questione di cosa sarà l’istruzione dopo il superamento di Chat-GPT piuttosto che all’uso di Chat-GPT. Gli studenti devono essere in grado di pensare con la propria testa, essere resilienti in modo da adeguarsi al cambiamento e crescere con le nuove sfide che la vita pone loro davanti.
L’obiettivo ultimo dell’istruzione non può essere produrre degli operatori efficienti di macchine intelligenti o lavoratori formiche alla catena di montaggio, ma contribuire a formare cittadini a tutto tondo, in grado di pensare liberamente, creativi e resilienti. Bisogna rimuginare su questioni cruciali, valutare gli effetti a lungo termine prima di decidere come meglio adottare una tecnologia per raggiungere questo obiettivo. Questo, cosa più importante di qualsiasi altra discussa nelle pagine di questo testo, non può essere demandato all’IA, generativa o meno.
1 Holmes, W., Miao, F., Guidance for generative AI in education and research, UNESCO, Paris, 2023.
2 Tlili, A., Shehata, B., Adarkwah, M.A. et al, What if the devil is my guardian angel: Chat-GPT as a case study of using chatbots in education, Smart Learning Environments, 10, 15 2023.
3 Lewkowycz, A., Andreassen, A., Dohan, D. et al, Solving Quantitative Reasoning Problems with Language Models, Google Research, 2022.
4 Cooper, G., Examining Science Education in ChatGPT: An Exploratory Study of Generative Artificial Intelligence, Journal of Science Education and Technology, 32, 444–452, 2023.
5 Trust, T., Whalen, J., & Mouza, C., Editorial: ChatGPT: Challenges, opportunities, and implications for teacher education, Contemporary Issues in Technology and Teacher Education, 23(1), 2023.
6 Bender, E.M., et al, On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?, Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (FAccT ’21). Association for Computing Machinery, New York, 610–623, 2021.
7 Chomsky, N., Roberts, I., Watumull, J., Noam Chomsky: The False Promise of Chat-GPT, The New York Times, 2023.
8 Vartiainen, H., Tedre, M., Using artificial intelligence in craft education: crafting with text-to-image generative models, Digital Creativity, 34:1, 1-21, 2023.
9 Becker, B., et al, Programming Is Hard – Or at Least It Used to Be: Educational Opportunities and Challenges of AI Code Generation, Proceedings of the 54th ACM Technical Symposium on Computer Science Education V. 1 (SIGCSE 2023), Association for Computing Machinery, New York, 500–506, 2023.
10 Enkelejda, K., et al, Chatgpt for Good? on Opportunities and Challenges of Large Language Models for Education, EdArXiv, 2023.