5
La seconda posizione estrema quando si parla di IA è l’uso indiscriminato o l’abuso della tecnologia. L’intelligenza artificiale funziona in modo diverso dall’intelligenza umana. A causa della spacifica situazione, della progettazione o dei dati, i sistemi di IA possono funzionare in modo diverso da quanto ci si aspetta.
Ad esempio, un’applicazione sviluppata utilizzando una serie di dati per un determinato scopo non funzionerà altrettanto bene su altri dati per un altro scopo. È utile conoscere i limiti dell’Intelligenza Artificiale e correggerli: è bene non limitarsi all’IA, ma imparare a conoscerne i vantaggi e i limiti.
Perpetuazione degli stereotipi
Google translate impara a tradurre da Internet. I suoi “data miner” esplorano il web pubblico alla ricerca di dati da cui imparare. Oltre al linguaggio, l’intelligenza artificiale impara che il numero di meccanici maschi è superiore a quello delle donne. Che il numero di infermiere donne eclissa quello degli infermieri uomini. Non è in grado di distinguere tra ciò che è “vero” e ciò che è il risultato di stereotipi e altri pregiudizi. Così, Google Translate finisce per propagare ciò che apprende, cementando ulteriormente gli stereotipi1:
I problemi si manifestano nell’IA ogni volta che un singolo caso si discosta da quello della maggioranza (sia che questa rappresenti fedelmente la maggioranza nel mondo reale, sia che si tratti solo della maggioranza rappresentata da Internet). Nelle classi, l’insegnante deve compensare le lacune del sistema. E, se necessario, indirizzare l’attenzione degli studenti verso un testo alternativo.
EXPLORE
Riesci a trovare uno stereotipo in Google Translate? Giocate a tradurre da e verso lingue diverse. Facendo clic sulle due frecce tra le caselle, è possibile invertire ciò che si sta traducendo (questo è ciò che abbiamo fatto per l’esempio mostrato sopra).
Lingue come il turco hanno la stessa parola per “lui” e “lei”. Molti stereotipi vengono alla luce quando si traduce dal turco e viceversa. Si noti che molte lingue hanno un pregiudizio maschile: si presume che una persona sconosciuta sia di sesso maschile. Questo non è il pregiudizio dell’applicazione. Ciò che è sconvolgente nel nostro esempio è che l’infermiere maschio viene trasformato in femmina.
Misure di precisione multiple
I sistemi di intelligenza artificiale fanno previsioni: se ha capito un argomento, su ciò che uno studente dovrebbe studiare in seguito, su quale divisione del gruppo è buona per una classe o quando uno studente è a rischio di abbandono. Spesso queste previsioni sono accompagnate da una percentuale. Questo numero ci dice quanto il sistema ritiene buone le sue previsioni.
Per sua natura, le previsioni possono essere errate. In molte applicazioni, questo errore è accettabile. In alcuni casi, invece, non lo è. Inoltre, il modo in cui questo errore viene calcolato non è fisso. Esistono diverse misure e il programmatore sceglie quella che ritiene più rilevante. Spesso l’accuratezza cambia in base all’input stesso.
Poiché in classe questi sistemi fanno previsioni sui bambini, spetta all’insegnante giudicare ciò che è accettabile e agire quando una decisione presa dall’IA non è appropriata. Per fare questo, è necessario un po’ di background sulle tecniche di IA e sugli errori più comuni ad esse associati.
1 Barocas, S., Hardt, M., Narayanan, A., Fairness and machine learning Limitations and Opportunities, 2022.