Manuel Gentile e Fabrizio Falchi

I transformer sono un modello di rete neurale progettato per superare i limiti delle reti neurali ricorrenti nell’analisi delle sequenze di dati (nel nostro caso parole o token)1.

Nello specifico i transformer, attraverso il meccanismo dell’autoattenzione, rendono possibile tracciare parallelismi tra le analisi delle sequenze dei dati e desumere dipendenze tra gli elementi di queste sequenze e i contesti in cui si presentano.


Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., … & Polosukhin, I., Attention is all you need, Advances in neural information processing systems, 30, 2017.

License

Icon for the Creative Commons Attribution 4.0 International License

IA per gli insegnanti: un libro aperto Copyright © by Manuel Gentile e Fabrizio Falchi is licensed under a Creative Commons Attribution 4.0 International License, except where otherwise noted.

Share This Book