Manuel Gentile e Fabrizio Falchi

I transformer sono un modello di rete neurale progettato per superare i limiti delle reti neurali ricorrenti nell’analisi delle sequenze di dati (nel nostro caso parole o token)1.

Nello specifico i transformer, attraverso il meccanismo dell’autoattenzione, rendono possibile tracciare parallelismi tra le analisi delle sequenze dei dati e desumere dipendenze tra gli elementi di queste sequenze e i contesti in cui si presentano.


Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., … & Polosukhin, I., Attention is all you need, Advances in neural information processing systems, 30, 2017.

License

Icon for the Creative Commons Attribution 4.0 International License

IA per gli insegnanti: un libro aperto Copyright © by Manuel Gentile e Fabrizio Falchi is licensed under a Creative Commons Attribution 4.0 International License, except where otherwise noted.

Share This Book

IA per gli insegnanti: un libro aperto
Privacy Overview

This website uses cookies so that we can provide you with the best user experience possible. Cookie information is stored in your browser and performs functions such as recognising you when you return to our website and helping our team to understand which sections of the website you find most interesting and useful.