トランスフォーマー

Fabrizio Falchi and Manuel Gentile

トランスフォーマーは、データシーケンス(この場合、単語やトークン)の分析における循環ニューラルネットワークの限界を克服するために設計されたニューラルネットワークモデルです1

具体的には、トランスフォーマーはセルフアテンション機構を通じて、データシーケンスの分析を並列化し、これらのシーケンスの要素とそれらが現れる文脈との間の依存関係を抽出することを可能にします。

 


Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., … & Polosukhin, I., Attention is all you need, Advances in neural information processing systems, 30, 2017.

Licence

Icon for the Creative Commons Attribution 4.0 International License

AI for Teachers: an Open Textbook Copyright © 2024 by Fabrizio Falchi and Manuel Gentile is licensed under a Creative Commons Attribution 4.0 International License, except where otherwise noted.

Share This Book

AI for Teachers: an Open Textbook
Privacy Overview

This website uses cookies so that we can provide you with the best user experience possible. Cookie information is stored in your browser and performs functions such as recognising you when you return to our website and helping our team to understand which sections of the website you find most interesting and useful.