Transformer是一种基于encoder-decoder结构的模型,它抛弃了以往的seq2seq模型中的RNN,采用Self—attention或者Mulit-head-self-attention使得输入的数据可以并行处理,提高运行效率。本资源整理了Transformer在计算机视觉各个领域应用的论文,分享给需要的朋友。
内容截图
微信扫一扫
Transformer是一种基于encoder-decoder结构的模型,它抛弃了以往的seq2seq模型中的RNN,采用Self—attention或者Mulit-head-self-attention使得输入的数据可以并行处理,提高运行效率。本资源整理了Transformer在计算机视觉各个领域应用的论文,分享给需要的朋友。
内容截图
相关推荐