0
点赞
收藏
分享

微信扫一扫

ConvTrans: [Neurips 2019]

boomwu 2022-05-02 阅读 50

论文原名

Enhancing the Locality and Breaking the Memory Bottleneck of Transformer on Time                                                            Series Forecasting

论文粗读

原始Transformer中的Self-Attention结构如下: 

 

而论文中设计的Convolutional Self-Attention更适合时序数据, 因为它能够增强模型对时间序列中局部上下文信息的建模能力,从而降低异常点对预测结果的影响程度,提高预测准确性。这也是ConvTrans(Convolution Transformer)的名称由来。 

Self-Attention中的计算 Q、K、V 的过程可能导致数据的关注点出现异常,如上图中(a)所示,由于之前的注意力得分仅仅是单时间点之间关联的体现,(a)中中间的红点只关注到与它值相近的另一单时间红点,而没有考虑到自身上下文(即变化趋势)。即希望增强局部上下文的建模能力,得到图(c)中的效果。

 

论文链接

https://arxiv.org/pdf/1907.00235.pdf

参考资料

Transformer 在时间序列预测中的应用

举报

相关推荐

0 条评论