论文笔记:摘要任务(长文本)--- LONG DOCUMENT SUMMARIZATION WITH TOP-DOWNAND BOTTOM-UP INFERENCE
介绍
论文:《LONG DOCUMENT SUMMARIZATION WITH TOP-DOWNAND BOTTOM-UP INFERENCE》
渣翻:《采用自上而下以及自下而上推理的长文本摘要》
摘要
文本摘要的目的是压缩长文档并保留关键信息。摘要模型成功的关键是对源文档中单词或标记的潜在表示的忠实推断。最近的大多数模型都是用transformer encoder来推断潜在表征的,这种方法仅仅是自下而上的。另外,基于self-attention-based的推理模型面临着与序列长度有关的二次复杂性问题。因此,作者提出了一个原则性的推理框架来改善这两个方面的总结模型(自下而上,长文档导致注意力计算耗时)。作者提出的框架假设了文档的层次潜在结构,其中顶层在粗粒度的时间尺度上捕获长期依赖,而底层的token级别保留了细节。重要的是,这种分层结构使得标记表征能够以自下而上和自上而下的方式被更新。在自下而上的过程中,标记表征是通过local self-attention来推断的,以利用其效率。然后,自上而下的修正被应用于允许标记捕捉长距离的依赖性。在一组不同的摘要数据集上证明了所提出的框架的有效性,包括叙事、对话、科学文件和新闻。模型实现了(1)相较于full attention Transformers,在短文档上具有竞争性或更好的性能,具有更高的内存和计算效率;以及(2)最近高效的Transformers模型·,广泛地在长文档摘要基准上达到SOTA级别的性能。还表明,与近期提出的GPT-3模型相比,模型可以总结整本书,并使用0.27%的参数(464M vs. 175B)和少得多的训练数据取得有竞争力的性能。结果表明了所提出的框架的普遍适用性和好处。
简介
文本摘要主要的两种方式:抽取式和生成式。提取摘要模型从源文档中提取显著的片段(如单词、句子)来形成摘要,而抽象摘要系统的目的是通过对文档进行调整来生成语义连贯和语言流畅的摘要。最近的研究表明,生成式模型由于抽取式模型,下面作者将focuses on 生成式摘要。
生成式摘要的主流方法——Seq2Seq model(两段式模型,2014),和任意一个RNNs(循环神经网络,1997)实例化的编码器-解码器架构,或者是最近的Transformers模型。编码器部分负责推断出输入文档的潜在表征,解码器负责生成摘要。该论文研究如何推断良好的潜在表征,提高其摘要能力。(重点)作者提出了一个框架:
-
(1)假定一个文档的多尺度潜在结构( ?)
-
(2)协同使用自上而下以及自下而上的推理
在多尺度结构中,高级变量(如那些表示句子、片段的变量)以较粗的时间尺度和抽象的细节对文档进行建模,并且适合于捕获文档的长期依赖关系;相比之下低级变量(representing tokens)保留了详细信息,防止了摘要丢失关键细节。
【作者在这里推荐一下文章,顺带表达了自己的研究背景】
关于摘要生成的模型:Longformer、Pegesus、Bigbird(学习长文摘要的话,这几篇文章都值得看看)
Multi-level models:【关注的是抽取式摘要,并遵循自下而上的推理方法】(懒,不截了)
hierarchical top-down generative models:【这些模型中,在自下而上的路径分布参数中,高级随机变量的参数被计算为低级随机变量的函数,而在自上而下的路径分布参数中,低级变量的分布参数被作为高级变量的函数进行修正。虽然我们不假设文档潜在表示的随机性,但我们的编码器或推理模型遵循相同的想法来推断标记表示】
Transformers 模型 和 预训练模型:CamemBert【短文优势,长文劣势】
【【内容有点多,有机会看完再回来补充】】
Methods 方法
自底向上推理(Bottom-Up Inference)
自顶向下推理( Top-Down Inference)
【局部注意力的不足:很显然,局部注意力虽然效率提升了,但无法关注到全文信息。】
【为此,作者提出了这个自顶向下的推理方法】
作者将文档看作拥有二级多尺度(two-level multi-scale)的潜在结构;
那low level采用局部注意力机制计算;
top level 采用更粗糙的粒度(指的是区别token,采用sentences or segments),由于是使用大粒度,因此完全可以通过全局的自注意力计算。
在全注意力更新后的 top level representations 将被用于更新 bottom-up-inferred token representations 。然后下面 ↓ 这一部分就是一个N3层的top-down inference。
Token-Segment Cross-Attention
这这一层,每个ei都会通过交叉注意进行更新。
为了实例化自顶向下的推理方法(Top-Down Inference),作者表示need to make two choices:
- the number of top-levels above the token level.
- the unit representation for each top-level.
↑解释↑:需要选择一个 top level,使得模型能应用full self-attention,一般的选择有句子、段落、章节,如何选?这取决于上面choice 1. 中提到的number。
Pool Methods(池化层)
(小结)如前所述,作者在当前的工作中使用了一个单一的顶层,由固定长度的段组成。
段表示(segment representations)通过池化标记表示( pooling token representations)进行初始化,承接前文中使用到的符号,假设一个分为 M 段的文档,第 j 段的嵌入初始化如下所示↓
实验
【自己去看】
【不过2022年4月13日,在paperwithcode中摘要任务,对arxiv数据集,SOTA级别,Rouge 得分 > 50 (首次)】