悲催博士僧

关注

memory network 没有成为BERT的基石的原因

悲催博士僧

关注

阅读 146

2023-01-28


transformer在预训练时,靠attention matrix能学到 预训练数据 里两两token之间的关系,也就是所说的上下文关系,然后在fine-tune时只会重写 fine-tune数据集 里的两两token之间的关系。

memory network 不能学到这些两两token之间的关系。


相关推荐

九月的栩

你有成为企业家的潜质吗?

九月的栩 120 0 0

梦为马

RocketMQ消费者没有成功消费消息的问题排查

梦为马 136 0 0

思考的鸿毛

工作十多年后反思自己为什么没有成为牛逼程序员

思考的鸿毛 69 0 0

Android开发指南

文件夹删除的文件怎么恢复?最笨的恢复就是没有成果的瞎忙

Android开发指南 124 0 0

北邮郭大宝

如果没有选中任何线型, CAcUiLineTypeComboBox 崩溃的原因

北邮郭大宝 49 0 0

楠蛮鬼影

lightdb/postgresql中的MemoryContext out of memory原因分析及解决思路

楠蛮鬼影 91 0 0

全栈顾问

技术领先、结合AI,数智平台成为企业数字化转型的基石

全栈顾问 74 0 0

闲鱼不咸_99f1

类访问自身的私有成员

闲鱼不咸_99f1 43 0 0

江南北

传奇开服赔钱失败的原因看你中招没有

江南北 55 0 0

爱动漫建模

BERT的学习

爱动漫建模 18 0 0

精彩评论(0)

0 0 举报