0
点赞
收藏
分享

微信扫一扫

RecAdam optimizer 阅读笔记

莞尔小迷糊 2022-07-27 阅读 13


Recall and Learn: Fine-tuning Deep Pretrained Language Models with Less Forgetting

摘要

在优化器角度,全任务提升BERT fine-tune的效果

做法

提出 模拟预训练,可以fine-tune时 无数据预训练
提出 目标Shifting,可以在 模拟预训练 同时训练fine-tune目标

大概思想

loss使之和 fine-tune之前 的模型参数有关

RecAdam optimizer 阅读笔记_数据

其中θ是fine-tune时模型,θ*是fine-tune之前的模型

实验结果

RecAdam optimizer 阅读笔记_数据_02


举报

相关推荐

0 条评论