0
点赞
收藏
分享

微信扫一扫

阿里本地生活-认知组暑期实习一面

Java架构领域 2022-04-26 阅读 50
面试

1.过往任务中,介绍最得意的一个?
2.数据增强怎样进行的?
3.NLP还有没有其他数据增强的方法?
在这里插入图片描述
[link]https://zhuanlan.zhihu.com/p/342032812
4.Bert的3种Embedding是什么?
token Embedding、Position Embedding、Segment Embedding
5.Bert有哪些变种?分别做了什么改进?

变种名称改进点
XLNet

提出PLM(排列语言模型)学习被遮掩(Mask)的token之间的关系

Bert_wwm

同时遮蔽子词,全词覆盖

ERNIE

1.mask掉实体单元,引入命名实体外部知识;
2.训练时采用Dynamic Masking;
3.改变Adam优化器中参数

SpanBert

1.SpanMask, 随机遮盖连续一段字比遮盖掉分散字好;
2.加入SBO训练目标,使得被遮盖Span边界的词向量能学习到Span的内容;
3.不采用NSP任务,直接用一句长句训练,适合抽取式问答。

ALBert

1.词向量维度小于encoder输出值维度,降低参数量;
2.FC层和attention层都参数共享,提升训练速度;
3.提出新任务SOP(句子顺序预测),只保留关系一致性预测;
4.移除dropout,效果竟然提升。

6.实体链接指什么?实体库中没有对应的实体怎么办?

  • 实体链接(entity linking)就是将一段文本中的某些字符串映射到知识库中对应的实体上。
  • 如果知识库中没有某一mention对应的实体项,则认为该mention不可链接到当前知识库,标记为NIL。

7.嵌套NER该怎样解决?
[link] https://zhuanlan.zhihu.com/p/126347862浅谈Nested NER
8.怎样构建训练语料库?
BIO标注

举报

相关推荐

腾讯前端暑期实习一面

字节(飞书)暑期实习一面

字节暑期实习一面,二面已约

2022字节暑期后端实习生一面

阿里一面

[面经] 阿里一面

0 条评论