0
点赞
收藏
分享

微信扫一扫

知识蒸馏详解【DistilBERT】

文章目录

题目

知识蒸馏之DistilBERT

知识

大家都知道Bert模型是非常巨大的,因为要学好一门知识,谁都是不容易的,更何况是一个没有感情没有大脑的模型,它唯一能做的就是用它的大算力来解决问题,可能人一眼就分辨出一个句子的感情色彩,而机器就需要不断的试错改正才能达到和人类比较接近的效果。所以这也就为什么导致Bert模型的参数非常巨大,它的参数将近1亿的参数,简直是一个庞然大物,然而这在语言模型中还只是一个入门门槛的参数,所以我们难免需要为以后的应用而顾虑,“为了创造为创造是没有意义的,应该是为了应用而创造”,那么如何将这个庞大的模型给一个不太“聪明”的设备用呢?蒸馏!

知识蒸馏

举报

相关推荐

0 条评论