0
点赞
收藏
分享

微信扫一扫

历史最全最新中文自然语言处理预训练模型汇总分享


历史最全最新中文自然语言处理预训练模型汇总分享_自动驾驶

    在自然语言处理领域中,预训练语言模型(Pretrained Language Models)已成为非常重要的基础技术,本仓库主要收集目前网上公开的一些高质量中文预训练模型,并将持续更新。包含自然语言理解系列模型,如BERT、RoBERTa、ALBERT、NEZHA、XLNET、MacBERT、ELECTRA、ZEN、ERNIE。自然语言生产系列模型,如GPT、NEZHA-GEN、UniLM

    资源整理自网络,模型下载地址见源地址:

https://github.com/lonePatient/awesome-pretrained-chinese-nlp-models

历史最全最新中文自然语言处理预训练模型汇总分享_tensorflow_02

历史最全最新中文自然语言处理预训练模型汇总分享_自动驾驶_03

历史最全最新中文自然语言处理预训练模型汇总分享_神经网络_04

历史最全最新中文自然语言处理预训练模型汇总分享_深度学习_05

举报

相关推荐

NLP篇5:自然语言处理预训练

0 条评论