机器学习AI算法工程 公众号:datayx
本课程会介绍最近NLP领域取得突破性进展的BERT模型。首先会介绍一些背景知识,包括Word Embedding、RNN/LSTM/GRU、Seq2Seq模型和Attention机制等。然后介绍BERT的基础Transformer模型,这个模型最初用于机器翻译,但是它提出的Self-Attention被用于替换传统的RNN/LSTM/GRU模型。再然后是介绍BERT出现之前的Universal Sentence Embedding模型,包括ELMo和OpenAI GPT。接着介绍BERT模型是什么,它解决了之前模型的哪些问题从而可以达到这么好的效果。代码分析和案例介绍,通过解决实际问题加深理解
学习本课程你将学到:
了解一些NLP背景知识,包括Word Embedding、RNN/LSTM/GRU、Seq2Seq模型和Attention机制等。
了解BERT的基础Transformer模型 。
视频、PPT地址
关注微信公众号 datayx 然后回复 bert 即可获取。
AI项目体验地址 https://loveai.tech