自然语言处理 技能树目录
已报名入坑该课,需要底下留言,记录下知识点:
├──第00章 直播部分
| ├──00 20210509 开班典礼
开班典礼
| | └──开班典礼-2.vip
| ├──01 关于逻辑回归的一切
AI工程师面试必备考题: 关于逻辑回归的一切
| | └──AI工程师面试必备考题: 关于逻辑回归的一切-2.vip
| ├──02 案例讲解
案例讲解
| | └──案例讲解-2.vip
| ├──03 文本预处理实践
文本预处理实践
| | └──文本预处理实践-2.vip
| ├──04 项目一讲解
项目一讲解
| | └──项目一讲解-2.vip
| ├──05 项目二讲解
项目二讲解
| | └──项目二讲解-2.vip
| ├──06 Pytorch讲解
Pytorch讲解
| | └──Pytorch讲解-2.vip
| ├──07 基于RNN的文本生成
基于RNN的文本生成
| | └──基于RNN的文本生成-2.vip
| ├──08 Seq2Seq模型
Seq2Seq模型
| | └──Seq2Seq模型-2.vip
| ├──09 实现基于LSTM的情感分类
实现基于LSTM的情感分类
| | └──实现基于LSTM的情感分类-2.vip
| ├──10 代码实战:Transformer 源码解读代和基于Transformer模型的机器翻译
代码实战:Transformer 源码解读代和基于Transformer模型的机器翻译
| | └──代码实战:Transformer 源码解读代和基于Transformer模型的机器翻译-2.vip
| ├──11 基于 BERT 的文本分类
基于 BERT 的文本分类
| | └──基于 BERT 的文本分类-2.vip
| ├──12 GPT版本演变和在对话中的应用举例
GPT版本演变和在对话中的应用举例
| | └──GPT版本演变和在对话中的应用举例-2.vip
| ├──13 基于BERT-BILSTM-CRF的命名实体识别
基于BERT-BILSTM-CRF的命名实体识别
| | └──基于BERT-BILSTM-CRF的命名实体识别-2.vip
| ├──14 K-BERT Enabling Language Representation with Knowledge Graph
K-BERT Enabling Language Representation with Knowledge Graph
| | └──K-BERT Enabling Language Representation with Knowledge Graph-2.vip
| ├──15 A Fast and Accurate Dependency Parser using Neural Networks
A Fast and Accurate Dependency Parser using Neural Networks
| | └──A Fast and Accurate Dependency Parser using Neural Networks-2.vip
| ├──16 Translating Embeddings for Modeling Multi-relational Data,知识嵌入 TransE paper 解读
20210912 NLP review18 Translating Embeddings for Modeling Multi-relational Data,知识嵌入 TransE paper 解读
| | └──20210912 NLP review18 Translating Embeddings for Modeling Multi-relational Data,知识嵌入 TransE paper 解读-2.vip
| ├──17 GCN,GAT和GraphSAGE图神经网络模型讲述
GCN,GAT和GraphSAGE图神经网络模型讲述
| | └──GCN,GAT和GraphSAGE图神经网络模型讲述-2.vip
| ├──18 GCN 在文本分类中的应用
GCN 在文本分类中的应用
| | └──GCN 在文本分类中的应用-2.vip
| ├──19 知识图谱问答系统项目讲述
知识图谱问答系统项目讲述
| | └──知识图谱问答系统项目讲述-2.vip
| ├──20 基于多轮检索和生成式的聊天型机器人模型讲述
基于多轮检索和生成式的聊天型机器人模型讲述
| | └──基于多轮检索和生成式的聊天型机器人模型讲述-2.vip
| ├──21 Topic model as a black box 使用主题模型做相似语义搜索
Topic model as a black box 使用主题模型做相似语义搜索
| | └──Topic model as a black box 使用主题模型做相似语义搜索-2.vip
| ├──22 20211114 就业指导
20211114 就业指导
| | └──20211114 就业指导-2.vip
| └──目录.png 626.08kb
├──第01章 自然语言处理概述
| ├──1.课程初衷和NLP前景
PART1 课程设计的初衷
PART2 NLP岗位的薪资
| | └──PART3 如何学习NLP
| ├──2.什么是自然语言处理
PART1 什么是自然语言处理
PART2 为什么自然语言处理难?
| | └──PART3 从一个简单的机器翻译说起
| ├──3.自然语言处理的应用
| | └──PART1 常见NLP应用场景
| ├──4.自然语言处理核心技术
PART1 自然语言处理技术的三个维度
| | └──PART2 自然语言处理几个关键技术
| └──目录.png 269.21kb
├──第02章 数据结构与算法基础
| ├──1.为什么要重视这些?
PART1: 复杂度分析
PART2: 复杂度与真实时间消耗
| | └──PART3: 递归函数的复杂
| ├──2.动态规划算法
PART1:动态规划与自然语言处理
PART2:最大递增子串
| | └──PART3:换硬币问题
| ├──3.DTW算法和应用
PART1:DTW算法介绍
PART2:DTW的应用场景
| | └──PART3:DTW算法实现
| └──目录.png 107.34kb
├──第03章 机器学习基础 - 逻辑回归
| ├──1.逻辑回归中的条件概率
PART1 逻辑回归的应用
PART2 理解基准
PART3 分类问题
PART4 逻辑函数
| | └──PART5 样本条件概率
| ├──2.逻辑回归的目标函数
PART1 最大似然估计
PART2 逻辑回归的似然函数
| | └──PART3 逻辑回归的最大似然估计
| ├──3.梯度下降法
PART1 求解函数的最小值最大值
PART2 梯度下降法
PART3 对于逻辑函数的求导
| | └──PART4 逻辑回归的梯度下降法
| ├──4.随机梯度下降法
PART1 梯度下降法的缺点
PART2 随机梯度下降法
PART3 小批量梯度下降法
PART4 从零实现逻辑回归小批量梯度下降法
| | └──PART5 比较不同的算法
| ├──5.案例:预测银行客户是否会开设定期存款账户
PART1 问题描述
PART2 数据理解
PART3 数据预处理
PART4 模型的训练
PART5 模型评估
| | └──PART6 编程实现
| └──目录.png 425.37kb
├──第04章 模型的泛化
| ├──1.理解什么是过拟合
PART1 逻辑回归的参数
PART2 当数据线性可分的时候
PART3 控制参数的大小
| | └──PART4 什么是过拟合
| ├──2.如何防止过拟合现象
PART1 模型的泛化能力
PART2 模型的过拟合
PART3 模型复杂度与过拟合
| | └──PART4 正则的作用
| ├──3.L1与L2的正则
PART1 常见的两种正则
PART2 L1和L2正则的本质区别
PART3 L1的不足之处
| | └──PART4 交叉验证
| ├──4.正则与先验的关系
PART1 最大后验估计
PART2 先验与正则之间的关系
| | └──PART3 最大后验估计趋近于最大似然估计
| ├──5.案例:LR中的调参
PART1 模型的超参数
PART2 GridSearchCV的使用
| | └──PART3 LR的调参
| └──目录.png 193.90kb
├──第05章 文本处理
| ├──1.文本分析流程与分词
PART1 文本分词流程
PART2 分词工具的使用
PART3 最大匹配算法
| | └──PART4 考虑语义的一种分词方法
| ├──2.停用词与词的标准化
PART1 词的过滤
| | └──PART2 词的标准化
| ├──3.拼写纠错
PART1 拼写纠错与编辑距离
| | └──PART2 循环词库的问题
| └──目录.png 75.73kb
├──第06章 文本表示
| ├──1.文本表示基础
PART1 单词的表示
PART2 句子的表示
| | └──PART3 tf-idf向量
| ├──2.文本相似度
PART1 计算欧式距离
| | └──PART2 计算余弦相似度
| ├──3.词向量基础
PART1 计算单词之间的相似度
PART2 词向量基础
| | └──PART3 句子向量
| └──目录.png 59.83kb
├──第07章 豆瓣评论的情感预测
| ├──1.项目介绍
| | └──PART1 项目介绍
| └──目录.png 16.55kb
├──第08章 词向量技术
| ├──1.词向量基础
PART1 单词的表示
PART2 从独热编码到分布式表示
| | └──PART3 词向量的训练
| ├──2.SkipGram模型详解
PART1 训练词向量的核心思想
PART2 SkipGram的目标函数
| | └──PART3 SkipGram的负采样
| ├──3.其他词向量技术
PART1 矩阵分解法
PART2 Glove向量
PART3 高斯词嵌入
| | └──PART4 词向量总结
| ├──4.论文解读:基于SkipGram的Airbnb房屋推荐
| | └──PART1 论文解读
| └──目录.png 95.60kb
├──第09章 搭建智能问答系统
| ├──1.问答系统架构
PART1 问答系统的应用
| | └──PART2 改进流程
| ├──2.每个模块剖析
PART1 加入倒排表
PART2 加入意图识别模块
| | └──PART3 代码讲解以及项目作业
| └──目录.png 51.70kb
├──第10章 语言模型
| ├──1.语言模型基础
PART1 什么是语言模型
PART2 计算语言模型的概率
| | └──PART3 马尔科夫假设
| ├──2.语言模型训练
PART1 不同的语言模型
| | └──PART2 语言模型的训练
| ├──3.语言模型的评估
| | └──PART1 困惑度(perplexity)
| ├──4.语言模型的平滑
PART1 训练语言模型时的问题
PART2 Add-one Smoothing
PART3 Add-K Smoothing
| | └──PART4 Interpolation
| └──目录.png 83.49kb
├──第11章 深度学习基础
| ├──1.理解神经网络
PART1 神经网络与深度学习
PART2 神经网络与大脑
| | └──PART3 神经网络中的神经元
| ├──2.不同类型的激活函数
PART1 线性激活函数
| | └──PART2 非线性激活函数
| ├──3.多层神经网络的前向传播
PART1 多层神经网络形态
PART2 拥有一层隐含层的神经网络
| | └──PART3 多层神经网络
| ├──4.学习模型的参数-反向传播算法
PART1 深度神经网络的损失函数
| | └──PART2 反向传播算法
| ├──5.关于深度神经网络
PART1 从浅层到深度模型
| | └──PART2 其他常见的深度网络结构
| └──目录.png 130.28kb
├──第12章 Pytorch
| ├──1.Pytorch介绍
PART1 常见的深度学习框架
PART2 Pytorch框架的崛起
| | └──PART3 Pytorch与Tensorflow多方位比较
| ├──2.Tensors
PART1 Tensor的创建
PART2 Tensor的操作
| | └──PART3 Tensor与Numpy之间的转换
| ├──3.Autograd的讲解
PART1 模型中的前向传播与反向传播
| | └──PART2 利用autograd计算梯度
| ├──4.构建神经网络模型
PART1 数据的构造
PART2 模型的构造
PART3 优化器选择和配置
PART4 最后一步,主函数部分
| | └──PART5 完整的程序
| └──目录.png 110.97kb
├──第13章 RNN与LSTM
| ├──1.RNN模型的必要性
PART1 时间序列数据
PART2 数据类型
| | └──PART3 RNN的应用
| ├──2.RNN详解
PART1 RNN细节
| | └──PART2 语言模型与RNN
| ├──3.RNN的梯度问题
PART1 梯度问题
PART2 长序列依赖
| | └──PART3 Gradient Clipping
| ├──4.LSTM和GRU
PART1 LSTM的介绍
PART2 双向LSTM
| | └──PART3 GRU
| ├──5.RNN的变种
| | └──PART1 RNN的不同结构
| └──目录.png 89.57kb
├──第14章 Seq2Seq模型
| ├──1.文本生成任务
| | └──PART1 常见的文本生成任务
| ├──2.Seq2Seq详解
PART1 设计模型的核心思想
| | └──PART2 Seq2Seq模型
| ├──3.Decoding与Beam Search
PART1 Greedy Decoding
PART2 暴力搜索
| | └──PART3 Beam Search
| └──目录.png 57.88kb
├──第15章 智能营销文案生成
| ├──1 直播讲解:代码案例讲解
| | └──PART1 营销文案生成
| └──目录.png 20.82kb
├──第16章 动态词向量与ELMo技术
| ├──1.词向量的回顾
PART1 词向量介绍
| | └──PART2 词向量训练的常见方法
| ├──2.基于语言模型的词向量训练
PART1 语言模型的回顾
PART2 基于LSTM的词向量训练
| | └──PART3 静态词向量的问题
| ├──3.ELMo模型讲解
PART1 ELMo模型概述
PART2 图像识别中的层次表示
| | └──PART3 ELMo模型
| ├──4.代码实战:利用ELMo训练词向量
| | └──PART1 基于ELMo的词向量训练
| └──目录.png 90.28kb
├──第17章 注意力机制与Transformer
| ├──1.注意力机制介绍
PART1 浅谈注意力
| | └──PART2 注意力机制类别
| ├──2.计算机视觉中的注意力机制
PART1 Image Captioning
PART2 这种架构的问题
| | └──PART3 加入注意力机制
| ├──3.序列模型中的注意力机制
PART1 Seq2Seq的一些问题
| | └──PART2 Seq2Seq加入注意力机制
| ├──4.自注意力机制与Transformer
PART1 自注意力机制介绍
PART2 自注意力机制细节
| | └──PART3 位置编码
| ├──5.代码实战:Transformer代码解读与实战
| | └──PART1 Transformer代码解读与实战
| └──目录.png 112.33kb
├──第18章 Ber t与 AlBert
| ├──1.Auto.Encoding.vs.Auto.Regressive
| | └──PART1 Auto Encoding , Mask auto encoding, auto_regressive
| ├──2.Bert详解
| | └──PART1 设计模型的核心思想
| ├──3.ALBert详解
| | └──PART1 设计模型的核心思想
| └──目录.png 41.90kb
├──第19章 GPT 及 XLNet
| ├──1.GPT
| | └──PART1 GPT
| ├──2.AutoRegressive and AutoEncoding
| | └──PART1 AutoRegressive and AutoEncoding
| ├──3.XLNet
| | └──PART1 XLNet
| └──目录.png 29.76kb
├──第20章 命名实体识别和实体消歧
| ├──1.命名实体识别概论
PART1 什么是命名实体识别
PART2 命名识别识别的应用
| | └──PART3 简历中抽取关键信息
| ├──2.命名实体识别不同方法
PART1 实体识别方法
PART2 基于规则的实体识别
PART3 基于少数服从多数的方法
PART4 基于非时间序列模型的分类
| | └──PART5 基于时间序列模型的分类
| ├──3.实体消歧
PART1 实体消歧介绍
| | └──PART2 实体消歧解法
| ├──4.实体统一
PART1 实体统一介绍
| | └──PART2 实体统一解法
| └──目录.png 110.56kb
├──第21章 模型压缩
| ├──0.章节介绍
| | └──PART1 章节介绍
| ├──1.auto_regressive.and.auto_encoding
| | └──PART1 auto_regressive and auto_encoding
| ├──2.Quantization
| | └──PART1 Quantization
| ├──3.Archtecture.Design.and.prune
| | └──PART1 Archtecture Design and prune
| ├──4.Knowleadge.Distillation
| | └──PART1 Knowleadge Distillation
| └──目录.png 56.13kb
├──第22章 关系抽取
| ├──1.信息抽取介绍
PART1 什么是信息抽取
PART2 指代消解与实体统一
| | └──PART3 信息抽取的应用
| ├──2.关系抽取介绍
PART1 关系抽取介绍
PART2 Ontological Relation
| | └──PART3 关系抽取方法概述
| ├──3.基于规则的关系抽取
PART1 实体消歧介绍
| | └──PART2 基于规则的方法论所存在的问题
| ├──4.基于监督学习的关系抽取
PART1 关系识别本质上分类问题
PART2 关系识别本质上是分类问题
| | └──PART3 如何做分类
| └──目录.png 107.73kb
├──第23章 依存文法分析
| ├──1.从语法分析到依存文法分析
PART1 Constituency structure
| | └──PART2 Dependency structure
| ├──2.依存文法的语法和结构
| | └──PART1 依存语法和结构
| ├──3.基于图的依存文法分析
| | └──PART1 Graph-based dependency parser
| ├──4.Transition-based.依存文法分析
| | └──PART1 Transition-based dependency parser
| ├──5.其他依存文法分析和应用
PART1 Neural dependency parser
| | └──PART2 依存文法分析的应用
| └──目录.png 85.94kb
├──第24章 知识图谱
| ├──1.知识图谱概论
PART1 什么是知识图谱
PART2 知识图谱的表示
| | └──PART3 知识图谱与搜索
| ├──2.知识图谱构建与存储
PART1 知识图谱的构建
| | └──PART2 RDF与Property Graph
| ├──3.知识图谱的流程和设计
PART1 知识图谱流程
| | └──PART2 知识图谱的设计
| ├──4.基于知识图谱的金融反欺诈
PART1 基于规则的方法
| | └──PART2 基于概率统计的方法
| └──目录.png 89.88kb
├──第25章 图神经网络
| ├──1.卷积神经网络的回顾
PART1 卷积
| | └──PART2 CNN的卷积层回顾
| ├──2.图神经网络发展历程
| | └──PART1 图神经网络发展历程
| ├──3.设计图中的卷积操作
PART1 拉普拉斯算子和矩阵
| | └──PART2 图的傅里叶变换
| ├──4.图中的信息传递
| | └──PART1 节点信息传递
| ├──5.图卷积神经网络
| | └──PART1 卷积核设计
| └──目录.png 81.65kb
├──第26章 图卷积网络与其他应用
| ├──1 Edge-embedding Methods
PART1 GNN
| | └──PART2 NRI模型详解
| ├──2 Relational data model
PART1 文本分类和链路预测RGCN
| | └──PART2 CompRGCN模型详解
| ├──3 推荐系统的应用
| | └──PART1 KGCN模型详解
| ├──4 含有Attention机制图卷积模型
PART1 Monet模型
| | └──PART2 EGCN模型
| ├──5 图像领域的应用
| | └──PART1 ST-GCN详解
| └──目录.png 83.21kb
├──第27章 贝叶斯相关
| ├──1 贝叶斯基础
PART1 为什么需要贝叶斯?
PART2 MLE, MAP与贝叶斯
PART3 计算上的挑战
| | └──PART4 贝叶斯线性回归
| ├──2 贝叶斯版本的朴素贝叶斯
PART1 朴素贝叶斯回顾
| | └──PART2 贝叶斯朴素贝叶斯
| ├──3 主题模型
PART1 主题模型介绍
| | └──PART2 主题模型的生成过程
| └──目录.png 66.61kb
├──课程资料
| └──course-info-master.zip
├──目录.png 617.26kb
├──一手.jpg 473.85kb
└──一手.png 112.15kb
资源是否还有,求