1
点赞
收藏
分享

微信扫一扫

深度之眼 nlp项目班

自然语言处理 技能树目录 

已报名入坑该课,需要底下留言,记录下知识点:

├──第00章 直播部分  

|   ├──00 20210509 开班典礼  

开班典礼 

|   |   └──开班典礼-2.vip 

|   ├──01 关于逻辑回归的一切  

AI工程师面试必备考题: 关于逻辑回归的一切 

|   |   └──AI工程师面试必备考题: 关于逻辑回归的一切-2.vip 

|   ├──02 案例讲解  

案例讲解 

|   |   └──案例讲解-2.vip 

|   ├──03 文本预处理实践  

文本预处理实践 

|   |   └──文本预处理实践-2.vip 

|   ├──04 项目一讲解  

项目一讲解 

|   |   └──项目一讲解-2.vip 

|   ├──05 项目二讲解  

项目二讲解 

|   |   └──项目二讲解-2.vip 

|   ├──06 Pytorch讲解  

Pytorch讲解 

|   |   └──Pytorch讲解-2.vip 

|   ├──07 基于RNN的文本生成  

基于RNN的文本生成 

|   |   └──基于RNN的文本生成-2.vip 

|   ├──08 Seq2Seq模型  

Seq2Seq模型 

|   |   └──Seq2Seq模型-2.vip 

|   ├──09 实现基于LSTM的情感分类  

实现基于LSTM的情感分类 

|   |   └──实现基于LSTM的情感分类-2.vip 

|   ├──10 代码实战:Transformer 源码解读代和基于Transformer模型的机器翻译  

代码实战:Transformer 源码解读代和基于Transformer模型的机器翻译 

|   |   └──代码实战:Transformer 源码解读代和基于Transformer模型的机器翻译-2.vip 

|   ├──11 基于 BERT 的文本分类  

基于 BERT 的文本分类 

|   |   └──基于 BERT 的文本分类-2.vip 

|   ├──12 GPT版本演变和在对话中的应用举例  

GPT版本演变和在对话中的应用举例 

|   |   └──GPT版本演变和在对话中的应用举例-2.vip 

|   ├──13 基于BERT-BILSTM-CRF的命名实体识别  

基于BERT-BILSTM-CRF的命名实体识别 

|   |   └──基于BERT-BILSTM-CRF的命名实体识别-2.vip 

|   ├──14 K-BERT Enabling Language Representation with Knowledge Graph  

K-BERT Enabling Language Representation with Knowledge Graph 

|   |   └──K-BERT Enabling Language Representation with Knowledge Graph-2.vip 

|   ├──15 A Fast and Accurate Dependency Parser using Neural Networks  

A Fast and Accurate Dependency Parser using Neural Networks 

|   |   └──A Fast and Accurate Dependency Parser using Neural Networks-2.vip 

|   ├──16 Translating Embeddings for Modeling Multi-relational Data,知识嵌入 TransE paper 解读  

20210912 NLP review18 Translating Embeddings for Modeling Multi-relational Data,知识嵌入 TransE paper 解读 

|   |   └──20210912 NLP review18 Translating Embeddings for Modeling Multi-relational Data,知识嵌入 TransE paper 解读-2.vip 

|   ├──17 GCN,GAT和GraphSAGE图神经网络模型讲述  

GCN,GAT和GraphSAGE图神经网络模型讲述 

|   |   └──GCN,GAT和GraphSAGE图神经网络模型讲述-2.vip 

|   ├──18 GCN 在文本分类中的应用  

GCN 在文本分类中的应用 

|   |   └──GCN 在文本分类中的应用-2.vip 

|   ├──19 知识图谱问答系统项目讲述  

知识图谱问答系统项目讲述 

|   |   └──知识图谱问答系统项目讲述-2.vip 

|   ├──20 基于多轮检索和生成式的聊天型机器人模型讲述  

基于多轮检索和生成式的聊天型机器人模型讲述 

|   |   └──基于多轮检索和生成式的聊天型机器人模型讲述-2.vip 

|   ├──21 Topic model as a black box 使用主题模型做相似语义搜索  

Topic model as a black box 使用主题模型做相似语义搜索 

|   |   └──Topic model as a black box 使用主题模型做相似语义搜索-2.vip 

|   ├──22 20211114 就业指导  

20211114 就业指导 

|   |   └──20211114 就业指导-2.vip 

|   └──目录.png  626.08kb

├──第01章 自然语言处理概述  

|   ├──1.课程初衷和NLP前景  

PART1  课程设计的初衷  

PART2  NLP岗位的薪资  

|   |   └──PART3  如何学习NLP  

|   ├──2.什么是自然语言处理  

PART1  什么是自然语言处理  

PART2  为什么自然语言处理难?  

|   |   └──PART3  从一个简单的机器翻译说起  

|   ├──3.自然语言处理的应用  

|   |   └──PART1  常见NLP应用场景  

|   ├──4.自然语言处理核心技术  

PART1  自然语言处理技术的三个维度  

|   |   └──PART2  自然语言处理几个关键技术  

|   └──目录.png  269.21kb

├──第02章 数据结构与算法基础  

|   ├──1.为什么要重视这些?  

PART1: 复杂度分析  

PART2: 复杂度与真实时间消耗  

|   |   └──PART3: 递归函数的复杂  

|   ├──2.动态规划算法  

PART1:动态规划与自然语言处理  

PART2:最大递增子串  

|   |   └──PART3:换硬币问题  

|   ├──3.DTW算法和应用  

PART1:DTW算法介绍  

PART2:DTW的应用场景  

|   |   └──PART3:DTW算法实现  

|   └──目录.png  107.34kb

├──第03章 机器学习基础 - 逻辑回归  

|   ├──1.逻辑回归中的条件概率  

PART1 逻辑回归的应用  

PART2 理解基准  

PART3 分类问题  

PART4 逻辑函数  

|   |   └──PART5 样本条件概率  

|   ├──2.逻辑回归的目标函数  

PART1 最大似然估计  

PART2 逻辑回归的似然函数  

|   |   └──PART3 逻辑回归的最大似然估计  

|   ├──3.梯度下降法  

PART1 求解函数的最小值最大值  

PART2 梯度下降法  

PART3 对于逻辑函数的求导  

|   |   └──PART4 逻辑回归的梯度下降法  

|   ├──4.随机梯度下降法  

PART1 梯度下降法的缺点  

PART2 随机梯度下降法  

PART3 小批量梯度下降法  

PART4 从零实现逻辑回归小批量梯度下降法  

|   |   └──PART5 比较不同的算法  

|   ├──5.案例:预测银行客户是否会开设定期存款账户  

PART1 问题描述  

PART2 数据理解  

PART3 数据预处理  

PART4 模型的训练  

PART5 模型评估  

|   |   └──PART6 编程实现  

|   └──目录.png  425.37kb

├──第04章 模型的泛化  

|   ├──1.理解什么是过拟合  

PART1 逻辑回归的参数  

PART2 当数据线性可分的时候  

PART3 控制参数的大小  

|   |   └──PART4 什么是过拟合  

|   ├──2.如何防止过拟合现象  

PART1 模型的泛化能力  

PART2 模型的过拟合  

PART3 模型复杂度与过拟合  

|   |   └──PART4 正则的作用  

|   ├──3.L1与L2的正则  

PART1 常见的两种正则  

PART2 L1和L2正则的本质区别  

PART3 L1的不足之处  

|   |   └──PART4 交叉验证  

|   ├──4.正则与先验的关系  

PART1 最大后验估计  

PART2 先验与正则之间的关系  

|   |   └──PART3 最大后验估计趋近于最大似然估计  

|   ├──5.案例:LR中的调参  

PART1 模型的超参数  

PART2 GridSearchCV的使用  

|   |   └──PART3 LR的调参  

|   └──目录.png  193.90kb

├──第05章 文本处理  

|   ├──1.文本分析流程与分词  

PART1 文本分词流程  

PART2 分词工具的使用  

PART3 最大匹配算法  

|   |   └──PART4 考虑语义的一种分词方法  

|   ├──2.停用词与词的标准化  

PART1 词的过滤  

|   |   └──PART2 词的标准化  

|   ├──3.拼写纠错  

PART1 拼写纠错与编辑距离  

|   |   └──PART2 循环词库的问题  

|   └──目录.png  75.73kb

├──第06章 文本表示  

|   ├──1.文本表示基础  

PART1 单词的表示  

PART2 句子的表示  

|   |   └──PART3 tf-idf向量  

|   ├──2.文本相似度  

PART1 计算欧式距离  

|   |   └──PART2 计算余弦相似度  

|   ├──3.词向量基础  

PART1 计算单词之间的相似度  

PART2 词向量基础  

|   |   └──PART3 句子向量  

|   └──目录.png  59.83kb

├──第07章 豆瓣评论的情感预测  

|   ├──1.项目介绍  

|   |   └──PART1 项目介绍  

|   └──目录.png  16.55kb

├──第08章 词向量技术  

|   ├──1.词向量基础  

PART1 单词的表示  

PART2 从独热编码到分布式表示  

|   |   └──PART3 词向量的训练  

|   ├──2.SkipGram模型详解  

PART1 训练词向量的核心思想  

PART2 SkipGram的目标函数  

|   |   └──PART3 SkipGram的负采样  

|   ├──3.其他词向量技术  

PART1 矩阵分解法  

PART2 Glove向量  

PART3 高斯词嵌入  

|   |   └──PART4 词向量总结  

|   ├──4.论文解读:基于SkipGram的Airbnb房屋推荐  

|   |   └──PART1 论文解读  

|   └──目录.png  95.60kb

├──第09章 搭建智能问答系统  

|   ├──1.问答系统架构  

PART1 问答系统的应用  

|   |   └──PART2 改进流程  

|   ├──2.每个模块剖析  

PART1 加入倒排表  

PART2 加入意图识别模块  

|   |   └──PART3 代码讲解以及项目作业  

|   └──目录.png  51.70kb

├──第10章 语言模型  

|   ├──1.语言模型基础  

PART1 什么是语言模型  

PART2 计算语言模型的概率  

|   |   └──PART3 马尔科夫假设  

|   ├──2.语言模型训练  

PART1 不同的语言模型  

|   |   └──PART2 语言模型的训练  

|   ├──3.语言模型的评估  

|   |   └──PART1 困惑度(perplexity)  

|   ├──4.语言模型的平滑  

PART1 训练语言模型时的问题  

PART2 Add-one Smoothing  

PART3 Add-K Smoothing  

|   |   └──PART4 Interpolation  

|   └──目录.png  83.49kb

├──第11章 深度学习基础  

|   ├──1.理解神经网络  

PART1 神经网络与深度学习  

PART2 神经网络与大脑  

|   |   └──PART3 神经网络中的神经元  

|   ├──2.不同类型的激活函数  

PART1 线性激活函数  

|   |   └──PART2 非线性激活函数  

|   ├──3.多层神经网络的前向传播  

PART1 多层神经网络形态  

PART2 拥有一层隐含层的神经网络  

|   |   └──PART3 多层神经网络  

|   ├──4.学习模型的参数-反向传播算法  

PART1 深度神经网络的损失函数  

|   |   └──PART2 反向传播算法  

|   ├──5.关于深度神经网络  

PART1 从浅层到深度模型  

|   |   └──PART2 其他常见的深度网络结构  

|   └──目录.png  130.28kb

├──第12章 Pytorch  

|   ├──1.Pytorch介绍  

PART1 常见的深度学习框架  

PART2 Pytorch框架的崛起  

|   |   └──PART3 Pytorch与Tensorflow多方位比较  

|   ├──2.Tensors  

PART1 Tensor的创建  

PART2 Tensor的操作  

|   |   └──PART3 Tensor与Numpy之间的转换  

|   ├──3.Autograd的讲解  

PART1 模型中的前向传播与反向传播  

|   |   └──PART2 利用autograd计算梯度  

|   ├──4.构建神经网络模型  

PART1 数据的构造  

PART2 模型的构造  

PART3 优化器选择和配置  

PART4 最后一步,主函数部分  

|   |   └──PART5 完整的程序  

|   └──目录.png  110.97kb

├──第13章 RNN与LSTM  

|   ├──1.RNN模型的必要性  

PART1 时间序列数据  

PART2 数据类型  

|   |   └──PART3 RNN的应用  

|   ├──2.RNN详解  

PART1 RNN细节  

|   |   └──PART2 语言模型与RNN  

|   ├──3.RNN的梯度问题  

PART1 梯度问题  

PART2 长序列依赖  

|   |   └──PART3 Gradient Clipping  

|   ├──4.LSTM和GRU  

PART1 LSTM的介绍  

PART2 双向LSTM  

|   |   └──PART3 GRU  

|   ├──5.RNN的变种  

|   |   └──PART1 RNN的不同结构  

|   └──目录.png  89.57kb

├──第14章 Seq2Seq模型  

|   ├──1.文本生成任务  

|   |   └──PART1 常见的文本生成任务  

|   ├──2.Seq2Seq详解  

PART1 设计模型的核心思想  

|   |   └──PART2 Seq2Seq模型  

|   ├──3.Decoding与Beam Search  

PART1 Greedy Decoding  

PART2 暴力搜索  

|   |   └──PART3 Beam Search  

|   └──目录.png  57.88kb

├──第15章 智能营销文案生成  

|   ├──1 直播讲解:代码案例讲解  

|   |   └──PART1 营销文案生成  

|   └──目录.png  20.82kb

├──第16章 动态词向量与ELMo技术  

|   ├──1.词向量的回顾  

PART1 词向量介绍  

|   |   └──PART2 词向量训练的常见方法  

|   ├──2.基于语言模型的词向量训练  

PART1 语言模型的回顾  

PART2 基于LSTM的词向量训练  

|   |   └──PART3 静态词向量的问题  

|   ├──3.ELMo模型讲解  

PART1 ELMo模型概述  

PART2 图像识别中的层次表示  

|   |   └──PART3 ELMo模型  

|   ├──4.代码实战:利用ELMo训练词向量  

|   |   └──PART1 基于ELMo的词向量训练  

|   └──目录.png  90.28kb

├──第17章 注意力机制与Transformer  

|   ├──1.注意力机制介绍  

PART1 浅谈注意力  

|   |   └──PART2 注意力机制类别  

|   ├──2.计算机视觉中的注意力机制  

PART1 Image Captioning  

PART2 这种架构的问题  

|   |   └──PART3 加入注意力机制  

|   ├──3.序列模型中的注意力机制  

PART1 Seq2Seq的一些问题  

|   |   └──PART2 Seq2Seq加入注意力机制  

|   ├──4.自注意力机制与Transformer  

PART1 自注意力机制介绍  

PART2 自注意力机制细节  

|   |   └──PART3 位置编码  

|   ├──5.代码实战:Transformer代码解读与实战  

|   |   └──PART1 Transformer代码解读与实战  

|   └──目录.png  112.33kb

├──第18章 Ber t与 AlBert  

|   ├──1.Auto.Encoding.vs.Auto.Regressive  

|   |   └──PART1 Auto Encoding , Mask auto encoding, auto_regressive  

|   ├──2.Bert详解  

|   |   └──PART1 设计模型的核心思想  

|   ├──3.ALBert详解  

|   |   └──PART1 设计模型的核心思想  

|   └──目录.png  41.90kb

├──第19章 GPT 及 XLNet  

|   ├──1.GPT  

|   |   └──PART1 GPT  

|   ├──2.AutoRegressive and AutoEncoding  

|   |   └──PART1 AutoRegressive and AutoEncoding  

|   ├──3.XLNet  

|   |   └──PART1 XLNet  

|   └──目录.png  29.76kb

├──第20章 命名实体识别和实体消歧  

|   ├──1.命名实体识别概论  

PART1 什么是命名实体识别  

PART2 命名识别识别的应用  

|   |   └──PART3 简历中抽取关键信息  

|   ├──2.命名实体识别不同方法  

PART1 实体识别方法  

PART2 基于规则的实体识别  

PART3 基于少数服从多数的方法  

PART4 基于非时间序列模型的分类  

|   |   └──PART5 基于时间序列模型的分类  

|   ├──3.实体消歧  

PART1 实体消歧介绍  

|   |   └──PART2 实体消歧解法  

|   ├──4.实体统一  

PART1 实体统一介绍  

|   |   └──PART2 实体统一解法  

|   └──目录.png  110.56kb

├──第21章 模型压缩  

|   ├──0.章节介绍  

|   |   └──PART1 章节介绍  

|   ├──1.auto_regressive.and.auto_encoding  

|   |   └──PART1 auto_regressive and auto_encoding  

|   ├──2.Quantization  

|   |   └──PART1 Quantization  

|   ├──3.Archtecture.Design.and.prune  

|   |   └──PART1 Archtecture Design and prune  

|   ├──4.Knowleadge.Distillation  

|   |   └──PART1 Knowleadge Distillation  

|   └──目录.png  56.13kb

├──第22章 关系抽取  

|   ├──1.信息抽取介绍  

PART1 什么是信息抽取  

PART2 指代消解与实体统一  

|   |   └──PART3 信息抽取的应用  

|   ├──2.关系抽取介绍  

PART1 关系抽取介绍  

PART2 Ontological Relation  

|   |   └──PART3 关系抽取方法概述  

|   ├──3.基于规则的关系抽取  

PART1 实体消歧介绍  

|   |   └──PART2 基于规则的方法论所存在的问题  

|   ├──4.基于监督学习的关系抽取  

PART1 关系识别本质上分类问题  

PART2 关系识别本质上是分类问题  

|   |   └──PART3 如何做分类  

|   └──目录.png  107.73kb

├──第23章 依存文法分析  

|   ├──1.从语法分析到依存文法分析  

PART1 Constituency structure  

|   |   └──PART2 Dependency structure  

|   ├──2.依存文法的语法和结构  

|   |   └──PART1 依存语法和结构  

|   ├──3.基于图的依存文法分析  

|   |   └──PART1 Graph-based dependency parser  

|   ├──4.Transition-based.依存文法分析  

|   |   └──PART1 Transition-based dependency parser  

|   ├──5.其他依存文法分析和应用  

PART1 Neural dependency parser  

|   |   └──PART2 依存文法分析的应用  

|   └──目录.png  85.94kb

├──第24章 知识图谱  

|   ├──1.知识图谱概论  

PART1 什么是知识图谱  

PART2 知识图谱的表示  

|   |   └──PART3 知识图谱与搜索  

|   ├──2.知识图谱构建与存储  

PART1 知识图谱的构建  

|   |   └──PART2 RDF与Property Graph  

|   ├──3.知识图谱的流程和设计  

PART1 知识图谱流程  

|   |   └──PART2 知识图谱的设计  

|   ├──4.基于知识图谱的金融反欺诈  

PART1 基于规则的方法  

|   |   └──PART2 基于概率统计的方法  

|   └──目录.png  89.88kb

├──第25章 图神经网络  

|   ├──1.卷积神经网络的回顾  

PART1 卷积  

|   |   └──PART2 CNN的卷积层回顾  

|   ├──2.图神经网络发展历程  

|   |   └──PART1 图神经网络发展历程  

|   ├──3.设计图中的卷积操作  

PART1 拉普拉斯算子和矩阵  

|   |   └──PART2 图的傅里叶变换  

|   ├──4.图中的信息传递  

|   |   └──PART1 节点信息传递  

|   ├──5.图卷积神经网络  

|   |   └──PART1 卷积核设计  

|   └──目录.png  81.65kb

├──第26章 图卷积网络与其他应用  

|   ├──1 Edge-embedding Methods  

PART1 GNN  

|   |   └──PART2 NRI模型详解  

|   ├──2 Relational data model  

PART1 文本分类和链路预测RGCN  

|   |   └──PART2 CompRGCN模型详解  

|   ├──3 推荐系统的应用  

|   |   └──PART1 KGCN模型详解  

|   ├──4 含有Attention机制图卷积模型  

PART1 Monet模型  

|   |   └──PART2 EGCN模型  

|   ├──5 图像领域的应用  

|   |   └──PART1 ST-GCN详解  

|   └──目录.png  83.21kb

├──第27章 贝叶斯相关  

|   ├──1 贝叶斯基础  

PART1  为什么需要贝叶斯?  

PART2  MLE, MAP与贝叶斯  

PART3  计算上的挑战  

|   |   └──PART4  贝叶斯线性回归  

|   ├──2 贝叶斯版本的朴素贝叶斯  

PART1  朴素贝叶斯回顾  

|   |   └──PART2  贝叶斯朴素贝叶斯  

|   ├──3 主题模型  

PART1  主题模型介绍  

|   |   └──PART2  主题模型的生成过程  

|   └──目录.png  66.61kb

├──课程资料  

|   └──course-info-master.zip 

├──目录.png  617.26kb

├──一手.jpg  473.85kb

└──一手.png  112.15kb

举报

相关推荐

1 条评论

资源是否还有,求