0
点赞
收藏
分享

微信扫一扫

Transformer原理与代码精讲

课程链接:​​​https://edu.51cto.com/course/30124.html​​

Transformer发轫于NLP(自然语言处理),并跨界应用到CV(计算机视觉)领域。目前已成为深度学习的新范式,影响力和应用前景巨大。


本课程对Transformer的原理和PyTorchTensorFlow 2代码进行精讲,来帮助大家掌握其详细原理和具体实现。


原理精讲部分包括:注意力机制和自注意力机制、Transformer的架构概述、Encoder的多头注意力(Multi-Head Attention)、Encoder的位置编码(Positional Encoding)、残差链接(Residual Connection)、层规范化(Layer Normalization)、FFN(Feed Forward Network)、Transformer的训练及性能、Transformer的机器翻译工作流程。 


代码精讲部分使用Jupyter Notebook对Transformer的PyTorchTensorFlow 2实现代码进行逐行解读,包括:安装PyTorch/TensorFlow、Transformer的数据集加载与预处理代码解读、Transformer的位置编码与多头注意力代码解读、Transformer的Transformer类代码解读、Transformer的优化器与损失函数代码解读、Transformer的训练代码解读、Transformer的推理与权重保存代码解读。

举报

相关推荐

0 条评论