课程链接:https://edu.51cto.com/course/30124.html
Transformer发轫于NLP(自然语言处理),并跨界应用到CV(计算机视觉)领域。目前已成为深度学习的新范式,影响力和应用前景巨大。
本课程对Transformer的原理和PyTorch及TensorFlow 2代码进行精讲,来帮助大家掌握其详细原理和具体实现。
原理精讲部分包括:注意力机制和自注意力机制、Transformer的架构概述、Encoder的多头注意力(Multi-Head Attention)、Encoder的位置编码(Positional Encoding)、残差链接(Residual Connection)、层规范化(Layer Normalization)、FFN(Feed Forward Network)、Transformer的训练及性能、Transformer的机器翻译工作流程。
代码精讲部分使用Jupyter Notebook对Transformer的PyTorch及TensorFlow 2实现代码进行逐行解读,包括:安装PyTorch/TensorFlow、Transformer的数据集加载与预处理代码解读、Transformer的位置编码与多头注意力代码解读、Transformer的Transformer类代码解读、Transformer的优化器与损失函数代码解读、Transformer的训练代码解读、Transformer的推理与权重保存代码解读。