Laputa.K
首页
Article
16
Category
3
Tags
1
首页
源码解析
Transformer最易懂图解
Post on: 2025-5-10
Last edited: 2025-5-27
Views
Please Enter the password:
Submit
Catalog
0%
背景
高层视角
将张量引入到图像中
现在我们开始编码
高级自注意力机制
自注意力机制详解
Self-Attention的矩阵计算
多头注意力
使用位置编码表示序列的顺序
残差
解码器
最后的线性层和 Softmax 层
训练回顾
损失函数
参考
Laputa.K
Article
16
Category
3
Tags
1
Catalog
0%
背景
高层视角
将张量引入到图像中
现在我们开始编码
高级自注意力机制
自注意力机制详解
Self-Attention的矩阵计算
多头注意力
使用位置编码表示序列的顺序
残差
解码器
最后的线性层和 Softmax 层
训练回顾
损失函数
参考