基本信息
文件名称:2025《注意力算法下的Transformer模型分析案例》4100字.docx
文件大小:803.27 KB
总页数:9 页
更新时间:2026-01-10
总字数:约5.94千字
文档摘要
注意力算法下的Transformer模型分析案例
目录
TOC\o1-3\h\u16903注意力算法下的Transformer模型分析案例 1
305281.1传统的Transformer模型 1
6641.1.1位置编码层 2
11401.1.2自注意力层 2
257051.1.3多头注意力层 3
246721.2VisionTransformer模型 4
296061.3注意力算法下的InsuranceTransformer模型 5
215701.4模型实验及其结果分析 6
1.1传统的Transformer模