基本信息
文件名称:2025年计算机视觉工程师理论知识题库:Transformer架构与分布式训练.docx
文件大小:15.38 KB
总页数:8 页
更新时间:2025-10-21
总字数:约8.37千字
文档摘要
2025年计算机视觉工程师理论知识题库:Transformer架构与分布式训练
一、单选题(共15题)
1.在Transformer架构中,以下哪项不是自注意力机制的关键组成部分?
A.Query,Key,Value
B.PositionalEncoding
C.Softmax
D.Multi-headAttention
答案:B
解析:PositionalEncoding是用于引入序列中位置信息的编码,而Query,Key,Value是自注意力机制中的核心元素,用于计算注意力权重,Softmax用于将权重转换为概率分布。参考《Transformer架构详解》20