基本信息
文件名称:2025年算法工程师注意力机制面试题(含答案与解析).docx
文件大小:17.3 KB
总页数:20 页
更新时间:2025-09-11
总字数:约7.52千字
文档摘要
2025年算法工程师注意力机制面试题(含答案与解析)
一、单选题(共15题)
1.在Transformer模型中,以下哪个部分负责将编码器输出的序列转换成解码器的输入序列?
A.Self-Attention
B.Multi-headAttention
C.PositionalEncoding
D.Softmax
答案:C
解析:PositionalEncoding在Transformer模型中负责引入序列的顺序信息,因为它不依赖于序列的内容,所以它将编码器输出的序列转换成解码器的输入序列。参考《Transformer模型详解》2025版4.2节。
2.以下哪个方法通常用