基本信息
文件名称:2025年算法工程师注意力机制面试题(含答案与解析).docx
文件大小:17.3 KB
总页数:20 页
更新时间:2025-09-11
总字数:约7.52千字
文档摘要

2025年算法工程师注意力机制面试题(含答案与解析)

一、单选题(共15题)

1.在Transformer模型中,以下哪个部分负责将编码器输出的序列转换成解码器的输入序列?

A.Self-Attention

B.Multi-headAttention

C.PositionalEncoding

D.Softmax

答案:C

解析:PositionalEncoding在Transformer模型中负责引入序列的顺序信息,因为它不依赖于序列的内容,所以它将编码器输出的序列转换成解码器的输入序列。参考《Transformer模型详解》2025版4.2节。

2.以下哪个方法通常用