基本信息
文件名称:2025年算法工程师Transformer优化面试题(含答案与解析).docx
文件大小:16.57 KB
总页数:22 页
更新时间:2025-09-11
总字数:约7.72千字
文档摘要

2025年算法工程师Transformer优化面试题(含答案与解析)

一、单选题(共15题)

1.以下哪项不是Transformer模型中常用的注意力机制?

A.自注意力(Self-Attention)

B.位置编码(PositionalEncoding)

C.转置注意力(TransposedAttention)

D.交叉注意力(Cross-Attention)

2.在分布式训练中,以下哪种方法可以有效减少通信开销?

A.数据并行

B.模型并行

C.混合并行

D.批处理

3.以下哪项技术可以显著提高Transformer模型的训练速度?

A.量化

B.剪枝