基本信息
文件名称:2025年算法工程师Transformer优化面试题(含答案与解析).docx
文件大小:16.57 KB
总页数:22 页
更新时间:2025-09-11
总字数:约7.72千字
文档摘要
2025年算法工程师Transformer优化面试题(含答案与解析)
一、单选题(共15题)
1.以下哪项不是Transformer模型中常用的注意力机制?
A.自注意力(Self-Attention)
B.位置编码(PositionalEncoding)
C.转置注意力(TransposedAttention)
D.交叉注意力(Cross-Attention)
2.在分布式训练中,以下哪种方法可以有效减少通信开销?
A.数据并行
B.模型并行
C.混合并行
D.批处理
3.以下哪项技术可以显著提高Transformer模型的训练速度?
A.量化
B.剪枝