基本信息
文件名称:2025年大模型超长序列滑动窗口注意力优化专题习题答案及解析.docx
文件大小:16.12 KB
总页数:7 页
更新时间:2025-09-26
总字数:约7.97千字
文档摘要

2025年大模型超长序列滑动窗口注意力优化专题习题答案及解析

一、单选题(共15题)

1.在大模型超长序列处理中,以下哪种注意力机制能够有效减少计算复杂度?

A.全局注意力B.自注意力C.点注意力D.分块注意力

答案:D

解析:分块注意力通过将序列分割成多个块,在每个块内部进行自注意力计算,从而减少全局自注意力计算中的复杂度,提高处理效率。参考《注意力机制优化技术指南》2025版4.2节。

2.以下哪种方法可以有效地解决大模型训练过程中的梯度消失问题?

A.使用ReLU激活函数B.增加模型层数C.使用梯度裁剪D.使用LSTM单元

答案:C

解析:梯度裁剪