基本信息
文件名称:2025年大模型多模态信息丢失补齐效果跨任务平台交互效率测试答案及解析.docx
文件大小:15.61 KB
总页数:8 页
更新时间:2025-09-24
总字数:约7.45千字
文档摘要

2025年大模型多模态信息丢失补齐效果跨任务平台交互效率测试答案及解析

一、单选题(共15题)

1.以下哪项技术能够有效减少大模型训练时的信息丢失?

A.增量学习

B.知识蒸馏

C.数据增强

D.对抗样本训练

答案:B

解析:知识蒸馏技术通过将一个大模型(教师模型)的知识迁移到一个较小的模型(学生模型)上,从而减少信息丢失,同时保持或提高性能,参考《深度学习实践指南》2025年版5.3节。

2.在多模态信息丢失补齐中,以下哪种方法可以显著提高跨任务平台交互效率?

A.多任务学习

B.自编码器

C.多模态对应学习

D.对抗性学习

答案:A

解析:多任务学习通过同时解