基本信息
文件名称:基于大语言模型的多任务提示微调方法研究.pdf
文件大小:4.08 MB
总页数:72 页
更新时间:2025-09-13
总字数:约11.17万字
文档摘要
摘要
随着大规模预训练语言模型的发展,参数高效微调技术成为自然语言处理领域的研
究热点。其中,提示微调作为的一种典型方法,能够在不调整模型大部分参数的情况下,
通过引入任务相关的提示向量来适配不同任务。然而,当前主流方法往往为每个任务单
独训练提示向量,缺乏跨任务共享机制,从而限制了任务间信息交互,进而影响整体泛
化性能。此外,在多任务训练场景下,部分任务主导优化过程可能导致模型对其过度适
配,而其他任务性能受损甚至出现负迁移。同时,现有方法在大模型适配方面效率较低,
当资源受限时难以广泛应用。