基本信息
文件名称:意图识别和情绪识别的联合建模研究.pdf
文件大小:1.81 MB
总页数:55 页
更新时间:2025-05-28
总字数:约12.24万字
文档摘要

意图识别和情绪识别的联合建模研究

摘要

本文主要研究任务驱动型对话系统中的意图识别和情绪识别,实现自然语言理解领

域中的意图识别和情绪识别联合建模。由于意图识别和情绪识别两个子任务具有天然的

联合建模优势,通过联合建模二者可以相互学习,且联合建模可以提高预测的准确率和

模型的可解释性,减少模型的过拟合。

但是现阶段联合建模领域对于这两个子任务的研究还尚有不足,模型普遍采用硬参

数共享式联合建模,通过多个任务共享网络层参数,建模过程缺乏可解释性,没有考虑

意图识别和情绪识别模型之间交互情况。基于此,本文从不同角度出发,提出了3种显

式交互的联合建模模型来针对意图识别和情绪识别联合建模任务。并改进损失函数,提

出了分类困难损失函数。同时探究了句向量生成方式对模型的影响。

本文主要的创新点如下:

(1)从不同角度,提出了3种显式交互方式,并对3种显式交互方式进行性能对比。

将意图识别和情绪识别两个任务进行特异性的优化,基础模型架构采用异构编码器解码

器架构,编码器部分采用循环神经网络进行编码,解码器部分根据交互方式的不同,进

行特异性选择。交互方式不同,对应模型不同,分别提出了基于全连接注意力网络的联

合建模模型、基于图注意力网络的联合建模模型和基于窗口注意力网络的联合建模模型。

(2)对于数据集中分类困难的样例,在原有交叉熵损失函数的基础上进行改进,提出

了分类困难损失函数,并做交叉熵损失函数和分类困难损失函数对比实验,缓解了模型

对分类困难样本学习能力的不足。

(3)在原有的句向量取最大值基础上,对其生成方式进行优化。分别探究了取最大值、

取平均值、取BiLSTM最上层3种方式,并做3种生成方式的性能对比实验,增加了句

向量生成方式的可解释性和表达性。

为了验证本文所提出方案的有效性,采用Mastodon数据集和DailyDialog数据集进

行相应的对比实验,从基线模型对比实验可以看出,本文所提出的联合建模模型在准确

率和性能上具有一定的优越性。

关键词:对话系统;意图识别;联合建模;情绪识别

意图识别和情绪识别的联合建模研究

Abstract

Thispaperaimstoinvestigatethejointmodelingofintentrecognitionandemotion

recognitioninthefieldofnaturallanguageunderstandingthroughtask-drivendialoguesystems.

Sincethetwosubtasksofintentrecognitionandemotionrecognitionhavenaturaljoint

modelingadvantages,thetwocanpromoteandlearnfromeachotherthroughjointmodeling,

andjointmodelingcanimprovetheaccuracyofpredictionandtheinterpretabilityofthemodel,

reducetheoverfittingofthemodel,andachievethepurposeofsimplifyingmodeling.

However,theresearchonthesetwosubtasksinthefieldofjointmodelingatthisstageis

stillinsufficient,andthemodelgenerallyadoptshardparametersharingjointmodeling,which

isrealizedbysharingnetworklayerparametersformultipletasks,andthejointmodeling

processlacksinter