当前位置: X-MOL 学术Comput. Linguist. › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Modeling Speech Acts in Asynchronous Conversations: A Neural-CRF Approach
Computational Linguistics ( IF 3.7 ) Pub Date : 2018-12-01 , DOI: 10.1162/coli_a_00339
Shafiq Joty 1 , Tasnim Mohiuddin 1
Affiliation  

Participants in an asynchronous conversation (e.g., forum, e-mail) interact with each other at different times, performing certain communicative acts, called speech acts (e.g., question, request). In this article, we propose a hybrid approach to speech act recognition in asynchronous conversations. Our approach works in two main steps: a long short-term memory recurrent neural network (LSTM-RNN) first encodes each sentence separately into a task-specific distributed representation, and this is then used in a conditional random field (CRF) model to capture the conversational dependencies between sentences. The LSTM-RNN model uses pretrained word embeddings learned from a large conversational corpus and is trained to classify sentences into speech act types. The CRF model can consider arbitrary graph structures to model conversational dependencies in an asynchronous conversation. In addition, to mitigate the problem of limited annotated data in the asynchronous domains, we adapt the LSTM-RNN model to learn from synchronous conversations (e.g., meetings), using domain adversarial training of neural networks. Empirical evaluation shows the effectiveness of our approach over existing ones: (i) LSTM-RNNs provide better task-specific representations, (ii) conversational word embeddings benefit the LSTM-RNNs more than the off-the-shelf ones, (iii) adversarial training gives better domain-invariant representations, and (iv) the global CRF model improves over local models.

中文翻译:

异步对话中的语音行为建模:一种神经 CRF 方法

异步对话(例如,论坛、电子邮件)中的参与者在不同时间相互交互,执行某些交流行为,称为言语行为(例如,问题、请求)。在本文中,我们提出了一种在异步对话中进行语音行为识别的混合方法。我们的方法分为两个主要步骤:长短期记忆循环神经网络 (LSTM-RNN) 首先将每个句子分别编码为特定于任务的分布式表示,然后将其用于条件随机场 (CRF) 模型以捕获句子之间的会话依赖关系。LSTM-RNN 模型使用从大型会话语料库中学习的预训练词嵌入,并经过训练将句子分类为语音行为类型。CRF 模型可以考虑任意图结构来模拟异步对话中的对话依赖关系。此外,为了缓解异步域中有限注释数据的问题,我们调整 LSTM-RNN 模型以从同步对话(例如会议)中学习,使用神经网络的域对抗训练。实证评估显示了我们的方法相对于现有方法的有效性:(i)LSTM-RNN 提供了更好的特定于任务的表示,(ii)会话词嵌入比现成的 LSTM-RNN 更有利于 LSTM-RNN,(iii)对抗性训练提供了更好的域不变表示,并且 (iv) 全局 CRF 模型优于局部模型。我们使用神经网络的域对抗训练,调整 LSTM-RNN 模型以从同步对话(例如会议)中学习。实证评估显示了我们的方法相对于现有方法的有效性:(i)LSTM-RNN 提供了更好的特定于任务的表示,(ii)会话词嵌入比现成的 LSTM-RNN 更有利于 LSTM-RNN,(iii)对抗性训练提供了更好的域不变表示,并且 (iv) 全局 CRF 模型优于局部模型。我们使用神经网络的域对抗训练,调整 LSTM-RNN 模型以从同步对话(例如会议)中学习。实证评估显示了我们的方法相对于现有方法的有效性:(i)LSTM-RNN 提供了更好的特定于任务的表示,(ii)会话词嵌入比现成的 LSTM-RNN 更有利于 LSTM-RNN,(iii)对抗性训练提供了更好的域不变表示,并且 (iv) 全局 CRF 模型优于局部模型。
更新日期:2018-12-01
down
wechat
bug