当前位置: X-MOL 学术Comput. Speech Lang › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Cross-lingual transfer learning for relation extraction using Universal Dependencies
Computer Speech & Language ( IF 3.1 ) Pub Date : 2021-07-20 , DOI: 10.1016/j.csl.2021.101265
Nasrin Taghizadeh 1 , Heshaam Faili 1
Affiliation  

This paper focuses on the task of cross-language relation extraction, which aims to identify the semantic relations holding between entities in the text. The goal of the task is to train classifiers for low-resource languages by means of the annotated data from high-resource languages. Related methods usually employ parallel data or Machine Translator (MT) to project annotated data from a source to a target language. However, the availability and the quality of parallel data and MT are big challenges for low-resource languages. In this paper, a novel transfer learning method is presented for this task. The key idea is to utilize a tree-based representation of data, which is highly informative for classifying semantic relations, and also shared among different languages. All the training and test data are shown using this representation. We propose to use the Universal Dependency (UD) parsing, which is a language-agnostic formalism for representation of syntactic structures. Equipping UD parse trees with multi-lingual word embeddings makes an ideal representation for the cross-language relation extraction task. We propose two deep networks to use this representation. The first one utilizes the Shortest Dependency Path of UD trees, while the second employs the UD-based positional embeddings. Experiments are performed using SemEval 2010-task 8 training data, whereas French and Farsi are the test languages. The results show 63.9% and 56.2% F1 scores, for French and Farsi test data, respectively, which are 14.4% and 17.9% higher than the baseline. This work can be considered a simple yet powerful baseline for further investigation into the cross-language tasks.



中文翻译:

使用通用依赖关系提取的跨语言迁移学习

本文重点研究跨语言关系抽取任务,旨在识别文本中实体之间的语义关系。该任务的目标是通过来自高资源语言的注释数据为低资源语言训练分类器。相关方法通常使用并行数据或机器翻译器 (MT) 将注释数据从源语言投影到目标语言。然而,并行数据和 MT 的可用性和质量是低资源语言的巨大挑战。在本文中,针对该任务提出了一种新的迁移学习方法。关键思想是利用基于树的数据表示,这对于分类语义关系具有很高的信息量,并且还在不同语言之间共享。所有训练和测试数据都使用这种表示方式显示。我们建议使用通用依赖 (UD) 解析,这是一种用于表示句法结构的与语言无关的形式主义。为 UD 解析树配备多语言词嵌入是跨语言关系提取任务的理想表示。我们提出了两个深度网络来使用这种表示。第一个使用 UD 树的最短依赖路径,而第二个使用基于 UD 的位置嵌入。使用 SemEval 2010-task 8 训练数据进行实验,而法语和波斯语是测试语言。结果显示 63.9% 和 56.2% 为 UD 解析树配备多语言词嵌入是跨语言关系提取任务的理想表示。我们提出了两个深度网络来使用这种表示。第一个使用 UD 树的最短依赖路径,而第二个使用基于 UD 的位置嵌入。使用 SemEval 2010-task 8 训练数据进行实验,而法语和波斯语是测试语言。结果显示 63.9% 和 56.2% 为 UD 解析树配备多语言词嵌入是跨语言关系提取任务的理想表示。我们提出了两个深度网络来使用这种表示。第一个使用 UD 树的最短依赖路径,而第二个使用基于 UD 的位置嵌入。使用 SemEval 2010-task 8 训练数据进行实验,而法语和波斯语是测试语言。结果显示 63.9% 和 56.2%F1分数,分别为法语和波斯语测试数据,比基线高 14.4% 和 17.9%。这项工作可以被认为是进一步研究跨语言任务的简单而强大的基线。

更新日期:2021-07-24
down
wechat
bug