当前位置: X-MOL 学术World Wide Web › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Patent2Vec: Multi-view representation learning on patent-graphs for patent classification
World Wide Web ( IF 3.7 ) Pub Date : 2021-06-16 , DOI: 10.1007/s11280-021-00885-4
Lintao Fang , Le Zhang , Han Wu , Tong Xu , Ding Zhou , Enhong Chen

Patent classification has long been treated as a crucial task to support related services. Though large efforts have been made on the automatic patent classification task, those prior arts mainly focus on mining textual information such as titles and abstracts. Meanwhile, few of them pay attention to the meta data, e.g., the inventors and the assignee company, and the potential correlation via the metadata-based graph has been largely ignored. To that end, in this paper, we develop a new paradigm for patent classification task in the perspective of multi-view patent graph analysis and then propose a novel framework called Patent2vec to learn low-dimensional representations of patents for patent classification. Specifically, we first employ the graph representation learning on individual graphs, so that view-specific representations will be learned by capturing the network structure and side information. Then, we propose a view enhancement module to enrich single view representations by exploiting cross-view correlation knowledge. Afterward, we deploy an attention-based multi-view fusion method to get refined representations for each patent and further design a view alignment module to constraint final fused representation in a relational embedding space which can preserve latent relational information. Empirical results demonstrate that our model not only improves the classification accuracy but also improves the interpretability of classifying patents reflected in the multi-source data.



中文翻译:

Patent2Vec:用于专利分类的专利图的多视图表示学习

长期以来,专利分类一直被视为支持相关服务的关键任务。尽管在自动专利分类任务上已经做出了很大努力,但这些现有技术主要集中在挖掘标题和摘要等文本信息上。同时,他们中很少有人关注元数据,例如发明人和受让人公司,并且通过基于元数据的图表的潜在相关性在很大程度上被忽略了。为此,在本文中,我们从多视图专利图分析的角度开发了专利分类任务的新范式,然后提出了一种称为 Patent2vec 的新框架来学习专利分类的专利低维表示。具体来说,我们首先在单个图上使用图表示学习,以便通过捕获网络结构和辅助信息来学习特定于视图的表示。然后,我们提出了一个视图增强模块,通过利用跨视图相关知识来丰富单视图表示。之后,我们部署了一种基于注意力的多视图融合方法来为每个专利获得精细的表示,并进一步设计一个视图对齐模块来约束关系嵌入空间中的最终融合表示,该空间可以保留潜在的关系信息。实证结果表明,我们的模型不仅提高了分类精度,而且提高了多源数据中反映的专利分类的可解释性。我们提出了一个视图增强模块,通过利用跨视图相关知识来丰富单视图表示。之后,我们部署了一种基于注意力的多视图融合方法来为每个专利获得精细的表示,并进一步设计一个视图对齐模块来约束关系嵌入空间中的最终融合表示,该空间可以保留潜在的关系信息。实证结果表明,我们的模型不仅提高了分类精度,而且提高了多源数据中反映的专利分类的可解释性。我们提出了一个视图增强模块,通过利用跨视图相关知识来丰富单视图表示。之后,我们部署了一种基于注意力的多视图融合方法来为每个专利获得精细的表示,并进一步设计一个视图对齐模块来约束关系嵌入空间中的最终融合表示,该空间可以保留潜在的关系信息。实证结果表明,我们的模型不仅提高了分类精度,而且提高了多源数据中反映的专利分类的可解释性。我们部署了一种基于注意力的多视图融合方法来为每个专利获得精细的表示,并进一步设计一个视图对齐模块来约束关系嵌入空间中的最终融合表示,该空间可以保留潜在的关系信息。实证结果表明,我们的模型不仅提高了分类精度,而且提高了多源数据中反映的专利分类的可解释性。我们部署了一种基于注意力的多视图融合方法来为每个专利获得精细的表示,并进一步设计一个视图对齐模块来约束关系嵌入空间中的最终融合表示,该空间可以保留潜在的关系信息。实证结果表明,我们的模型不仅提高了分类精度,而且提高了多源数据中反映的专利分类的可解释性。

更新日期:2021-06-17
down
wechat
bug