当前位置: X-MOL 学术Inf. Process. Manag. › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Fake news detection via knowledgeable prompt learning
Information Processing & Management ( IF 7.4 ) Pub Date : 2022-07-26 , DOI: 10.1016/j.ipm.2022.103029
Gongyao Jiang , Shuang Liu , Yu Zhao , Yueheng Sun , Meishan Zhang

The spread of fake news has become a significant social problem, drawing great concern for fake news detection (FND). Pretrained language models (PLMs), such as BERT and RoBERTa can benefit this task much, leading to state-of-the-art performance. The common paradigm of utilizing these PLMs is fine-tuning, in which a linear classification layer is built upon the well-initialized PLM network, resulting in an FND mode, and then the full model is tuned on a training corpus. Although great successes have been achieved, this paradigm still involves a significant gap between the language model pretraining and target task fine-tuning processes. Fortunately, prompt learning, a new alternative to PLM exploration, can handle the issue naturally, showing the potential for further performance improvements. To this end, we propose knowledgeable prompt learning (KPL) for this task. First, we apply prompt learning to FND, through designing one sophisticated prompt template and the corresponding verbal words carefully for the task. Second, we incorporate external knowledge into the prompt representation, making the representation more expressive to predict the verbal words. Experimental results on two benchmark datasets demonstrate that prompt learning is better than the baseline fine-tuning PLM utilization for FND and can outperform all previous representative methods. Our final knowledgeable model (i.e, KPL) can provide further improvements. In particular, it achieves an average increase of 3.28% in F1 score under low-resource conditions compared with fine-tuning.



中文翻译:

通过知识渊博的即时学习检测假新闻

假新闻的传播已成为一个重大的社会问题,引起了假新闻检测(FND)的高度关注。BERT 和 RoBERTa 等预训练语言模型 (PLM) 可以使这项任务受益匪浅,从而带来最先进的性能。利用这些 PLM 的常见范例是微调,其中线性分类层建立在良好初始化的 PLM 网络上,产生 FND 模式,然后在训练语料库上调整完整模型。尽管已经取得了巨大的成功,但这种范式仍然涉及语言模型预训练和目标任务微调过程之间的重大差距。幸运的是,作为 PLM 探索的新替代方案,即时学习可以自然地处理该问题,显示出进一步提高性能的潜力。为此,我们为此任务提出了知识渊博的即时学习(KPL)。首先,我们通过为任务精心设计一个复杂的提示模板和相应的口头词,将提示学习应用于 FND。其次,我们将外部知识融入到提示表示中,使表示更具表现力来预测口头单词。两个基准数据集的实验结果表明,即时学习比 FND 的基线微调 PLM 利用率更好,并且可以优于所有以前的代表性方法。我们最终的知识模型(即 KPL)可以提供进一步的改进。尤其是在资源匮乏的情况下,F1分数与fine-tuning相比平均提升了3.28%。通过为任务精心设计一个复杂的提示模板和相应的口头单词。其次,我们将外部知识融入到提示表示中,使表示更具表现力来预测口头单词。两个基准数据集的实验结果表明,即时学习比 FND 的基线微调 PLM 利用率更好,并且可以优于所有以前的代表性方法。我们最终的知识模型(即 KPL)可以提供进一步的改进。尤其是在资源匮乏的情况下,F1分数与fine-tuning相比平均提升了3.28%。通过为任务精心设计一个复杂的提示模板和相应的口头单词。其次,我们将外部知识融入到提示表示中,使表示更具表现力来预测口头单词。两个基准数据集的实验结果表明,即时学习比 FND 的基线微调 PLM 利用率更好,并且可以优于所有以前的代表性方法。我们最终的知识模型(即 KPL)可以提供进一步的改进。尤其是在资源匮乏的情况下,F1分数与fine-tuning相比平均提升了3.28%。使表示更具表现力以预测口头单词。两个基准数据集的实验结果表明,即时学习比 FND 的基线微调 PLM 利用率更好,并且可以优于所有以前的代表性方法。我们最终的知识模型(即 KPL)可以提供进一步的改进。尤其是在资源匮乏的情况下,F1分数与fine-tuning相比平均提升了3.28%。使表示更具表现力以预测口头单词。两个基准数据集的实验结果表明,即时学习比 FND 的基线微调 PLM 利用率更好,并且可以优于所有以前的代表性方法。我们最终的知识模型(即 KPL)可以提供进一步的改进。尤其是在资源匮乏的情况下,F1分数与fine-tuning相比平均提升了3.28%。

更新日期:2022-07-26
down
wechat
bug