当前位置: X-MOL 学术arXiv.cs.SI › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Incomplete Gamma Integrals for Deep Cascade Prediction using Content, Network, and Exogenous Signals
arXiv - CS - Social and Information Networks Pub Date : 2021-06-13 , DOI: arxiv-2106.07012
Subhabrata Dutta, Shravika Mittal, Dipankar Das, Soumen Chakrabarti, Tanmoy Chakraborty

The behaviour of information cascades (such as retweets) has been modelled extensively. While point process-based generative models have long been in use for estimating cascade growths, deep learning has greatly enhanced diverse feature integration. We observe two significant temporal signals in cascade data that have not been emphasized or reported to our knowledge. First, the popularity of the cascade root is known to influence cascade size strongly; but the effect falls off rapidly with time. Second, there is a measurable positive correlation between the novelty of the root content (with respect to a streaming external corpus) and the relative size of the resulting cascade. Responding to these observations, we propose GammaCas, a new cascade growth model as a parametric function of time, which combines deep influence signals from content (e.g., tweet text), network features (e.g., followers of the root user), and exogenous event sources (e.g., online news). Specifically, our model processes these signals through a customized recurrent network, whose states then provide the parameters of the cascade rate function, which is integrated over time to predict the cascade size. The network parameters are trained end-to-end using observed cascades. GammaCas outperforms seven recent and diverse baselines significantly on a large-scale dataset of retweet cascades coupled with time-aligned online news -- it beats the best baseline with an 18.98% increase in terms of Kendall's $\tau$ correlation and $35.63$ reduction in Mean Absolute Percentage Error. Extensive ablation and case studies unearth interesting insights regarding retweet cascade dynamics.

中文翻译:

使用内容、网络和外源信号进行深度级联预测的不完全 Gamma 积分

信息级联(例如转推)的行为已被广泛建模。虽然基于点过程的生成模型长期以来一直用于估计级联增长,但深度学习极大地增强了多样化的特征集成。我们在级联数据中观察到两个重要的时间信号,据我们所知,这些信号尚未被强调或报告。首先,众所周知,级联根的流行程度会强烈影响级联大小;但随着时间的推移,效果会迅速下降。其次,根内容的新颖性(相对于流式外部语料库)与结果级联的相对大小之间存在可测量的正相关。针对这些观察结果,我们提出了 GammaCas,这是一种作为时间参数函数的新级联增长模型,它结合了来自内容的深层影响信号(例如,推文文本)、网络特征(例如,根用户的追随者)和外生事件源(例如,在线新闻)。具体来说,我们的模型通过定制的循环网络处理这些信号,然后其状态提供级联速率函数的参数,随着时间的推移对其进行积分以预测级联大小。使用观察到的级联对网络参数进行端到端训练。GammaCas 在大规模转发级联数据集和时间对齐的在线新闻上明显优于七个最近的不同基线——它击败了最佳基线,在 Kendall 的 $\tau$ 相关性方面增加了 18.98%,减少了 $35.63$平均绝对百分比误差。广泛的消融和案例研究揭示了有关转发级联动力学的有趣见解。root 用户的追随者)和外生事件源(例如,在线新闻)。具体来说,我们的模型通过定制的循环网络处理这些信号,然后其状态提供级联速率函数的参数,随着时间的推移对其进行积分以预测级联大小。使用观察到的级联对网络参数进行端到端训练。GammaCas 在大规模转发级联数据集和时间对齐的在线新闻上明显优于七个最近的不同基线——它击败了最佳基线,在 Kendall 的 $\tau$ 相关性方面增加了 18.98%,减少了 $35.63$平均绝对百分比误差。广泛的消融和案例研究揭示了有关转发级联动力学的有趣见解。root 用户的追随者)和外生事件源(例如,在线新闻)。具体来说,我们的模型通过定制的循环网络处理这些信号,然后其状态提供级联速率函数的参数,随着时间的推移对其进行积分以预测级联大小。使用观察到的级联对网络参数进行端到端训练。GammaCas 在大规模转发级联数据集和时间对齐的在线新闻上明显优于七个最近的不同基线——它击败了最佳基线,在 Kendall 的 $\tau$ 相关性方面增加了 18.98%,减少了 $35.63$平均绝对百分比误差。广泛的消融和案例研究揭示了有关转发级联动力学的有趣见解。我们的模型通过定制的循环网络处理这些信号,然后其状态提供级联速率函数的参数,随着时间的推移对其进行积分以预测级联大小。使用观察到的级联对网络参数进行端到端训练。GammaCas 在大规模转发级联数据集和时间对齐的在线新闻上明显优于七个最近的不同基线——它击败了最佳基线,在 Kendall 的 $\tau$ 相关性方面增加了 18.98%,减少了 $35.63$平均绝对百分比误差。广泛的消融和案例研究揭示了有关转发级联动力学的有趣见解。我们的模型通过定制的循环网络处理这些信号,然后其状态提供级联速率函数的参数,随着时间的推移对其进行积分以预测级联大小。使用观察到的级联对网络参数进行端到端训练。GammaCas 在大规模转发级联数据集和时间对齐的在线新闻上明显优于七个最近的不同基线——它击败了最佳基线,在 Kendall 的 $\tau$ 相关性方面增加了 18.98%,减少了 $35.63$平均绝对百分比误差。广泛的消融和案例研究揭示了有关转发级联动力学的有趣见解。随着时间的推移进行积分以预测级联大小。使用观察到的级联对网络参数进行端到端训练。GammaCas 在大规模转发级联数据集和时间对齐的在线新闻上明显优于七个最近的不同基线——它击败了最佳基线,在 Kendall 的 $\tau$ 相关性方面增加了 18.98%,减少了 $35.63$平均绝对百分比误差。广泛的消融和案例研究揭示了有关转发级联动力学的有趣见解。随着时间的推移进行积分以预测级联大小。使用观察到的级联对网络参数进行端到端训练。GammaCas 在大规模转发级联数据集和时间对齐的在线新闻上明显优于七个最近的不同基线——它击败了最佳基线,在 Kendall 的 $\tau$ 相关性方面增加了 18.98%,减少了 $35.63$平均绝对百分比误差。广泛的消融和案例研究揭示了有关转发级联动力学的有趣见解。Kendall 的 $\tau$ 相关性增加了 98%,平均绝对百分比误差减少了 35.63%。广泛的消融和案例研究揭示了有关转发级联动力学的有趣见解。Kendall 的 $\tau$ 相关性增加了 98%,平均绝对百分比误差减少了 35.63%。广泛的消融和案例研究揭示了有关转发级联动力学的有趣见解。
更新日期:2021-06-15
down
wechat
bug