当前位置: X-MOL 学术Psychological Methods › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Interactions of scores derived from two groups of variables: Alternating lasso regularization avoids overfitting and finds interpretable scores.
Psychological Methods ( IF 10.929 ) Pub Date : 2022-05-19 , DOI: 10.1037/met0000461
Philipp Doebler 1 , Anna Doebler 2 , Philip Buczak 1 , Andreas Groll 1
Affiliation  

Regression models with interaction terms are common models for moderating relationships. When effects of several predictors from one group—for example, genetic variables—are potentially moderated by several predictors from another—for example, environmental variables—many interaction terms result. This complicates model interpretation, especially when coefficient signs point in different directions. By first forming a score for each group of predictors, the interaction model’s dimension is severely reduced. The hierarchical score model is an elegant one-step approach: Score weights and regression model coefficients are estimated simultaneously by an alternating optimization (AO) algorithm. Especially in high dimensional settings, scores remain an effective technique to reduce interaction model dimension, and we propose regularization to ensure sparsity and interpretability of the score weights. A nontrivial extension of the original AO algorithm is presented, which adds a lasso penalty, resulting in the alternating lasso optimization algorithm (ALOA). The hierarchical score model with ALOA is an interpretable statistical learning technique for moderation in potentially high dimensional applications, and encompasses generalized linear models for the main interaction model. In addition to the lasso regularization, a screening procedure called regularization and residualization (RR) is proposed to avoid spurious interactions. ALOA tuning parameter choice and the RR screening procedure are investigated by simulations, and two illustrative applications to depression risk are provided.

中文翻译:

来自两组变量的分数的相互作用:交替套索正则化避免过度拟合并找到可解释的分数。

具有交互项的回归模型是调节关系的常用模型。当来自一组的多个预测因子(例如,遗传变量)的影响可能被来自另一组的多个预测因子(例如,环境变量)调节时,会产生许多交互项。这使模型解释变得复杂,尤其是当系数符号指向不同方向时。通过首先为每组预测变量形成一个分数,交互模型的维度被严重降低。分层评分模型是一种优雅的一步法:通过交替优化 (AO) 算法同时估计评分权重和回归模型系数。特别是在高维设置中,分数仍然是减少交互模型维数的有效技术,我们提出正则化以确保分数权重的稀疏性和可解释性。提出了原始 AO 算法的重要扩展,它添加了套索惩罚,从而产生了交替套索优化算法 (ALOA)。具有 ALOA 的分层评分模型是一种可解释的统计学习技术,用于在潜在的高维应用程序中进行调节,并包含主要交互模型的广义线性模型。除了套索正则化之外,还提出了一种称为正则化和残差化 (RR) 的筛选程序来避免虚假交互。ALOA 调整参数选择和 RR 筛选程序通过模拟进行研究,并提供了抑郁症风险的两个说明性应用。提出了原始 AO 算法的重要扩展,它添加了套索惩罚,从而产生了交替套索优化算法 (ALOA)。具有 ALOA 的分层评分模型是一种可解释的统计学习技术,用于在潜在的高维应用程序中进行调节,并包含主要交互模型的广义线性模型。除了套索正则化之外,还提出了一种称为正则化和残差化 (RR) 的筛选程序来避免虚假交互。ALOA 调整参数选择和 RR 筛选程序通过模拟进行研究,并提供了抑郁症风险的两个说明性应用。提出了原始 AO 算法的重要扩展,它添加了套索惩罚,从而产生了交替套索优化算法 (ALOA)。具有 ALOA 的分层评分模型是一种可解释的统计学习技术,用于在潜在的高维应用程序中进行调节,并包含主要交互模型的广义线性模型。除了套索正则化之外,还提出了一种称为正则化和残差化 (RR) 的筛选程序来避免虚假交互。ALOA 调整参数选择和 RR 筛选程序通过模拟进行研究,并提供了抑郁症风险的两个说明性应用。具有 ALOA 的分层评分模型是一种可解释的统计学习技术,用于在潜在的高维应用程序中进行调节,并包含主要交互模型的广义线性模型。除了套索正则化之外,还提出了一种称为正则化和残差化 (RR) 的筛选程序来避免虚假交互。ALOA 调整参数选择和 RR 筛选程序通过模拟进行研究,并提供了抑郁症风险的两个说明性应用。具有 ALOA 的分层评分模型是一种可解释的统计学习技术,用于在潜在的高维应用程序中进行调节,并包含主要交互模型的广义线性模型。除了套索正则化之外,还提出了一种称为正则化和残差化 (RR) 的筛选程序来避免虚假交互。ALOA 调整参数选择和 RR 筛选程序通过模拟进行研究,并提供了抑郁症风险的两个说明性应用。提出了一种称为正则化和残差化 (RR) 的筛选程序来避免虚假交互。ALOA 调整参数选择和 RR 筛选程序通过模拟进行研究,并提供了抑郁症风险的两个说明性应用。提出了一种称为正则化和残差化 (RR) 的筛选程序来避免虚假交互。ALOA 调整参数选择和 RR 筛选程序通过模拟进行研究,并提供了抑郁症风险的两个说明性应用。
更新日期:2022-05-20
down
wechat
bug