当前位置: X-MOL 学术Inverse Probl. › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Hybrid Projection Methods for Large-scale Inverse Problems with Mixed Gaussian Priors
Inverse Problems ( IF 2.0 ) Pub Date : 2020-12-10 , DOI: 10.1088/1361-6420/abd29d
Taewon Cho 1 , Julianne Chung 2 , Jiahua Jiang 1
Affiliation  

When solving ill-posed inverse problems, a good choice of the prior is critical for the computation of a reasonable solution. A common approach is to include a Gaussian prior, which is defined by a mean vector and a symmetric and positive definite covariance matrix, and to use iterative projection methods to solve the corresponding regularized problem. However, a main challenge for many of these iterative methods is that the prior covariance matrix must be known and fixed (up to a constant) before starting the solution process. In this paper, we develop hybrid projection methods for inverse problems with mixed Gaussian priors where the prior covariance matrix is a convex combination of matrices and the mixing parameter and the regularization parameter do not need to be known in advance. Such scenarios may arise when data is used to generate a sample prior covariance matrix (e.g., in data assimilation) or when different priors are needed to capture different qualities of the solution. The proposed hybrid methods are based on a mixed Golub-Kahan process, which is an extension of the generalized Golub-Kahan bidiagonalization, and a distinctive feature of the proposed approach is that both the regularization parameter and the weighting parameter for the covariance matrix can be estimated automatically during the iterative process. Furthermore, for problems where training data are available, various data-driven covariance matrices (including those based on learned covariance kernels) can be easily incorporated. Numerical examples from tomographic reconstruction demonstrate the potential for these methods.

中文翻译:

混合高斯先验大规模逆问题的混合投影方法

在解决不适定的逆问题时,先验的良好选择对于计算合理的解决方案至关重要。一种常见的方法是包括一个由均值向量和对称正定协方差矩阵定义的高斯先验,并使用迭代投影方法来解决相应的正则化问题。然而,许多这些迭代方法的一个主要挑战是,在开始求解过程之前,先验协方差矩阵必须是已知的和固定的(直到一个常数)。在本文中,我们针对混合高斯先验的逆问题开发了混合投影方法,其中先验协方差矩阵是矩阵的凸组合,并且不需要提前知道混合参数和正则化参数。当数据用于生成样本先验协方差矩阵(例如,在数据同化中)或需要不同的先验来捕获解决方案的不同质量时,可能会出现这种情况。所提出的混合方法基于混合 Golub-Kahan 过程,它是广义 Golub-Kahan 双对角化的扩展,所提出方法的一个显着特点是协方差矩阵的正则化参数和加权参数都可以是在迭代过程中自动估计。此外,对于训练数据可用的问题,可以轻松合并各种数据驱动的协方差矩阵(包括基于学习的协方差核的矩阵)。断层扫描重建的数值例子证明了这些方法的潜力。例如,在数据同化中)或者当需要不同的先验来捕获解决方案的不同质量时。所提出的混合方法基于混合 Golub-Kahan 过程,它是广义 Golub-Kahan 双对角化的扩展,所提出方法的一个显着特点是协方差矩阵的正则化参数和加权参数都可以是在迭代过程中自动估计。此外,对于训练数据可用的问题,可以轻松合并各种数据驱动的协方差矩阵(包括基于学习的协方差核的矩阵)。断层扫描重建的数值例子证明了这些方法的潜力。例如,在数据同化中)或者当需要不同的先验来捕获解决方案的不同质量时。所提出的混合方法基于混合 Golub-Kahan 过程,它是广义 Golub-Kahan 双对角化的扩展,所提出方法的一个显着特点是协方差矩阵的正则化参数和加权参数都可以是在迭代过程中自动估计。此外,对于训练数据可用的问题,可以轻松合并各种数据驱动的协方差矩阵(包括基于学习的协方差核的矩阵)。断层扫描重建的数值例子证明了这些方法的潜力。所提出的混合方法基于混合 Golub-Kahan 过程,它是广义 Golub-Kahan 双对角化的扩展,所提出方法的一个显着特点是协方差矩阵的正则化参数和加权参数都可以是在迭代过程中自动估计。此外,对于训练数据可用的问题,可以轻松合并各种数据驱动的协方差矩阵(包括基于学习的协方差核的矩阵)。断层扫描重建的数值例子证明了这些方法的潜力。所提出的混合方法基于混合 Golub-Kahan 过程,它是广义 Golub-Kahan 双对角化的扩展,所提出方法的一个显着特点是协方差矩阵的正则化参数和加权参数都可以是在迭代过程中自动估计。此外,对于训练数据可用的问题,可以轻松合并各种数据驱动的协方差矩阵(包括基于学习的协方差核的矩阵)。断层扫描重建的数值例子证明了这些方法的潜力。所提出方法的一个显着特点是在迭代过程中可以自动估计协方差矩阵的正则化参数和加权参数。此外,对于训练数据可用的问题,可以轻松合并各种数据驱动的协方差矩阵(包括基于学习的协方差核的矩阵)。断层扫描重建的数值例子证明了这些方法的潜力。该方法的一个显着特点是在迭代过程中可以自动估计协方差矩阵的正则化参数和加权参数。此外,对于训练数据可用的问题,可以轻松合并各种数据驱动的协方差矩阵(包括基于学习的协方差核的矩阵)。断层扫描重建的数值例子证明了这些方法的潜力。
更新日期:2020-12-10
down
wechat
bug