当前位置: X-MOL 学术Geophysics › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Uncertainty quantification in fault detection using convolutional neural networks
Geophysics ( IF 3.3 ) Pub Date : 2021-03-19 , DOI: 10.1190/geo2020-0424.1
Runhai Feng 1 , Dario Grana 2 , Niels Balling 3
Affiliation  

Segmentation of faults based on seismic images is an important step in reservoir characterization. With the recent developments of deep-learning methods and the availability of massive computing power, automatic interpretation of seismic faults has become possible. The likelihood of occurrence for a fault can be quantified using a sigmoid function. Our goal is to quantify the fault model uncertainty that is generally not captured by deep-learning tools. We have used the dropout approach, a regularization technique to prevent overfitting and coadaptation in hidden units, to approximate the Bayesian inference and estimate the principled uncertainty over functions. Particularly, the variance of the learned model has been decomposed into aleatoric and epistemic parts. Our method is applied to a real data set from the Netherlands F3 block with two different dropout ratios in convolutional neural networks. The aleatoric uncertainty is irreducible because it relates to the stochastic dependency within the input observations. As the number of Monte Carlo realizations increases, the epistemic uncertainty asymptotically converges and the model standard deviation decreases because the variability of the model parameters is better simulated or explained with a larger sample size. This analysis can quantify the confidence to use fault predictions with less uncertainty. In addition, the analysis suggests where more training data are needed to reduce the uncertainty in low-confidence regions.

中文翻译:

卷积神经网络在故障检测中的不确定性量化

基于地震图像的断层分割是储层表征的重要步骤。随着深度学习方法的最新发展以及海量计算能力的出现,地震断层的自动解释成为可能。可以使用S形函数来量化发生故障的可能性。我们的目标是对故障模型的不确定性进行量化,而这些不确定性通常是深度学习工具无法捕获的。我们已经使用了dropout方法(一种正则化技术来防止隐藏单元中的过度拟合和协同适应)来近似贝叶斯推断并估计函数的原则不确定性。特别是,学习模型的方差已分解为无意和认知部分。我们的方法应用于来自荷兰F3块的真实数据集,该数据集在卷积神经网络中具有两个不同的辍学率。不确定的不确定性是不可减少的,因为它与输入观测值中的随机依赖性有关。随着蒙特卡洛实现数量的增加,认知不确定性渐近收敛,并且模型标准偏差减小,因为可以通过更大的样本量更好地模拟或解释模型参数的可变性。该分析可以量化使用不确定性较小的故障预测的置信度。此外,分析建议需要更多的训练数据以减少低置信度区域中的不确定性。不确定的不确定性是不可减少的,因为它与输入观测值中的随机依赖性有关。随着蒙特卡洛实现数量的增加,认知不确定性渐近收敛,并且模型标准偏差减小,因为可以通过更大的样本量更好地模拟或解释模型参数的可变性。该分析可以量化使用不确定性较小的故障预测的置信度。此外,分析建议需要更多的训练数据以减少低置信度区域中的不确定性。不确定的不确定性是不可减少的,因为它与输入观测值中的随机依赖性有关。随着蒙特卡洛实现数量的增加,认知不确定性渐近收敛,并且模型标准偏差减小,因为可以通过更大的样本量更好地模拟或解释模型参数的可变性。该分析可以量化使用不确定性较小的故障预测的置信度。此外,分析建议需要更多的训练数据以减少低置信度区域中的不确定性。认知不确定性渐近收敛,模型标准偏差减小,这是因为模型参数的可变性可以通过较大的样本量更好地模拟或解释。该分析可以量化使用不确定性较小的故障预测的置信度。此外,分析建议需要更多的训练数据以减少低置信度区域中的不确定性。认知不确定性渐近收敛,模型标准偏差减小,这是因为模型参数的可变性可以通过较大的样本量更好地模拟或解释。该分析可以量化使用不确定性较小的故障预测的置信度。此外,分析建议需要更多的训练数据以减少低置信度区域中的不确定性。
更新日期:2021-03-19
down
wechat
bug