当前位置: X-MOL 学术Geophysics › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Minibatch least-squares reverse time migration in a deep-learning framework
Geophysics ( IF 3.0 ) Pub Date : 2021-02-09 , DOI: 10.1190/geo2019-0707.1
Janaki Vamaraju 1 , Jeremy Vila 2 , Mauricio Araya-Polo 3 , Debanjan Datta 2 , Mohamed Sidahmed 4 , Mrinal K. Sen 5
Affiliation  

Migration techniques are an integral part of seismic imaging workflows. Least-squares reverse time migration (LSRTM) overcomes some of the shortcomings of conventional migration algorithms by compensating for illumination and removing sampling artifacts to increase spatial resolution. However, the computational cost associated with iterative LSRTM is high and convergence can be slow in complex media. We implement prestack LSRTM in a deep-learning framework and adopt strategies from the data science domain to accelerate convergence. Our hybrid framework leverages the existing physics-based models and machine-learning optimizers to achieve better and cheaper solutions. Using a time-domain formulation, we find that minibatch gradients can reduce the computation cost by using a subset of total shots for each iteration. The minibatch approach not only reduces source crosstalk, but it is also less memory-intensive. Combining minibatch gradients with deep-learning optimizers and loss functions can improve the efficiency of LSRTM. Deep-learning optimizers such as adaptive moment estimation are generally well-suited for noisy and sparse data. We compare different optimizers and determine their efficacy in mitigating migration artifacts. To accelerate the inversion, we adopt the regularized Huber loss function in conjunction. We apply these techniques to 2D Marmousi and 3D SEG/EAGE salt models and find improvements over conventional LSRTM baselines. Our approach achieves higher spatial resolution in less computation time measured by various qualitative and quantitative evaluation metrics.

中文翻译:

深度学习框架中的最小批量最小二乘逆时迁移

迁移技术是地震成像工作流程不可或缺的一部分。最小二乘逆时偏移(LSRTM)通过补偿光照并消除采样伪像以提高空间分辨率,克服了传统偏移算法的一些缺点。但是,与迭代LSRTM相关的计算成本很高,并且在复杂媒体中收敛速度可能很慢。我们在深度学习框架中实施叠前LSRTM,并采用数据科学领域的策略来加速融合。我们的混合框架利用现有的基于物理的模型和机器学习优化器来实现更好,更便宜的解决方案。使用时域公式,我们发现小批量梯度可以通过使用每次迭代的总射击次数来降低计算成本。微型批量方法不仅可以减少源串扰,而且可以减少内存占用。将小批量梯度与深度学习优化器和损失函数结合在一起可以提高LSRTM的效率。诸如自适应矩估计之类的深度学习优化器通常非常适合嘈杂和稀疏的数据。我们比较了不同的优化器,并确定了它们在缓解迁移伪影方面的功效。为了加速反演,我们结合采用正则化的Huber损失函数。我们将这些技术应用于2D Marmousi和3D SEG / EAGE盐模型,并发现了相对于常规LSRTM基准的改进。通过各种定性和定量评估指标,我们的方法可在更少的计算时间内实现更高的空间分辨率。将小批量梯度与深度学习优化器和损失函数结合在一起可以提高LSRTM的效率。诸如自适应矩估计之类的深度学习优化器通常非常适合嘈杂和稀疏的数据。我们比较了不同的优化器,并确定了它们在缓解迁移伪影方面的功效。为了加速反演,我们结合采用正则化的Huber损失函数。我们将这些技术应用于2D Marmousi和3D SEG / EAGE盐模型,并发现了相对于常规LSRTM基准的改进。通过各种定性和定量评估指标,我们的方法可在更少的计算时间内实现更高的空间分辨率。将小批量梯度与深度学习优化器和损失函数结合在一起可以提高LSRTM的效率。诸如自适应矩估计之类的深度学习优化器通常非常适合嘈杂和稀疏的数据。我们比较了不同的优化器,并确定了它们在缓解迁移伪影方面的功效。为了加速反演,我们结合采用正则化的Huber损失函数。我们将这些技术应用于2D Marmousi和3D SEG / EAGE盐模型,并发现了相对于常规LSRTM基准的改进。通过各种定性和定量评估指标,我们的方法可在更少的计算时间内实现更高的空间分辨率。诸如自适应矩估计之类的深度学习优化器通常非常适合嘈杂和稀疏的数据。我们比较了不同的优化器,并确定了它们在缓解迁移伪影方面的功效。为了加速反演,我们结合采用正则化的Huber损失函数。我们将这些技术应用于2D Marmousi和3D SEG / EAGE盐模型,并发现了相对于常规LSRTM基准的改进。通过各种定性和定量评估指标,我们的方法可在更少的计算时间内实现更高的空间分辨率。诸如自适应矩估计之类的深度学习优化器通常非常适合嘈杂和稀疏的数据。我们比较了不同的优化器,并确定了它们在缓解迁移伪影方面的功效。为了加速反演,我们结合采用正则化的Huber损失函数。我们将这些技术应用于2D Marmousi和3D SEG / EAGE盐模型,并发现了相对于常规LSRTM基准的改进。通过各种定性和定量评估指标,我们的方法可在更少的计算时间内实现更高的空间分辨率。我们将这些技术应用于2D Marmousi和3D SEG / EAGE盐模型,并发现了相对于常规LSRTM基准的改进。通过各种定性和定量评估指标,我们的方法可在更少的计算时间内实现更高的空间分辨率。我们将这些技术应用于2D Marmousi和3D SEG / EAGE盐模型,并发现了相对于常规LSRTM基准的改进。通过各种定性和定量评估指标,我们的方法可在更少的计算时间内实现更高的空间分辨率。
更新日期:2021-02-10
down
wechat
bug