当前位置: X-MOL 学术IEEE Trans. Cybern. › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Multifactorial Evolutionary Algorithm Based on Diffusion Gradient Descent.
IEEE Transactions on Cybernetics ( IF 11.8 ) Pub Date : 2023-05-09 , DOI: 10.1109/tcyb.2023.3270904
Zhaobo Liu 1 , Guo Li 2 , Haili Zhang 3 , Zhengping Liang 2 , Zexuan Zhu 4
Affiliation  

The multifactorial evolutionary algorithm (MFEA) is one of the most widely used evolutionary multitasking (EMT) algorithms. The MFEA implements knowledge transfer among optimization tasks via crossover and mutation operators and it obtains high-quality solutions more efficiently than single-task evolutionary algorithms. Despite the effectiveness of MFEA in solving difficult optimization problems, there is no evidence of population convergence or theoretical explanations of how knowledge transfer increases algorithm performance. To fill this gap, we propose a new MFEA based on diffusion gradient descent (DGD), namely, MFEA-DGD in this article. We prove the convergence of DGD for multiple similar tasks and demonstrate that the local convexity of some tasks can help other tasks escape from local optima via knowledge transfer. Based on this theoretical foundation, we design complementary crossover and mutation operators for the proposed MFEA-DGD. As a result, the evolution population is endowed with a dynamic equation that is similar to DGD, that is, convergence is guaranteed, and the benefit from knowledge transfer is explainable. In addition, a hyper-rectangular search strategy is introduced to allow MFEA-DGD to explore more underdeveloped areas in the unified express space of all tasks and the subspace of each task. The proposed MFEA-DGD is verified experimentally on various multitask optimization problems, and the results demonstrate that MFEA-DGD can converge faster to competitive results compared to state-of-the-art EMT algorithms. We also show the possibility of interpreting the experimental results based on the convexity of different tasks.

中文翻译:

基于扩散梯度下降的多因子进化算法。

多因素进化算法(MFEA)是使用最广泛的进化多任务(EMT)算法之一。MFEA通过交叉和变异算子实现优化任务之间的知识转移,比单任务进化算法更有效地获得高质量的解决方案。尽管 MFEA 在解决困难的优化问题方面很有效,但没有证据表明群体收敛或知识转移如何提高算法性能的理论解释。为了填补这一空白,我们提出了一种新的基于扩散梯度下降(DGD)的 MFEA,即本文中的 MFEA-DGD。我们证明了 DGD 对于多个相似任务的收敛性,并证明了一些任务的局部凸性可以帮助其他任务通过知识转移逃离局部最优。基于这一理论基础,我们为所提出的 MFEA-DGD 设计了互补的交叉和变异算子。因此,进化种群被赋予了一个类似于 DGD 的动态方程,即收敛得到保证,知识转移的收益是可解释的。此外,还引入了超矩形搜索策略,使 MFEA-DGD 可以在所有任务的统一表达空间和每个任务的子空间中探索更多欠发达区域。所提出的 MFEA-DGD 在各种多任务优化问题上进行了实验验证,结果表明,与最先进的 EMT 算法相比,MFEA-DGD 可以更快地收敛到有竞争力的结果。我们还展示了根据不同任务的凸性来解释实验结果的可能性。我们为拟议的 MFEA-DGD 设计了互补的交叉和变异算子。因此,进化种群被赋予了一个类似于 DGD 的动态方程,即收敛得到保证,知识转移的收益是可解释的。此外,还引入了超矩形搜索策略,使 MFEA-DGD 可以在所有任务的统一表达空间和每个任务的子空间中探索更多欠发达区域。所提出的 MFEA-DGD 在各种多任务优化问题上进行了实验验证,结果表明,与最先进的 EMT 算法相比,MFEA-DGD 可以更快地收敛到有竞争力的结果。我们还展示了根据不同任务的凸性来解释实验结果的可能性。我们为拟议的 MFEA-DGD 设计了互补的交叉和变异算子。因此,进化种群被赋予了一个类似于 DGD 的动态方程,即收敛得到保证,知识转移的收益是可解释的。此外,还引入了超矩形搜索策略,使 MFEA-DGD 可以在所有任务的统一表达空间和每个任务的子空间中探索更多欠发达区域。所提出的 MFEA-DGD 在各种多任务优化问题上进行了实验验证,结果表明,与最先进的 EMT 算法相比,MFEA-DGD 可以更快地收敛到有竞争力的结果。我们还展示了根据不同任务的凸性来解释实验结果的可能性。
更新日期:2023-05-09
down
wechat
bug