当前位置: X-MOL 学术IEEE T. Evolut. Comput. › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
A New Two-stage Evolutionary Algorithm for Many-objective Optimization
IEEE Transactions on Evolutionary Computation ( IF 11.7 ) Pub Date : 2019-10-01 , DOI: 10.1109/tevc.2018.2882166
Yanan Sun , Bing Xue , Mengjie Zhang , Gary G. Yen

Convergence and diversity are interdependently handled during the evolutionary process by most existing many-objective evolutionary algorithms (MaOEAs). In such a design, the degraded performance of one would deteriorate the other, and only solutions with both are able to improve the performance of MaOEAs. Unfortunately, it is not easy to constantly maintain a population of solutions with both convergence and diversity. In this paper, an MaOEA based on two independent stages is proposed for effectively solving many-objective optimization problems (MaOPs), where the convergence and diversity are addressed in two independent and sequential stages. To achieve this, we first propose a nondominated dynamic weight aggregation method by using a genetic algorithm, which is capable of finding the Pareto-optimal solutions for MaOPs with concave, convex, linear and even mixed Pareto front shapes, and then these solutions are employed to learn the Pareto-optimal subspace for the convergence. Afterward, the diversity is addressed by solving a set of single-objective optimization problems with reference lines within the learned Pareto-optimal subspace. To evaluate the performance of the proposed algorithm, a series of experiments are conducted against six state-of-the-art MaOEAs on benchmark test problems. The results show the significantly improved performance of the proposed algorithm over the peer competitors. In addition, the proposed algorithm can focus directly on a chosen part of the objective space if the preference area is known beforehand. Furthermore, the proposed algorithm can also be used to effectively find the nadir points.

中文翻译:

一种新的多目标优化两阶段进化算法

大多数现有的多目标进化算法(MaOEA)在进化过程中相互依赖地处理收敛和多样性。在这样的设计中,一个的性能下降会恶化另一个,只有两者兼而有之的解决方案才能提高 MaOEA 的性能。不幸的是,要不断维护具有收敛性和多样性的解决方案群并不容易。在本文中,提出了一种基于两个独立阶段的 MaOEA,以有效解决多目标优化问题 (MaOPs),其中收敛性和多样性在两个独立且连续的阶段中得到解决。为了实现这一点,我们首先提出了一种使用遗传算法的非支配动态权重聚合方法,该方法能够找到具有凹、凸、线性甚至混合的 Pareto 前沿形状,然后使用这些解决方案来学习收敛的 Pareto 最优子空间。之后,通过在学习的帕累托最优子空间内用参考线解决一组单目标优化问题来解决多样性。为了评估所提出算法的性能,在基准测试问题上针对六个最先进的 MaOEA 进行了一系列实验。结果表明,与同行竞争者相比,所提出的算法的性能显着提高。此外,如果事先知道偏好区域,则所提出的算法可以直接关注目标空间的选定部分。此外,所提出的算法还可用于有效地找到最低点。然后使用这些解决方案来学习收敛的帕累托最优子空间。之后,通过在学习的帕累托最优子空间内用参考线解决一组单目标优化问题来解决多样性。为了评估所提出算法的性能,在基准测试问题上针对六个最先进的 MaOEA 进行了一系列实验。结果表明,与同行竞争者相比,所提出的算法的性能显着提高。此外,如果事先知道偏好区域,则所提出的算法可以直接关注目标空间的选定部分。此外,所提出的算法还可用于有效地找到最低点。然后使用这些解决方案来学习收敛的帕累托最优子空间。之后,通过在学习的帕累托最优子空间内用参考线解决一组单目标优化问题来解决多样性。为了评估所提出算法的性能,在基准测试问题上针对六个最先进的 MaOEA 进行了一系列实验。结果表明,与同行竞争者相比,所提出的算法的性能显着提高。此外,如果事先知道偏好区域,则所提出的算法可以直接关注目标空间的选定部分。此外,所提出的算法还可用于有效地找到最低点。通过在学习到的帕累托最优子空间内用参考线解决一组单目标优化问题来解决多样性问题。为了评估所提出算法的性能,在基准测试问题上针对六个最先进的 MaOEA 进行了一系列实验。结果表明,与同行竞争者相比,所提出的算法的性能显着提高。此外,如果事先知道偏好区域,则所提出的算法可以直接关注目标空间的选定部分。此外,所提出的算法还可用于有效地找到最低点。通过在学习到的帕累托最优子空间内用参考线解决一组单目标优化问题来解决多样性问题。为了评估所提出算法的性能,在基准测试问题上针对六个最先进的 MaOEA 进行了一系列实验。结果表明,与同行竞争者相比,所提出的算法的性能显着提高。此外,如果事先知道偏好区域,则所提出的算法可以直接关注目标空间的选定部分。此外,所提出的算法还可用于有效地找到最低点。在基准测试问题上,针对六个最先进的 MaOEA 进行了一系列实验。结果表明,与同行竞争者相比,所提出的算法的性能显着提高。此外,如果事先知道偏好区域,则所提出的算法可以直接关注目标空间的选定部分。此外,所提出的算法还可用于有效地找到最低点。在基准测试问题上,针对六个最先进的 MaOEA 进行了一系列实验。结果表明,与同行竞争者相比,所提出的算法的性能显着提高。此外,如果事先知道偏好区域,则所提出的算法可以直接关注目标空间的选定部分。此外,所提出的算法还可用于有效地找到最低点。
更新日期:2019-10-01
down
wechat
bug