当前位置: X-MOL 学术IEEE T. Evolut. Comput. › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Does Preference Always Help? A Holistic Study on Preference-Based Evolutionary Multi-Objective Optimisation Using Reference Points
IEEE Transactions on Evolutionary Computation ( IF 14.3 ) Pub Date : 2020-12-01 , DOI: 10.1109/tevc.2020.2987559
Ke Li , Minhui Liao , Kalyanmoy Deb , Geyong Min , Xin Yao

The ultimate goal of multiobjective optimization is to help a decision maker (DM) identify solution(s) of interest (SOI) achieving satisfactory tradeoffs among multiple conflicting criteria. This can be realized by leveraging DM’s preference information in evolutionary multiobjective optimization (EMO). No consensus has been reached on the effectiveness brought by incorporating preference in EMO (either a priori or interactively) versus a posteriori decision making after a complete run of an EMO algorithm. Bearing this consideration in mind, this article: 1) provides a pragmatic overview of the existing developments of preference-based EMO (PBEMO) and 2) conducts a series of experiments to investigate the effectiveness brought by preference incorporation in EMO for approximating various SOI. In particular, the DM’s preference information is elicited as a reference point, which represents her/his aspirations for different objectives. The experimental results demonstrate that preference incorporation in EMO does not always lead to a desirable approximation of SOI if the DM’s preference information is not well utilized, nor does the DM elicit invalid preference information, which is not uncommon when encountering a black-box system. To a certain extent, this issue can be remedied through an interactive preference elicitation. Last but not the least, we find that a PBEMO algorithm is able to be generalized to approximate the whole PF given an appropriate setup of preference information.

中文翻译:

偏好总是有帮助吗?使用参考点的基于偏好的进化多目标优化的整体研究

多目标优化的最终目标是帮助决策者 (DM) 确定感兴趣的解决方案 (SOI),在多个相互冲突的标准之间实现令人满意的权衡。这可以通过在进化多目标优化 (EMO) 中利用 DM 的偏好信息来实现。在 EMO 算法的完整运行后,通过将偏好(先验的或交互的)与后验决策结合在 EMO 中所带来的有效性尚未达成共识。考虑到这一点,本文:1) 对基于偏好的 EMO (PBEMO) 的现有发展进行了务实的概述,以及 2) 进行了一系列实验,以研究将偏好纳入 EMO 所带来的近似各种 SOI 的有效性。特别是,DM 的偏好信息被引出作为参考点,代表她/他对不同目标的渴望。实验结果表明,如果 DM 的偏好信息没有得到很好的利用,在 EMO 中的偏好并入并不总是导致理想的 SOI 近似,DM 也不会引出无效的偏好信息,这在遇到黑盒系统时并不少见。在一定程度上,这个问题可以通过交互式偏好引出来解决。最后但并非最不重要的一点是,我们发现 PBEMO 算法能够在给定适当的偏好信息设置的情况下推广到近似整个 PF。实验结果表明,如果 DM 的偏好信息没有得到很好的利用,在 EMO 中的偏好并入并不总是导致理想的 SOI 近似,DM 也不会引出无效的偏好信息,这在遇到黑盒系统时并不少见。在一定程度上,这个问题可以通过交互式偏好引出来解决。最后但并非最不重要的一点是,我们发现 PBEMO 算法能够在给定适当的偏好信息设置的情况下推广到近似整个 PF。实验结果表明,如果 DM 的偏好信息没有得到很好的利用,在 EMO 中的偏好并入并不总是导致理想的 SOI 近似,DM 也不会引出无效的偏好信息,这在遇到黑盒系统时并不少见。在一定程度上,这个问题可以通过交互式偏好引出来解决。最后但并非最不重要的一点是,我们发现 PBEMO 算法能够在给定适当的偏好信息设置的情况下推广到近似整个 PF。这个问题可以通过交互式偏好引出来解决。最后但并非最不重要的一点是,我们发现 PBEMO 算法能够在给定适当的偏好信息设置的情况下推广到近似整个 PF。这个问题可以通过交互式偏好引出来解决。最后但并非最不重要的一点是,我们发现 PBEMO 算法能够在给定适当的偏好信息设置的情况下推广到近似整个 PF。
更新日期:2020-12-01
down
wechat
bug