当前位置: X-MOL 学术IEEE T. Evolut. Comput. › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Multifactorial Evolutionary Algorithm with Online Transfer Parameter Estimation: MFEA-II
IEEE Transactions on Evolutionary Computation ( IF 11.7 ) Pub Date : 2020-02-01 , DOI: 10.1109/tevc.2019.2906927
Kavitesh Kumar Bali , Yew-Soon Ong , Abhishek Gupta , Puay Siew Tan

Humans rarely tackle every problem from scratch. Given this observation, the motivation for this paper is to improve optimization performance through adaptive knowledge transfer across related problems. The scope for spontaneous transfers under the simultaneous occurrence of multiple problems unveils the benefits of multitasking. Multitask optimization has recently demonstrated competence in solving multiple (related) optimization tasks concurrently. Notably, in the presence of underlying relationships between problems, the transfer of high-quality solutions across them has shown to facilitate superior performance characteristics. However, in the absence of any prior knowledge about the intertask synergies (as is often the case with general black-box optimization), the threat of predominantly negative transfer prevails. Susceptibility to negative intertask interactions can impede the overall convergence behavior. To allay such fears, in this paper, we propose a novel evolutionary computation framework that enables online learning and exploitation of the similarities (and discrepancies) between distinct tasks in multitask settings, for an enhanced optimization process. Our proposal is based on the principled theoretical arguments that seek to minimize the tendency of harmful interactions between tasks, based on a purely data-driven learning of relationships among them. The efficacy of our proposed method is validated experimentally on a series of synthetic benchmarks, as well as a practical study that provides insights into the behavior of the method in the face of several tasks occurring at once.

中文翻译:

具有在线传递参数估计的多因素进化算法:MFEA-II

人类很少从头开始解决所有问题。鉴于这一观察,本文的动机是通过跨相关问题的自适应知识转移来提高优化性能。在多个问题同时发生的情况下自发转移的范围揭示了多任务处理的好处。多任务优化最近展示了同时解决多个(相关)优化任务的能力。值得注意的是,在问题之间存在潜在关系的情况下,在它们之间转移高质量的解决方案已显示出促进卓越的性能特征。然而,在缺乏关于任务间协同作用的任何先验知识的情况下(通常是一般黑盒优化的情况),主要是负迁移的威胁占主导地位。对负面任务间交互的敏感性会阻碍整体收敛行为。为了消除这种担忧,在本文中,我们提出了一种新颖的进化计算框架,该框架能够在线学习和利用多任务设置中不同任务之间的相似性(和差异),以增强优化过程。我们的提议是基于原则性的理论论点,这些论点旨在最大限度地减少任务之间有害交互的趋势,基于对它们之间关系的纯粹数据驱动的学习。我们提出的方法的有效性在一系列综合基准以及一项实际研究中得到了实验验证,该研究提供了在面对同时发生的多个任务时对该方法的行为的深入了解。为了消除这种担忧,在本文中,我们提出了一种新颖的进化计算框架,该框架能够在线学习和利用多任务设置中不同任务之间的相似性(和差异),以增强优化过程。我们的提议是基于原则性的理论论点,这些论点旨在最大限度地减少任务之间有害交互的趋势,基于对它们之间关系的纯粹数据驱动的学习。我们提出的方法的有效性在一系列综合基准以及一项实际研究中得到了实验验证,该研究提供了在面对同时发生的多个任务时对该方法的行为的深入了解。为了消除这种担忧,在本文中,我们提出了一种新颖的进化计算框架,该框架能够在线学习和利用多任务设置中不同任务之间的相似性(和差异),以增强优化过程。我们的提议是基于原则性的理论论点,这些论点旨在最大限度地减少任务之间有害交互的趋势,基于对它们之间关系的纯粹数据驱动的学习。我们提出的方法的有效性在一系列综合基准以及一项实际研究中得到了实验验证,该研究提供了在面对同时发生的多个任务时对该方法的行为的深入了解。我们提出了一种新颖的进化计算框架,可以在线学习和利用多任务设置中不同任务之间的相似性(和差异),以增强优化过程。我们的提议是基于原则性的理论论点,这些论点旨在最大限度地减少任务之间有害交互的趋势,基于对它们之间关系的纯粹数据驱动的学习。我们提出的方法的有效性在一系列综合基准以及一项实际研究中得到了实验验证,该研究提供了在面对同时发生的多个任务时对该方法的行为的深入了解。我们提出了一种新颖的进化计算框架,可以在线学习和利用多任务设置中不同任务之间的相似性(和差异),以增强优化过程。我们的提议是基于原则性的理论论点,这些论点旨在最大限度地减少任务之间有害交互的趋势,基于对它们之间关系的纯粹数据驱动的学习。我们提出的方法的有效性在一系列综合基准以及一项实际研究中得到了实验验证,该研究提供了在面对同时发生的多个任务时对该方法行为的深入了解。我们的提议是基于原则性的理论论点,这些论点旨在最大限度地减少任务之间有害交互的趋势,基于对它们之间关系的纯粹数据驱动学习。我们提出的方法的有效性在一系列综合基准以及一项实际研究中得到了实验验证,该研究提供了在面对同时发生的多个任务时对该方法的行为的深入了解。我们的提议是基于原则性的理论论点,这些论点旨在最大限度地减少任务之间有害交互的趋势,基于对它们之间关系的纯粹数据驱动的学习。我们提出的方法的有效性在一系列综合基准以及一项实际研究中得到了实验验证,该研究提供了在面对同时发生的多个任务时对该方法的行为的深入了解。
更新日期:2020-02-01
down
wechat
bug