当前位置: X-MOL 学术Math. Models Methods Appl. Sci. › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Asymptotic behavior and control of a “guidance by repulsion” model
Mathematical Models and Methods in Applied Sciences ( IF 3.5 ) Pub Date : 2020-02-04 , DOI: 10.1142/s0218202520400047
Dongnam Ko 1 , Enrique Zuazua 1, 2, 3
Affiliation  

We model and analyze a guiding problem, where the drivers try to steer the evaders’ positions toward a target region while the evaders always try to escape from drivers. This problem is motivated by the guidance-by-repulsion model [R. Escobedo, A. Ibañez and E. Zuazua, Optimal strategies for driving a mobile agent in a “guidance by repulsion” model, Commun. Nonlinear Sci. Numer. Simul. 39 (2016) 58–72] where the authors answer how to control the evader’s position and what is the optimal maneuver of the driver. First, we analyze well posedness and behavior of the one-driver and one-evader model, assuming of the same friction coefficients. From the long-time behavior, the exact controllability is proved in a long enough time horizon. Then, we extend the model to the multi-driver and multi-evader case. We assumed three interaction rules in the context of collective behavior models: flocking between evaders, collision avoidance between drivers and repulsive forces between drivers and evaders. These interactions depend on the relative distances, and each agent is assumed to be undistinguishable and obtained an averaged effect from the other individuals. In this model, we develop numerical simulations to systematically explore the nature of controlled dynamics in various scenarios. The optimal strategies turn out to share a common pattern to the one-driver and one-evader case: the drivers rapidly occupy the position behind the target, and want to pursuit evaders in a straight line for most of the time. Inspired by this, we build a feedback strategy which stabilizes the direction of evaders.

中文翻译:

“排斥引导”模型的渐近行为和控制

我们对引导问题进行建模和分析,其中驾驶员试图将躲避者的位置引向目标区域,而躲避者总是试图逃离驾驶员。这个问题是由排斥制导模型[R. Escobedo、A. Ibañez 和 E. Zuazua,在“排斥引导”模型中驱动移动代理的最佳策略,Commun。非线性科学。编号。模拟。39 (2016) 58-72] 其中作者回答了如何控制躲避者的位置以及驾驶员的最佳操作是什么。首先,假设摩擦系数相同,我们分析了单驱动和单规模型的良好定性和行为。从长期行为来看,在足够长的时间范围内证明了精确可控性。然后,我们将模型扩展到多驾驶员和多逃避者的情况。我们在集体行为模型的背景下假设了三个交互规则:逃避者之间的聚集、驾驶员之间的碰撞避免以及驾驶员和逃避者之间的排斥力。这些相互作用取决于相对距离,并且假设每个代理无法区分并从其他个体获得平均效果。在这个模型中,我们开发了数值模拟,以系统地探索各种场景中受控动力学的性质。最优策略与“一驱一避”的情况有一个共同点:司机迅速占据目标后面的位置,大部分时间都想直线追赶避让者。受此启发,我们建立了一个反馈策略来稳定逃避者的方向。驾驶员之间的碰撞避免以及驾驶员和逃避者之间的排斥力。这些相互作用取决于相对距离,并且假设每个代理无法区分并从其他个体获得平均效果。在这个模型中,我们开发了数值模拟,以系统地探索各种场景中受控动力学的性质。最优策略与“一驱一避”的情况有一个共同点:司机迅速占据目标后面的位置,大部分时间都想直线追赶避让者。受此启发,我们建立了一个反馈策略来稳定逃避者的方向。驾驶员之间的碰撞避免以及驾驶员和逃避者之间的排斥力。这些相互作用取决于相对距离,并且假设每个代理无法区分并从其他个体获得平均效果。在这个模型中,我们开发了数值模拟,以系统地探索各种场景中受控动力学的性质。最优策略与“一驱一避”的情况有一个共同点:司机迅速占据目标后面的位置,大部分时间都想直线追赶避让者。受此启发,我们建立了一个反馈策略来稳定逃避者的方向。并且假设每个代理是不可区分的,并且从其他个体中获得了平均效果。在这个模型中,我们开发了数值模拟,以系统地探索各种场景中受控动力学的性质。最优策略与“一驱一避”的情况有一个共同点:司机迅速占据目标后面的位置,大部分时间都想直线追赶避让者。受此启发,我们建立了一个反馈策略来稳定逃避者的方向。并且假设每个代理是不可区分的,并且从其他个体中获得了平均效果。在这个模型中,我们开发了数值模拟,以系统地探索各种场景中受控动力学的性质。最优策略与“一驱一避”的情况有一个共同点:司机迅速占据目标后面的位置,大部分时间都想直线追赶避让者。受此启发,我们建立了一个反馈策略来稳定逃避者的方向。最优策略与“一驱一避”的情况有一个共同点:司机迅速占据目标后面的位置,大部分时间都想直线追赶避让者。受此启发,我们建立了一个反馈策略来稳定逃避者的方向。最优策略与“一驱一避”的情况有一个共同点:司机迅速占据目标后面的位置,大部分时间都想直线追赶避让者。受此启发,我们建立了一个反馈策略来稳定逃避者的方向。
更新日期:2020-02-04
down
wechat
bug