当前位置: X-MOL 学术Mobile Netw. Appl. › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Deep Reinforcement Learning for Load Balancing of Edge Servers in IoV
Mobile Networks and Applications ( IF 3.8 ) Pub Date : 2022-05-10 , DOI: 10.1007/s11036-022-01972-0
Pu Li 1 , Wenxuan Xie 1 , Ying Yuan 1 , Chen Chen 1 , Shaohua Wan 2, 3
Affiliation  

In recent years, the use of edge computing to solve the problem of limited resources in the IoV has attracted more and more attention. Vehicles can upload tasks to the edge servers within their radio range for computing cooperation and offloading. However, due to shared resources among edge servers, the uneven distribution of vehicles may lead to many problems such as uneven tasks distribution, unbalanced load, and low computing efficiency on different edge servers. On the other hand, most of the existing works are proposed to address the load unbalance issue of edge servers with the help of remote cloud or vehicle cloud, but still leading to resource wasting problems especially for edge servers with a light load. To address this issue, a task transfer scheme has been proposed among different edge servers in this paper. First, we designed a partitioned and hierarchical software-defined network architecture for IoV. After that, a load balancing model is proposed under this network architecture, in which the global controller can manage and schedule the local tasks from each edge server. Next, we proved that the task allocation problem for our load balancing model under the proposed network architecture is an NP-hard problem. To solve this problem, a Deep Q-Network (DQN) model is proposed to minimize the mean square deviation of loads among different edge servers. Numerical results show that our proposed load balancing model can significantly improve the resource utilization of edge servers as well as reduce the computational latency of vehicular tasks.



中文翻译:

用于 IoV 中边缘服务器负载平衡的深度强化学习

近年来,利用边缘计算解决车联网资源有限的问题越来越受到关注。车辆可以将任务上传到其无线电范围内的边缘服务器,以进行计算合作和卸载。但是由于边缘服务器之间资源共享,车辆分布不均可能导致不同边缘服务器上的任务分布不均、负载不均衡、计算效率低等诸多问题。另一方面,现有的大部分工作都是通过远程云或车载云来解决边缘服务器的负载不平衡问题,但仍然存在资源浪费问题,尤其是对于负载较轻的边缘服务器。为了解决这个问题,本文提出了一种不同边缘服务器之间的任务转移方案。第一的,我们为 IoV 设计了一个分区和分层的软件定义网络架构。之后,在这种网络架构下提出了一种负载均衡模型,全局控制器可以管理和调度来自每个边缘服务器的本地任务。接下来,我们证明了我们的负载均衡模型在所提出的网络架构下的任务分配问题是一个 NP-hard 问题。为了解决这个问题,提出了一种深度 Q 网络 (DQN) 模型,以最小化不同边缘服务器之间负载的均方偏差。数值结果表明,我们提出的负载平衡模型可以显着提高边缘服务器的资源利用率,并减少车辆任务的计算延迟。在这种网络架构下提出了一种负载均衡模型,全局控制器可以管理和调度来自每个边缘服务器的本地任务。接下来,我们证明了我们的负载均衡模型在所提出的网络架构下的任务分配问题是一个 NP-hard 问题。为了解决这个问题,提出了一种深度 Q 网络 (DQN) 模型,以最小化不同边缘服务器之间负载的均方偏差。数值结果表明,我们提出的负载平衡模型可以显着提高边缘服务器的资源利用率,并减少车辆任务的计算延迟。在这种网络架构下提出了一种负载均衡模型,全局控制器可以管理和调度来自每个边缘服务器的本地任务。接下来,我们证明了我们的负载均衡模型在所提出的网络架构下的任务分配问题是一个 NP-hard 问题。为了解决这个问题,提出了一种深度 Q 网络 (DQN) 模型,以最小化不同边缘服务器之间负载的均方偏差。数值结果表明,我们提出的负载平衡模型可以显着提高边缘服务器的资源利用率,并减少车辆任务的计算延迟。我们证明了我们的负载均衡模型在所提出的网络架构下的任务分配问题是一个 NP-hard 问题。为了解决这个问题,提出了一种深度 Q 网络 (DQN) 模型,以最小化不同边缘服务器之间负载的均方偏差。数值结果表明,我们提出的负载平衡模型可以显着提高边缘服务器的资源利用率,并减少车辆任务的计算延迟。我们证明了我们的负载均衡模型在所提出的网络架构下的任务分配问题是一个 NP-hard 问题。为了解决这个问题,提出了一种深度 Q 网络 (DQN) 模型,以最小化不同边缘服务器之间负载的均方偏差。数值结果表明,我们提出的负载平衡模型可以显着提高边缘服务器的资源利用率,并减少车辆任务的计算延迟。

更新日期:2022-05-11
down
wechat
bug