当前位置: X-MOL 学术J. Commun. Netw. › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Joint resource allocation and computation offloading in mobile edge computing for SDN based wireless networks
Journal of Communications and Networks ( IF 3.6 ) Pub Date : 2020-02-01 , DOI: 10.1109/jcn.2019.000046
Nahida Kiran , Chunyu Pan , Sihua Wang , Changchuan Yin

The rapid growth of the internet usage and the distributed computing resources of edge devices create a necessity to have a reasonable controller to ensure efficient utilization of distributed computing resources in mobile edge computing (MEC). We envision the future MEC services, where quality of experience (QoE) of the services is further enhanced by software defined networks (SDNs) capabilities to reduce the application-level response time without service disruptions. SDN, which is not proposed specifically for edge computing, can in fact serve as an enabler to lower the complexity barriers involved and let the real potential of edge computing be achieved. In this paper, we investigate the task offloading and resource allocation problem in wireless MEC aiming to minimize the delay while saving the battery power of user device simultaneously. However, it is challenging to obtain an optimal policy in such a dynamic task offloading system. Learning from experience plays a vital role in time variant dynamic systems where reinforcement learning (RL) takes a long term goal into consideration besides immediate reward, which is very important for a dynamic environment. A novel software defined edge cloudlet (SDEC) based RL optimization framework is proposed to tackle the task offloading and resource allocation in wireless MEC. Specifically, Q-learning and cooperative Q-learning based reinforcement learning schemes are proposed for the intractable problem. Simulation results show that the proposed scheme achieves 31.39% and 62.10% reduction on the sum delay compared to other benchmark methods such as traditional Q-learning with a random algorithm and Q-learning with epsilon greedy.

中文翻译:

基于SDN的无线网络移动边缘计算中的联合资源分配和计算卸载

互联网使用的快速增长和边缘设备的分布式计算资源需要有一个合理的控制器,以确保移动边缘计算(MEC)中分布式计算资源的有效利用。我们设想未来的 MEC 服务,其中软件定义网络 (SDN) 功能进一步增强了服务的体验质量 (QoE),以在不中断服务的情况下缩短应用级响应时间。SDN并不是专门为边缘计算而提出的,它实际上可以作为降低所涉及的复杂性障碍并实现边缘计算的真正潜力的推动者。在本文中,我们研究了无线 MEC 中的任务卸载和资源分配问题,旨在最大限度地减少延迟,同时节省用户设备的电池电量。然而,在这样一个动态任务卸载系统中获得最优策略是具有挑战性的。从经验中学习在时变动态系统中起着至关重要的作用,其中强化学习 (RL) 除了即时奖励之外还考虑了长期目标,这对于动态环境非常重要。提出了一种新的基于软件定义边缘小云 (SDEC) 的 RL 优化框架来解决无线 MEC 中的任务卸载和资源分配。具体来说,针对棘手的问题,提出了基于 Q-learning 和基于协作 Q-learning 的强化学习方案。仿真结果表明,与使用随机算法的传统 Q-learning 和使用 epsilon greedy 的 Q-learning 等其他基准方法相比,所提出的方案在总延迟上分别减少了 31.39% 和 62.10%。在这样一个动态任务卸载系统中获得最佳策略是具有挑战性的。从经验中学习在时变动态系统中起着至关重要的作用,其中强化学习 (RL) 除了即时奖励之外还考虑了长期目标,这对于动态环境非常重要。提出了一种新的基于软件定义边缘小云 (SDEC) 的 RL 优化框架来解决无线 MEC 中的任务卸载和资源分配。具体来说,针对棘手的问题,提出了基于 Q-learning 和基于协作 Q-learning 的强化学习方案。仿真结果表明,与使用随机算法的传统 Q-learning 和使用 epsilon greedy 的 Q-learning 等其他基准方法相比,所提出的方案在总延迟上分别减少了 31.39% 和 62.10%。在这样一个动态任务卸载系统中获得最佳策略是具有挑战性的。从经验中学习在时变动态系统中起着至关重要的作用,其中强化学习 (RL) 除了即时奖励之外还考虑了长期目标,这对于动态环境非常重要。提出了一种新的基于软件定义边缘小云 (SDEC) 的 RL 优化框架来解决无线 MEC 中的任务卸载和资源分配。具体来说,针对棘手的问题,提出了基于 Q-learning 和基于协作 Q-learning 的强化学习方案。仿真结果表明,与使用随机算法的传统 Q-learning 和使用 epsilon greedy 的 Q-learning 等其他基准方法相比,所提出的方案在总延迟上分别减少了 31.39% 和 62.10%。
更新日期:2020-02-01
down
wechat
bug