当前位置: X-MOL 学术Ad Hoc Netw. › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
A deep reinforcement learning-based on-demand charging algorithm for wireless rechargeable sensor networks
Ad Hoc Networks ( IF 4.4 ) Pub Date : 2020-08-05 , DOI: 10.1016/j.adhoc.2020.102278
Xianbo Cao , Wenzheng Xu , Xuxun Liu , Jian Peng , Tang Liu

Wireless rechargeable sensor networks are widely used in many fields. However, the limited battery capacity of sensor nodes hinders its development. With the help of wireless energy transfer technology, employing a mobile charger to charge sensor nodes wirelessly has become a promising technology for prolonging the lifetime of wireless sensor networks. Considering that the energy consumption rate varies significantly among sensors, we need a better way to model the charging demand of each sensor, such that the sensors are able to be charged multiple times in one charging tour. Therefore, time window is used to represent charging demand. In order to allow the mobile charger to respond to these charging demands in time and transfer more energy to the sensors, we introduce a new metric: charging reward. This new metric enables us to measure the quality of sensor charging. And then, we study the problem of how to schedule the mobile charger to replenish the energy supply of sensors, such that the sum of charging rewards collected by mobile charger on its charging tour is maximized. The sum of the collected charging reward is subject to the energy capacity constraint on the mobile charger and the charging time windows of all sensor nodes. We first prove that this problem is NP-hard. Due to the complexity of the problem, then deep reinforcement learning technique is exploited to obtain the moving path for mobile charger. Finally, experimental simulations are conducted to evaluate the performance of the proposed charging algorithm, and the results show that the proposed scheme is very promising.



中文翻译:

基于深度强化学习的无线可充电传感器网络按需充电算法

无线可充电传感器网络被广泛应用于许多领域。但是,传感器节点的有限电池容量阻碍了其发展。借助无线能量传输技术,采用移动充电器对传感器节点进行无线充电已成为延长无线传感器网络寿命的一项有前途的技术。考虑到传感器之间的能耗率差异很大,我们需要一种更好的方法来对每个传感器的充电需求进行建模,以使传感器能够在一次充电巡回中多次充电。因此,时间窗口用于表示充电需求。为了使移动充电器能够及时响应这些充电需求并向传感器传递更多能量,我们引入了一个新指标:充电奖励。这一新指标使我们能够测量传感器充电的质量。然后,我们研究了如何安排移动充电器以补充传感器的能量供应,从而最大程度地提高了移动充电器在其充电行程中收集的充电奖励总和的问题。所收集的充电奖励的总和取决于移动充电器上的能量容量约束以及所有传感器节点的充电时间窗口。我们首先证明这个问题是NP问题。由于问题的复杂性,因此利用深度强化学习技术来获得移动充电器的移动路径。最后,通过实验仿真来评估所提出的计费算法的性能,结果表明所提出的方案是非常有前途的。我们研究了如何安排移动充电器以补充传感器的能量供应,从而最大程度地提高了移动充电器在其充电行程中收集的充电奖励总和的问题。所收集的充电奖励的总和取决于移动充电器上的能量容量约束以及所有传感器节点的充电时间窗口。我们首先证明这个问题是NP问题。由于问题的复杂性,因此利用深度强化学习技术来获得移动充电器的移动路径。最后,通过实验仿真来评估所提出的计费算法的性能,结果表明所提出的方案是非常有前途的。我们研究了如何安排移动充电器以补充传感器的能量供应,从而最大程度地提高了移动充电器在其充电行程中收集的充电奖励总和的问题。所收集的充电奖励的总和取决于移动充电器上的能量容量约束以及所有传感器节点的充电时间窗口。我们首先证明这个问题是NP问题。由于问题的复杂性,因此利用深度强化学习技术来获得移动充电器的移动路径。最后,通过实验仿真来评估所提出的计费算法的性能,结果表明所提出的方案是非常有前途的。从而使移动充电器在其充电行程中收集的充电奖励总和最大化。所收集的充电奖励的总和取决于移动充电器上的能量容量约束以及所有传感器节点的充电时间窗口。我们首先证明这个问题是NP问题。由于问题的复杂性,因此利用深度强化学习技术来获得移动充电器的移动路径。最后,通过实验仿真来评估所提出的计费算法的性能,结果表明所提出的方案是非常有前途的。从而使移动充电器在其充电行程中收集的充电奖励总和最大化。所收集的充电奖励的总和取决于移动充电器上的能量容量约束以及所有传感器节点的充电时间窗口。我们首先证明这个问题是NP问题。由于问题的复杂性,因此利用深度强化学习技术来获得移动充电器的移动路径。最后,通过实验仿真来评估所提出的计费算法的性能,结果表明所提出的方案是非常有前途的。我们首先证明这个问题是NP问题。由于问题的复杂性,因此利用深度强化学习技术来获得移动充电器的移动路径。最后,通过实验仿真来评估所提出的计费算法的性能,结果表明所提出的方案是非常有前途的。我们首先证明这个问题是NP问题。由于问题的复杂性,因此利用深度强化学习技术来获得移动充电器的移动路径。最后,通过实验仿真来评估所提出的计费算法的性能,结果表明所提出的方案是非常有前途的。

更新日期:2020-09-29
down
wechat
bug