实验室高振国老师等指导张家晖、范威威等同学撰写论文被《IEEE Transactions on Vehicular Technology》录用!论文题目为End-Edge-Cloud collaborative offloading of splittable tasks in Internet of Vehicles: A multi-agent reinforcement learning approach with group updating。已在线发表,网址为https://doi.org/10.1109/TVT.2025.3619438,该工作得到了国家自然基金(编号62372190)的支持。
智能交通的快速发展与数据流量的指数级增长,推动了车辆中更多计算密集型、时延敏感型任务的涌现,这给车联网(Internet of Vehicles, IoV)的任务卸载研究带来了挑战。车联网通过将任务卸载到边缘服务器(Edge Servers, ESs)和云服务器(Cloud Servers, CSs),为车辆提供超低时延的任务处理服务。
针对可分割任务的卸载问题,本文提出一种面向车联网的 “端 - 边 - 云” 协同可分割任务卸载框架。在该框架中,拥有空闲资源的车辆被视为 “临时边缘服务器”,以补充云服务器和边缘服务器的计算服务能力。本文提出一种多智能体深度确定性策略梯度算法(Multi-Agent Deep Deterministic Policy Gradient Algorithm),通过联合制定涉及任务分割、通信资源分配与计算资源分配的综合决策,实现任务完成时延的最小化。此外,为提升多智能体深度强化学习模型的训练效率,本文还提出一种基于分组的随机更新策略,用于模型训练过程。为激励高性能车辆(High-performance Vehicles, HVs)通过共享其空闲计算资源来提供边缘计算服务,本文构建了一个多领导者 - 多追随者斯塔克尔伯格激励博弈模型(Multi-Leader Multi-Follower Stackelberg Incentive Game Model)。在该模型中,云服务器充当 “领导者”,高性能车辆充当 “追随者”。本文证明了斯塔克尔伯格均衡点(Stackelberg Equilibrium, SE)的存在性,并提出一种最优动态响应算法,通过多轮协商促使云服务器的资源租赁定价决策与高性能车辆的资源共享量决策达到该均衡点。仿真结果表明,所提算法相较于选定的若干基准算法具有显著优势。
