当前位置: X-MOL 学术Veh. Commun. › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
A context-oriented framework for computation offloading in vehicular edge computing using WAVE and 5G networks
Vehicular Communications ( IF 5.8 ) Pub Date : 2021-07-29 , DOI: 10.1016/j.vehcom.2021.100389
Alisson Barbosa de Souza 1 , Paulo Antonio Leal Rego 1 , Tiago Carneiro 2 , Paulo Henrique Gonçalves Rocha 1 , José Neuman de Souza 1
Affiliation  

Despite technological advances, vehicles are still unable to meet the demands of some applications for massive computational resources in a feasible time. One way to deal with this situation is to integrate the computation offloading technique into a vehicular edge computing system. This integration allows application tasks to be executed on neighboring vehicles or edge servers coupled to base stations. However, the dynamic nature of vehicular networks, allied to overloaded servers, can lead to failures and reduce the effectiveness of the offloading technique. Therefore, we propose a context-oriented framework for computation offloading to reduce the application execution time and maintain high reliability in vehicular edge computing. The framework modules perform computational resources discovery, contextual data gathering, computation tasks distribution, and failure recovery. Its main part is a task assignment algorithm that seeks the best possible server to execute each application task, using contextual information and WAVE and 5G networks. The results of extensive experiments in different vehicular environments show that our framework reduces up to 70.3% of total execution time compared to totally local execution and up to 42.9% compared to other literature approaches. Concerning reliability, our framework achieves to offload up to 89.4% of all tasks and needs to recover only 0.8% of them. Thus, our solution outperforms the totally local execution of the application and other existing computation offloading solutions.



中文翻译:

使用 WAVE 和 5G 网络在车辆边缘计算中进行计算卸载的面向上下文的框架

尽管技术进步,但车辆仍然无法在可行的时间内满足某些应用程序对海量计算资源的需求。处理这种情况的一种方法是将计算卸载技术集成到车辆边缘计算系统中。这种集成允许在与基站耦合的相邻车辆或边缘服务器上执行应用任务。然而,车辆网络的动态特性与过载的服务器相关联,可能导致故障并降低卸载技术的有效性。因此,我们提出了一个面向上下文的计算卸载框架,以减少应用程序执行时间并保持车载边缘计算的高可靠性。框架模块执行计算资源发现、上下文数据收集、计算任务分配和故障恢复。它的主要部分是任务分配算法,该算法使用上下文信息以及 WAVE 和 5G 网络寻找最佳服务器来执行每个应用程序任务。在不同车辆环境中的大量实验结果表明,与完全本地执行相比,我们的框架减少了高达 70.3% 的总执行时间,与其他文献方法相比减少了高达 42.9%。关于可靠性,我们的框架实现了高达 89.4% 的所有任务的卸载,并且只需要恢复其中的 0.8%。因此,我们的解决方案优于应用程序的完全本地执行和其他现有的计算卸载解决方案。使用上下文信息和 WAVE 和 5G 网络。在不同车辆环境中的大量实验结果表明,与完全本地执行相比,我们的框架减少了高达 70.3% 的总执行时间,与其他文献方法相比减少了高达 42.9%。关于可靠性,我们的框架实现了高达 89.4% 的所有任务的卸载,并且只需要恢复其中的 0.8%。因此,我们的解决方案优于应用程序的完全本地执行和其他现有的计算卸载解决方案。使用上下文信息和 WAVE 和 5G 网络。在不同车辆环境中的大量实验结果表明,与完全本地执行相比,我们的框架减少了高达 70.3% 的总执行时间,与其他文献方法相比减少了高达 42.9%。关于可靠性,我们的框架实现了高达 89.4% 的所有任务的卸载,并且只需要恢复其中的 0.8%。因此,我们的解决方案优于应用程序的完全本地执行和其他现有的计算卸载解决方案。我们的框架实现了卸载高达 89.4% 的所有任务,并且只需要恢复其中的 0.8%。因此,我们的解决方案优于应用程序的完全本地执行和其他现有的计算卸载解决方案。我们的框架实现了卸载高达 89.4% 的所有任务,并且只需要恢复其中的 0.8%。因此,我们的解决方案优于应用程序的完全本地执行和其他现有的计算卸载解决方案。

更新日期:2021-08-05
down
wechat
bug