当前位置:
X-MOL 学术
›
IEEE Netw.
›
论文详情
Toward Resource-Efficient Federated Learning in Mobile Edge Computing
IEEE NETWORK ( IF 8.808 ) Pub Date : 2021-02-16 , DOI: 10.1109/mnet.011.2000295 Rong Yu; Peichun Li
IEEE NETWORK ( IF 8.808 ) Pub Date : 2021-02-16 , DOI: 10.1109/mnet.011.2000295 Rong Yu; Peichun Li
Federated learning is a newly emerged distributed deep learning paradigm, where the clients separately train their local neural network models with private data and then jointly aggregate a global model at the central server. Mobile edge computing is aimed at deploying mobile applications at the edge of wireless networks. Federated learning in mobile edge computing is a prospective distributed framework to deploy deep learning algorithms in many application scenarios. The bottleneck of federated learning in mobile edge computing is the intensive resources of mobile clients in computation, bandwidth, energy, and data. This article first illustrates the typical use cases of federated learning in mobile edge computing, and then investigates the state-of-the-art resource optimization approaches in federated learning. The resource-effi-cient techniques for federated learning are broadly divided into two classes: the black-box and white-box approaches. For black-box approaches, the techniques of training tricks, client selection, data compensation, and hierarchical aggregation are reviewed. For white-box approaches, the techniques of model compression, knowledge distillation, feature fusion, and asynchronous update are discussed. After that, a neural-structure-aware resource management approach with mod-ule-based federated learning is proposed, where mobile clients are assigned with different subnetworks of the global model according to the status of their local resources. Experiments demonstrate the superiority of our approach in elastic and efficient resource utilization.
中文翻译:
在移动边缘计算中实现资源高效的联合学习
联合学习是一种新兴的分布式深度学习范例,其中客户分别使用私有数据训练其本地神经网络模型,然后在中央服务器上共同汇总全局模型。移动边缘计算旨在将移动应用程序部署在无线网络的边缘。移动边缘计算中的联合学习是一个前瞻的分布式框架,可以在许多应用场景中部署深度学习算法。移动边缘计算中联合学习的瓶颈是移动客户端在计算,带宽,能源和数据上的密集资源。本文首先说明了移动边缘计算中联合学习的典型用例,然后研究了联合学习中最新的资源优化方法。联合学习的资源有效技术大致分为两类:黑盒方法和白盒方法。对于黑盒方法,将回顾训练技巧,客户选择,数据补偿和层次聚合的技术。对于白盒方法,讨论了模型压缩,知识提取,特征融合和异步更新的技术。在此之后,提出了一种基于模块的联合学习的神经结构感知资源管理方法,其中根据本地资源的状态为移动客户端分配全局模型的不同子网。实验证明了我们的方法在弹性和有效资源利用方面的优势。黑盒和白盒方法。对于黑盒方法,将回顾训练技巧,客户选择,数据补偿和层次聚合的技术。对于白盒方法,讨论了模型压缩,知识提取,特征融合和异步更新的技术。在此之后,提出了一种基于模块的联合学习的神经结构感知资源管理方法,其中根据本地资源的状态为移动客户端分配全局模型的不同子网。实验证明了我们的方法在弹性和有效资源利用方面的优势。黑盒和白盒方法。对于黑盒方法,将回顾训练技巧,客户选择,数据补偿和层次聚合的技术。对于白盒方法,讨论了模型压缩,知识提取,特征融合和异步更新的技术。此后,提出了一种基于模块的联合学习的神经结构感知资源管理方法,其中根据本地资源的状态为移动客户端分配全局模型的不同子网。实验证明了我们的方法在弹性和有效资源利用方面的优势。讨论了模型压缩,知识提取,特征融合和异步更新的技术。在此之后,提出了一种基于模块的联合学习的神经结构感知资源管理方法,其中根据本地资源的状态为移动客户端分配全局模型的不同子网。实验证明了我们的方法在弹性和有效资源利用方面的优势。讨论了模型压缩,知识提取,特征融合和异步更新的技术。在此之后,提出了一种基于模块的联合学习的神经结构感知资源管理方法,其中根据本地资源的状态为移动客户端分配全局模型的不同子网。实验证明了我们的方法在弹性和有效资源利用方面的优势。
更新日期:2021-02-19
中文翻译:

在移动边缘计算中实现资源高效的联合学习
联合学习是一种新兴的分布式深度学习范例,其中客户分别使用私有数据训练其本地神经网络模型,然后在中央服务器上共同汇总全局模型。移动边缘计算旨在将移动应用程序部署在无线网络的边缘。移动边缘计算中的联合学习是一个前瞻的分布式框架,可以在许多应用场景中部署深度学习算法。移动边缘计算中联合学习的瓶颈是移动客户端在计算,带宽,能源和数据上的密集资源。本文首先说明了移动边缘计算中联合学习的典型用例,然后研究了联合学习中最新的资源优化方法。联合学习的资源有效技术大致分为两类:黑盒方法和白盒方法。对于黑盒方法,将回顾训练技巧,客户选择,数据补偿和层次聚合的技术。对于白盒方法,讨论了模型压缩,知识提取,特征融合和异步更新的技术。在此之后,提出了一种基于模块的联合学习的神经结构感知资源管理方法,其中根据本地资源的状态为移动客户端分配全局模型的不同子网。实验证明了我们的方法在弹性和有效资源利用方面的优势。黑盒和白盒方法。对于黑盒方法,将回顾训练技巧,客户选择,数据补偿和层次聚合的技术。对于白盒方法,讨论了模型压缩,知识提取,特征融合和异步更新的技术。在此之后,提出了一种基于模块的联合学习的神经结构感知资源管理方法,其中根据本地资源的状态为移动客户端分配全局模型的不同子网。实验证明了我们的方法在弹性和有效资源利用方面的优势。黑盒和白盒方法。对于黑盒方法,将回顾训练技巧,客户选择,数据补偿和层次聚合的技术。对于白盒方法,讨论了模型压缩,知识提取,特征融合和异步更新的技术。此后,提出了一种基于模块的联合学习的神经结构感知资源管理方法,其中根据本地资源的状态为移动客户端分配全局模型的不同子网。实验证明了我们的方法在弹性和有效资源利用方面的优势。讨论了模型压缩,知识提取,特征融合和异步更新的技术。在此之后,提出了一种基于模块的联合学习的神经结构感知资源管理方法,其中根据本地资源的状态为移动客户端分配全局模型的不同子网。实验证明了我们的方法在弹性和有效资源利用方面的优势。讨论了模型压缩,知识提取,特征融合和异步更新的技术。在此之后,提出了一种基于模块的联合学习的神经结构感知资源管理方法,其中根据本地资源的状态为移动客户端分配全局模型的不同子网。实验证明了我们的方法在弹性和有效资源利用方面的优势。