当前位置: X-MOL 学术arXiv.cs.IT › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Caching in Networks without Regret
arXiv - CS - Information Theory Pub Date : 2020-09-17 , DOI: arxiv-2009.08228
Debjit Paria, Krishnakumar, Abhishek Sinha

We consider the online $\textsf{Bipartite Caching}$ problem where $n$ users are connected to $m$ caches in the form of a bipartite network. Each of the $m$ caches has a file storage capacity of $C$. There is a library consisting of $N >C$ distinct files. Each user can request any one of the files from the library at each time slot. We allow the file request sequences to be chosen in an adversarial fashion. A user's request at a time slot is satisfied if the requested file is already hosted on at least one of the caches connected to the user at that time slot. Our objective is to design an efficient online caching policy with minimal regret. In this paper, we propose $\textsf{LeadCache,}$ an online caching policy based on the $\textsf{Follow the Perturbed Leader}$ (FTPL) paradigm. We show that $\textsf{LeadCache}$ is regret optimal up to a multiplicative factor of $\tilde{O}(n^{0.375}).$ As a byproduct of our analysis, we design a new linear-time deterministic Pipage rounding procedure for the LP relaxation of a well-known NP-hard combinatorial optimization problem in this area. Our new rounding algorithm substantially improves upon the currently best-known complexity for this problem. Moreover, we show the surprising result that under mild Strong-Law-type assumptions on the file request sequence, the rate of file fetches to the caches approaches to zero under the $\textsf{LeadCache}$ policy. Finally, we derive a tight universal regret lower bound for the $\textsf{Bipartite Caching}$ problem, which critically makes use of results from graph coloring theory and certifies the announced approximation ratio.

中文翻译:

无悔地在网络中缓存

我们考虑在线 $\textsf{Bipartite Caching}$ 问题,其中 $n$ 用户以双向网络的形式连接到 $m$ 缓存。每个 $m$ 缓存具有 $C$ 的文件存储容量。有一个由 $N >C$ 不同文件组成的库。每个用户可以在每个时间段从库中请求任何一个文件。我们允许以对抗方式选择文件请求序列。如果所请求的文件已经在该时间段连接到用户的至少一个缓存上托管,则该用户在该时间段的请求得到满足。我们的目标是设计一个有效的在线缓存策略,并且将遗憾降到最低。在本文中,我们提出了 $\textsf{LeadCache,}$ 一种基于 $\textsf{Follow the Perturbed Leader}$ (FTPL) 范式的在线缓存策略。我们证明 $\textsf{LeadCache}$ 在乘法因子为 $\tilde{O}(n^{0.375}) 时是后悔最优的。$ 作为我们分析的副产品,我们设计了一个新的线性时间确定性 Pipage用于该领域众所周知的 NP 难组合优化问题的 LP 松弛的舍入程序。我们新的舍入算法大大改进了这个问题目前最著名的复杂性。此外,我们展示了令人惊讶的结果,即在文件请求序列的温和强律类型假设下,在 $\textsf{LeadCache}$ 策略下,文件获取到缓存的速率接近于零。最后,我们为 $\textsf{Bipartite Caching}$ 问题推导出了一个严格的普遍遗憾下界,它批判性地利用了图着色理论的结果并证明了公布的近似比。我们设计了一个新的线性时间确定性 Pipage 舍入程序,用于该领域众所周知的 NP-hard 组合优化问题的 LP 松弛。我们新的舍入算法大大改进了这个问题目前最著名的复杂性。此外,我们展示了令人惊讶的结果,即在文件请求序列的温和强律类型假设下,在 $\textsf{LeadCache}$ 策略下,文件获取到缓存的速率接近于零。最后,我们为 $\textsf{Bipartite Caching}$ 问题推导出了一个严格的普遍遗憾下界,它批判性地利用了图着色理论的结果并证明了公布的近似比。我们设计了一个新的线性时间确定性 Pipage 舍入程序,用于该领域众所周知的 NP-hard 组合优化问题的 LP 松弛。我们新的舍入算法大大改进了这个问题目前最著名的复杂性。此外,我们展示了令人惊讶的结果,即在文件请求序列的温和强律类型假设下,在 $\textsf{LeadCache}$ 策略下,文件获取到缓存的速率接近于零。最后,我们为 $\textsf{Bipartite Caching}$ 问题推导出了一个严格的普遍遗憾下界,它批判性地利用了图着色理论的结果并证明了公布的近似比。我们新的舍入算法大大改进了这个问题目前最著名的复杂性。此外,我们展示了令人惊讶的结果,即在文件请求序列的温和强律类型假设下,在 $\textsf{LeadCache}$ 策略下,文件获取到缓存的速率接近于零。最后,我们为 $\textsf{Bipartite Caching}$ 问题推导出了一个严格的普遍遗憾下界,它批判性地利用了图着色理论的结果并证明了公布的近似比。我们新的舍入算法大大改进了这个问题目前最著名的复杂性。此外,我们展示了令人惊讶的结果,即在文件请求序列的温和强律类型假设下,在 $\textsf{LeadCache}$ 策略下,文件获取到缓存的速率接近于零。最后,我们为 $\textsf{Bipartite Caching}$ 问题推导出了一个严格的普遍遗憾下界,它批判性地利用了图着色理论的结果并证明了公布的近似比。
更新日期:2020-09-18
down
wechat
bug