当前位置: X-MOL 学术Discret. Comput. Geom. › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Random Sampling with Removal
Discrete & Computational Geometry ( IF 0.8 ) Pub Date : 2020-03-31 , DOI: 10.1007/s00454-020-00193-0
Kenneth L. Clarkson , Bernd Gärtner , Johannes Lengler , May Szedlák

We study randomized algorithms for constrained optimization, in abstract frameworks that include, in strictly increasing generality: convex programming; LP-type problems; violator spaces; and a setting we introduce, consistent spaces . Such algorithms typically involve a step of finding the optimal solution for a random sample of the constraints. They exploit the condition that, in finite dimension $$\delta $$ δ , this sample optimum violates a provably small expected fraction of the non-sampled constraints, with the fraction decreasing in the sample size r . We extend such algorithms by considering the technique of removal , where a fixed number k of constraints are removed from the sample according to a fixed rule, with the goal of improving the solution quality. This may have the effect of increasing the number of violated non-sampled constraints. We study this increase, and bound it in a variety of general settings. This work is motivated by, and extends, results on removal as proposed for chance-constrained optimization . For many relevant values of r , $$\delta $$ δ , and k , we prove matching upper and lower bounds for the expected number of constraints violated by a random sample, after the removal of k constraints. For a large range of values of k , the new upper bounds improve the previously best bounds for LP-type problems, which moreover had only been known in special cases, and not in the generality we consider. Moreover, we show that our results extend from finite to infinite spaces, for chance-constrained optimization.

中文翻译:

带移除的随机抽样

我们在抽象框架中研究用于约束优化的随机算法,其中包括严格增加的一般性:凸规划;LP 类型的问题;违规者空间;以及我们引入的设置,一致的空间。此类算法通常涉及为约束的随机样本寻找最佳解决方案的步骤。他们利用的条件是,在有限维度 $$\delta $$ δ 中,该样本最优值违反了非采样约束的可证明很小的预期分数,样本大小 r 中的分数减少。我们通过考虑去除技术来扩展此类算法,其中根据固定规则从样本中去除固定数量 k 的约束,目的是提高解决方案的质量。这可能会增加违反非采样约束的数量。我们研究了这种增加,并将其限制在各种一般环境中。这项工作的动机是,并扩展了为机会约束优化提出的移除结果。对于 r 、$$\delta $$ δ 和 k 的许多相关值,我们证明在去除 k 约束后,随机样本违反的预期约束数量的上限和下限匹配。对于较大范围的 k 值,新的上限改进了先前 LP 类型问题的最佳边界,而且仅在特殊情况下才知道,而不是在我们考虑的一般情况下。此外,我们表明我们的结果从有限空间扩展到无限空间,用于机会约束优化。这项工作的动机是,并扩展了为机会约束优化提出的移除结果。对于 r 、$$\delta $$ δ 和 k 的许多相关值,我们证明在去除 k 约束后,随机样本违反的预期约束数量的上限和下限匹配。对于较大范围的 k 值,新的上限改进了先前 LP 类型问题的最佳边界,而且仅在特殊情况下才知道,而不是在我们考虑的一般情况下。此外,我们表明我们的结果从有限空间扩展到无限空间,用于机会约束优化。这项工作的动机是,并扩展了为机会约束优化提出的移除结果。对于 r 、$$\delta $$ δ 和 k 的许多相关值,我们证明在去除 k 约束后,随机样本违反的预期约束数量的上限和下限匹配。对于较大范围的 k 值,新的上限改进了先前 LP 类型问题的最佳边界,而且仅在特殊情况下才知道,而不是在我们考虑的一般情况下。此外,我们表明我们的结果从有限空间扩展到无限空间,用于机会约束优化。我们证明了在去除 k 个约束后,随机样本违反的预期约束数量的上限和下限匹配。对于较大范围的 k 值,新的上限改进了先前 LP 类型问题的最佳边界,而且仅在特殊情况下才知道,而不是在我们考虑的一般情况下。此外,我们表明我们的结果从有限空间扩展到无限空间,用于机会约束优化。我们证明了在去除 k 个约束后,随机样本违反的预期约束数量的上限和下限匹配。对于较大范围的 k 值,新的上限改进了先前 LP 类型问题的最佳边界,而且仅在特殊情况下才知道,而不是在我们考虑的一般情况下。此外,我们表明我们的结果从有限空间扩展到无限空间,用于机会约束优化。
更新日期:2020-03-31
down
wechat
bug