情境最佳化

场景方法或场景优化方法是一种基于约束样本获得鲁棒优化和机会约束优化问题的解决方案的技术。 它还涉及建模和决策中的归纳推理。 该技术作为一种启发式方法已经存在了几十年,最近才获得了系统的理论基础。

在优化中,鲁棒性特征转化为由问题的不确定因参数化的约束。 在场景方法中,仅通过查看称为场景的随机约束样本(启发式方法)获得解决方案,并且根深蒂固的理论告诉用户相应解决方案与其他约束的相关性有多“稳健”。 该理论证明在鲁棒和机会约束优化中使用随机化是合理的。

数据驱动的优化

有时,场景是从模型中随机提取的。 然而,更常见的情况是,情景是作为观察(数据驱动科学)获得的不确定约束的实例。 在后一种情况下,生成场景不需要不确定性模型。 此外,最值得注意的是,在这种情况下,场景优化也伴随着成熟的理论,因为所有场景优化结果都是无分布的,因此即使在不确定性模型不可用的情况下也可以应用。

理论结果

对于凸约束(例如,在涉及 LMI(线性矩阵不等式)的半定问题中),已经建立了深入的理论分析,表明不满足新约束的概率遵循以 Beta 分布为主的分布。 这个结果是严格的,因为它对一整类凸问题都是准确的。 更一般地说,各种经验水平已被证明遵循 Dirichlet 分布,其边际是 beta 分布。 还考虑了使用 L 1 {displaystyle L_{1}} 正则化的场景方法,并且可以使用计算复杂度较低的便捷算法。 对更复杂、非凸的设置的扩展仍然是积极研究的对象。

沿着情景方法,也可以追求风险回报权衡。 此外,可以使用成熟的方法将这种方法应用于控制。 首先对 N {displaystyle N} 约束进行采样,然后用户开始连续删除一些约束。 这可以通过不同的方式完成,甚至可以根据贪心算法来完成。 再消除一个约束后,更新最优解,确定对应的最优值。 随着这个过程的继续,用户构建了一个经验“价值曲线”,即代表在去除越来越多的约束后实现的价值的曲线。 场景理论提供了对各种解决方案的稳健程度的精确评估。

最近的等待和判断方法在理论中取得了显着进步:评估解决方案的复杂性(如参考文章中精确定义的那样),并根据其值对解决方案的稳健性进行精确评估。 这些结果揭示了复杂性和风险概念之间根深蒂固的联系。 一种名为重复场景设计的相关方法旨在通过重复交替场景设计阶段(减少样本数量)和随机检查后续解决方案的可行性来降低解决方案的样本复杂性。

例子

考虑一个代表投资回报的函数 R δ ( x ) {displaystyle R_{delta }(x)}; 它取决于我们的投资选择向量 x {displaystyle x} 和市场状态 δ {displaystyle delta },这将在投资期结束时经历。情境最佳化

这对应于选择投资组合向量 x 以便在最坏情况下获得最佳回报。

解决(1)后,最优投资策略 x ∗ {displaystyle x{ast }} 与相应的最优回报 R ∗ {displaystyle R{ast }} 一起实现。 虽然 R ∗ {displaystyle R{ast }} 是通过仅查看 N {displaystyle N} 可能的市场状态获得的,情景理论告诉我们解决方案在一定程度上是稳健的。

0

点评

点赞

相关文章