Two-stage RO: part 1

作者:刘兴禄,清华大学博士在读

2021.09.28

特别感谢Zeng Bo老师非常耐心地解答我的疑惑,您的解答对我来讲非常重要。

本文非常详细、完整地介绍了求解Two-stage Robust Optimization Model的一种精确算法:Column and Constraint Generation Algorithm。该算法由Zeng Bo, Zhao Long于2013年首次提出,相关论文发表在期刊《Operations Research Letters》上,论文题目为《Solving two-stage robust optimization problems using a column-and-constraint generation method》。本文对该论文进行了非常细致的解读,包括:

  • 对鲁棒优化问题进行了分类;
  • 对两阶段鲁棒优化模型进行了详细解析;
  • 对Bender-dual算法进行了讲解;
  • 对Column-and-constraint generation method进行了非常详细的解读、完整的推导和完整的解释;
  • 对论文中的案例进行了相当详细的推导;
  • 对Column-and-constraint generation method进行了完整的代码复现(Python调用Gurobi实现)。

两阶段鲁棒优化问题(Two-stage Robust Optimization)

鲁棒优化是一类考虑参数不确定的数学规划问题,是运筹学中比较高阶的方法。近几年,关于鲁棒优化的研究越来越火热。常见的鲁棒优化问题包括基本的鲁棒优化多阶段鲁棒优化分布式鲁棒优化等。

鲁棒优化旨在处理优化问题中参数不确定的挑战,致力于优化最坏情况(worst case)下的解,或者最坏参数分布下的解(对应分布式鲁棒优化),从而使最终得到的解具有非常强的抵抗不确定性或者风险的能力

处理参数不确定的优化问题,还有一类方法,叫作随机规划,关于二者的区别,见往期推文。

两阶段鲁棒优化问题,是多阶段鲁棒优化的一个特例(multi-stage robust optimization)。在两阶段鲁棒优化问题中,一般包含两个不同层级的决策变量,又称为第一阶段的决策(first-stage decision)和第二阶段的决策(second-stage decision)。比如:一个联合优化问题,同时考虑

  • 战略层决策和战术层决策;
  • 战术层决策和操作层决策

一个典型例子,就是选址-配送规划问题选址决策属于战略层决策,配送问题,可以视为战术层或者作业层决策。

两阶段鲁棒优化问题描述如下:

  • 第一阶段的决策相关的参数是确定的,并且第一阶段的决策需要首先做出
  • 第二阶段的决策的相关参数有一些是不确定的。第二阶段的决策需要在第一阶段的决策确定之后,等到第二阶段参数的揭示后,再做出相应的第二阶段决策。
  • 两阶段鲁棒优化的目标为:对两阶段决策进行联合优化,同时考虑第二阶段参数的不确定性。也就是优化在第二阶段参数取到最坏情况下的两个阶段决策对应的总的目标值。

下面我们用标准的数学语言来描述两阶段鲁棒优化问题。两阶段鲁棒优化问题的数学模型如下所示(参考自文献[1])

min ⁡ y c T y + max ⁡ u ∈ U min ⁡ x ∈ F ( y , u ) b T x ( 1 ) s . t . A y ⩾ d , ( 2 ) G x ⩾ h − E y − M u , u ∈ U ( 3 ) S y ⊆ R + n ( 4 ) S x ⊆ R + m ( 5 ) \begin{aligned} \min_{\mathbf{y}} \quad & \mathbf{c^Ty} +\max_{u \in \mathcal{U}} \min_{ \mathbf{x}\in {\mathbf{F}(\mathbf{y}, u )}} \mathbf{b}^T \mathbf{x} && (1) \\ s.t.\quad & \mathbf{Ay \geqslant d}, && (2) \\ & \mathbf{Gx \geqslant h - Ey - M}u , \qquad u \in \mathcal{U} && (3) \\ & \mathbf{S_y} \subseteq \mathbb{R}_{+}^{n} && (4) \\ & \mathbf{S_x} \subseteq \mathbb{R}_{+}^{m} && (5) \end{aligned} ymins.t.cTy+uUmaxxF(y,u)minbTxAyd,GxhEyMu,uUSyR+nSxR+m(1)(2)(3)(4)(5)

其中:

  • y \mathbf{y} y为第一阶段的决策变量;
  • x \mathbf{x} x为第二阶段的决策变量;
  • c \mathbf{c} c为第一阶段的决策变量相关的参数,是确定的;
  • u u u为第二阶段的决策变量相关的参数,是不确定的,且其不确定参数的取值范围由不确定集 U \mathcal{U} U刻画;具体的例子见往期推文;
  • 目标函数中,第一项 min ⁡ y   c T y \min_{\mathbf{y}} \,\mathbf{c^Ty} minycTy为第一阶段决策对应的目标函数。该部分决策需要首先确定
  • 目标函数中,第二项 max ⁡ u ∈ U min ⁡ x ∈ F ( y , u ) b T x \max_{u \in \mathcal{U}} \min_{ \mathbf{x}\in {\mathbf{F}(\mathbf{y}, u )}} \mathbf{b}^T \mathbf{x} maxuUminxF(y,u)bTx为第二阶段决策对应的目标函数。该部分决策需要在第一阶段决策确定之后再做出;该部分目标函数旨在找到worst case;也就是在最坏情况下,第二阶段的目标值;
  • 整个目标函数,就是在优化在最坏情况下的总目标函数,使得最坏的情况最好,使得解具有非常好的鲁棒性。
  • 约束(2)只跟第一阶段的决策有关;
  • 约束(3)中跟第一阶段,第二阶段的决策都有关,且包含不确定参数 u u u

以上就是两阶段鲁棒优化的一个简要介绍。目前还比较晦涩的数学符号,我们将在下文进行更通俗的解读。

  • 注意,如果 u u u的取值可能性非常少,我们就可以通过穷举 u u u的取值,显式地将每个可能的 u u u对应的约束都加进模型,然后将两阶段鲁棒优化模型等价为一个可直接求解的一阶段数学规划模型,从而可以达到直接求解上述Two-stage robust optimization模型的目的。因为最坏情况,一定是对应着某一种 u u u的取值,而我们已经穷举了所有 u u u的取值可能,且将其显式地写进了模型,因此原两阶段鲁棒优化模型可以直接被解决。但是通常, u u u的取值非常多(组合数级别或者无穷多),穷举 u u u往往是低效甚至不可行的,因此,需要利用一些其他方法来求解Two-stage robust optimization model。本文将要介绍的Column and Constraint Generation算法就是其中一种(此外,文献[1]中提到的Benders-dual algorithm也是一种)。

两阶段鲁棒优化问题的详细解读

参考文献[1]中提到:

Two-stage RO 的计算非常困难,即使是一个简单的Two-stage RO问题也可能是NP-Hard的。为了克服计算负担,目前主要流行两种求解策略。第一种是使用 approximation algorithms,它假设第二阶段的决策是不确定性的简单函数,如仿射函数。第二类算法是利用Benders分解法求出精确解,即利用第二阶段决策问题的对偶解逐步构造第一阶段决策的价值函数。因此,我们称它们为Benders-dual cutting plane algorithms算法。

文献[1]中关于两阶段鲁棒优化问题模型的描述如下:
在这里插入图片描述
该论文探讨的问题,是基于如下的假设:

  • 决策变量类型假设:first-stage and second-stage are linear optimization
  • 参数不确定性(uncertainty): is either a finite discrete set or a polyhedron. 换句话说,改论文考虑的不确定集为是一个有限的离散集合或者一个多面体集合,比如
    • a finite discrete set:不确定参数的可能取值为一个有限的可选集,例如: u ∈ U = { scenario 1 , scenario 2 , scenario 3 } u \in \mathcal{U} = \{ \text{scenario}_1, \text{scenario}_2, \text{scenario}_3\} uU={ scenario1,scenario2,scenario3}.
    • a polyhedron: 不确定参数的可能取值的范围为一个多面体,例如 u ∈ U = { 1 ⩽ u 1 ⩽ 2 , 3 ⩽ u 2 ⩽ 5 } u \in \mathcal{U} = \{ 1 \leqslant u_1 \leqslant 2, 3 \leqslant u_2 \leqslant 5\} uU={ 1u12,3u25},该不确定集为一个矩形,学术上一般称其为盒子不确定集(box uncertainty set)

根据上图,两阶段鲁棒优化中,第一阶段的决策需要首先做出,其优化方向为 min ⁡ \min min

但是第二阶段的决策,却是一个双层问题(bi-level)。具体来讲,目标函数第二项的符号为
max ⁡ u ∈ U min ⁡ x ∈ F ( y , u ) b T x \max_{u \in \mathcal{U}} \min_{ \mathbf{x}\in {\mathbf{F}(\mathbf{y}, u )}} \mathbf{b}^T \mathbf{x} uUmaxxF(y,u)minbTx
这个符号需要详细解释一下:

  • x ∈ F ( y , u ) \mathbf{x}\in {\mathbf{F}(\mathbf{y}, u )} xF(y,u)的意思: 表示given 不确定参数 u u u的一个取值,以及given first-stage决策变量 y \mathbf{y} y的取值,我们决策 x \mathbf{x} x,使得 b T x \mathbf{b}^T \mathbf{x} bTx最小。并且满足如下约束
    F ( y , u ) = { x ∈ S x : G x ⩾ h − E y − M u } \begin{aligned} \mathbf{F}(\mathbf{y}, u ) = \{ \mathbf{x} \in \mathbf{S}_{\mathbf{x}} : \mathbf{Gx \geqslant h - Ey - M}u \} \end{aligned} F(y,u)={ xSx:GxhEyMu}
    with S y ⊆ R + n \mathbf{S_y} \subseteq \mathbb{R}_{+}^{n} SyR+n and S x ⊆ R + m \mathbf{S_x} \subseteq \mathbb{R}_{+}^{m} SxR+m

其实 S y ⊆ R + n \mathbf{S_y} \subseteq \mathbb{R}_{+}^{n} SyR+n and S x ⊆ R + m \mathbf{S_x} \subseteq \mathbb{R}_{+}^{m} SxR+m就是说, x \mathbf{x} x y \mathbf{y} y分别是 n × 1 n\times 1 n×1维和 m × 1 m\times 1 m×1维的非负连续决策变量而已。

我们将上图中的模型展开,写成一个比较容易看明白的形式:

min ⁡ y c T y + max ⁡ u ∈ U min ⁡ x ∈ F ( y , u ) b T x ( 1 ) s . t . A y ⩾ d , ( 2 ) G x ⩾ h − E y − M u , u ∈ U ( 3 ) S y ⊆ R + n ( 4 ) S x ⊆ R + m ( 5 ) \begin{aligned} \min_{\mathbf{y}} \quad & \mathbf{c^Ty} +\max_{u \in \mathcal{U}} \min_{ \mathbf{x}\in {\mathbf{F}(\mathbf{y}, u )}} \mathbf{b}^T \mathbf{x} && (1) \\ s.t.\quad & \mathbf{Ay \geqslant d}, && (2) \\ & \mathbf{Gx \geqslant h - Ey - M}u , \qquad u \in \mathcal{U} && (3) \\ & \mathbf{S_y} \subseteq \mathbb{R}_{+}^{n} && (4) \\ & \mathbf{S_x} \subseteq \mathbb{R}_{+}^{m} && (5) \end{aligned} ymins.t.cTy+uUmaxxF(y,u)minbTxAyd,GxhEyMu,uUSyR+nSxR+m(1)(2)(3)(4)(5)

只不过,论文截图中 y ∈ S y \mathbf{y \in S_y} ySy,就等价于 y \mathbf{y} y是下面模型的可行解

min ⁡ y c T y + max ⁡ u ∈ U min ⁡ x ∈ F ( y , u ) b T x s . t . A y ⩾ d , S y ⊆ R + n \begin{aligned} \min_{\mathbf{y}} \quad & \mathbf{c^Ty} +\max_{u \in \mathcal{U}} \min_{ \mathbf{x}\in {\mathbf{F}(\mathbf{y}, u )}} \mathbf{b}^T \mathbf{x} \\ s.t.\quad & \mathbf{Ay \geqslant d}, \\ & \mathbf{S_y} \subseteq \mathbb{R}_{+}^{n} \end{aligned} ymins.t.cTy+uUmaxxF(y,u)minbTxAyd,SyR+n
其中 u , x u, \mathbf{x} u,x是一个给定的值。

上述Two-stage Robust Optimization模型,一般是无法直接调用优化求解器进行求解的,需要设计对应的算法进行求解。下面就来介绍求解该模型的算法。

Two-stage RO和Benders-dual cutting plane method

类似于使用标准的Benders Decomposition算法求解确定性问题,Two-stage RO也是可以使用Benders Decomposition算法来求解的。文献中将该算法称之为Benders-dual cutting plane method。

本文仅对Benders-dual cutting plane method做简要介绍。小编其实早就已经写好了Benders-dual cutting plane method的完整笔记和代码,只不过想留着后面再分享,尽请期待!

Benders-dual cutting plane method求解Two-stage RO问题可以类比Benders Decomposition求解确定性问题的情形。我们可以将Two-stage RO分解为:

  • 一个主问题(Master Problem),主要包含第一阶段的决策 y \mathbf{y} y及只跟 y \mathbf{y} y有关的约束、子问题返回的割,评估第二阶段目标函数取值的辅助变量 η \eta η(类似于Benders Decomposition算法中的 q q q);
  • 一个子问题(Subproblem),主要包含第二阶段的决策 x \mathbf{x} x和不确定变量 u u u,旨在给出第二阶段目标函数值的一个界限(类似于标准的Benders Decomposition算法)。

Benders-dual cutting plane method中的初始主问题和Benders Decomposition算法类似,为

min ⁡ y c T y + η ( 1 ) s . t . A y ⩾ d , ( 2 ) S y ⊆ R + n , ( 3 ) η ⩾ 0. ( 4 ) \begin{aligned} \min_{\mathbf{y}} \quad & \mathbf{c^Ty} +\eta && (1) \\ s.t.\quad & \mathbf{Ay \geqslant d}, && (2) \\ & \mathbf{S_y} \subseteq \mathbb{R}_{+}^{n}, && (3) \\ &\eta \geqslant 0. && (4) \end{aligned} ymins.t.cTy+ηAyd,SyR+n,η0.(1)(2)(3)(4)
初始主问题并没有任何Benders cut的加入。

下面我们来大致推导Benders-dual cutting plane method中的割平面。首先来看second-stage的部分,也就是

max ⁡ u ∈ U min ⁡ x ∈ F ( y , u ) b T x s . t . G x ⩾ h − E y − M u , u ∈ U S x ⊆ R + m \begin{aligned} \max_{u \in \mathcal{U}} \min_{ \mathbf{x}\in {\mathbf{F}(\mathbf{y}, u )}} \quad & \mathbf{b}^T \mathbf{x} \\ s.t.\quad& \mathbf{Gx \geqslant h - Ey - M}u , \qquad u \in \mathcal{U} \\ & \mathbf{S_x} \subseteq \mathbb{R}_{+}^{m} \end{aligned} uUmaxxF(y,u)mins.t.bTxGxhEyMu,uUSxR+m

这部分原文是这么描述的

Consider the case where the second-stage decision problem is a linear programming (LP) problem in x \mathbf{x} x. We first take the relatively complete recourse assumption that this LP is feasible for any given y \mathbf{y} y and u u u. Let π \pi π be its dual variables. Then, we obtain its dual problem, which is a maximization problem and can be merged with the maximization over u u u. As a result, we have the following problem, which yields the subproblem in the Benders-dual method.

由于上式中,外层是 max ⁡ u ∈ U \max_{u \in \mathcal{U}} maxuU,外层的决策变量是不确定变量 u u u,因此对于内层, min ⁡ x ∈ F ( y , u ) \min_{ \mathbf{x}\in {\mathbf{F}(\mathbf{y}, u )}} minxF(y,u)而言, y \mathbf{y} y u u u都是已知(given)的,也就是,inner level的模型其实是 given u u u, given y \mathbf{y} y,

min ⁡ x ∈ F ( y ˉ , u ˉ ) b T x s . t . G x ⩾ h − E y ˉ − M u ˉ , → π S x ⊆ R + m \begin{aligned} \min_{ \mathbf{x}\in {\mathbf{F}(\mathbf{\bar{y}}, \bar{u} )}} \quad & \mathbf{b}^T \mathbf{x} \\ s.t.\quad& \mathbf{Gx \geqslant h - E\bar{y} - M}\bar{u} , \qquad \rightarrow \mathbf{\pi} \\ & \mathbf{S_x} \subseteq \mathbb{R}_{+}^{m} \end{aligned} xF(yˉ,uˉ)mins.t.bTxGxhEyˉMuˉ,πSxR+m
其中 y ˉ \mathbf{\bar{y}} yˉ是求解first-stage的模型得到的解,而 u ˉ \bar{u} uˉ是在second-stageouter-level中已经fix的不确定的量的取值。另外, π \mathbf{\pi} π是一个列向量,并不是标量。因此, h − E y ˉ − M u ˉ h - E\bar{y} - \mathbf{M}\bar{u} hEyˉMuˉ是已知常数列向量,是约束的右端常数项。

由于上述inner level的模型是线性规划,所以我们直接写出上述模型的对偶问题,为

max ⁡ π ( h − E y ˉ − M u ˉ ) T π s . t . G T π ⩽ b , π ⩾ 0. \begin{aligned} \max_{ \pi} \quad & (\mathbf{h - E\bar{y} - M}\bar{u} )^T \pi \\ s.t.\quad& \mathbf{G^T \pi \leqslant b} , \\ & \pi \geqslant \mathbf{0}. \end{aligned} πmaxs.t.(hEyˉMuˉ)TπGTπb,π0.
注意, π \mathbf{\pi} π是一个列向量,并不是标量。以及 0 \mathbf{0} 0是一个元素全部为0的列向量。

如果我们把second-stageouter-levelinner level的模型写在一起, max ⁡    max ⁡ \max \,\, \max maxmax就等价于 max ⁡ \max max。 于是我们就将第二阶段bi-level(双层)优化模型转化成了一个单层优化模型,也就是把

max ⁡ u max ⁡ π ( h − E y ˉ − M u ) T π s . t . G T π ⩽ b , π ⩾ 0 u ∈ U . \begin{aligned} \max_{u} \max_{ \pi} \quad & (\mathbf{h - E\bar{y} - M}u )^T \pi \\ s.t.\quad& \mathbf{G^T \pi \leqslant b} , \\ & \pi \geqslant \mathbf{0} \\ & u \in \mathcal{U}. \end{aligned} umaxπmaxs.t.(hEyˉMu)TπGTπb,π0uU.

等价为

max ⁡ π , u ( h − E y ˉ − M u ) T π s . t . G T π ⩽ b , π ⩾ 0 u ∈ U . \begin{aligned} \max_{ \pi, u} \quad & (\mathbf{h - E\bar{y} - M}u )^T \pi \\ s.t.\quad& \mathbf{G^T \pi \leqslant b} , \\ & \pi \geqslant \mathbf{0} \\ & u \in \mathcal{U}. \end{aligned} π,umaxs.t.(hEyˉMu)TπGTπb,π0uU.

  • 注意,由于是将 max ⁡    max ⁡ \max \,\, \max maxmax等价成了 max ⁡ \max max,因此outer-level的不确定变量 u u u也就纳入到等价后的一阶段模型中来了。其中 y ˉ \mathbf{\bar{y}} yˉ是从第一阶段得到的fix的值。

由于上述模型中, y ˉ \mathbf{\bar{y}} yˉ已经被固定,因此 ( h − E y ˉ − M u ) T π (\mathbf{h - E\bar{y} - M}u )^T \pi (hEyˉMu)Tπ就为最优解中第二阶段的目标函数提供了一个下界

为什么 ( h − E y ˉ − M u ) T π (\mathbf{h - E\bar{y} - M}u )^T \pi (hEyˉMu)Tπ就为最优解中第二阶段的目标函数提供了一个下界呢?因为,如果 y \mathbf{y} y没有被固定,则 max ⁡ π , u   ( h − E y − M u ) T π ⩾ max ⁡ π , u   ( h − E y ˉ − M u ) T π \max_{ \pi, u} \, (\mathbf{h - Ey - M}u )^T \pi \geqslant \max_{ \pi, u} \, (\mathbf{h - E\bar{y} - M}u )^T \pi maxπ,u(hEyMu)Tπmaxπ,u(hEyˉMu)Tπ一定成立,因此 ( h − E y ˉ − M u ) T π (\mathbf{h - E\bar{y} - M}u )^T \pi (hEyˉMu)Tπ为第二阶段的目标函数提供了一个下界

我们将上述模型简略地写为

S P 1 : Q ( y ) = max ⁡ π , u { ( h − E y ˉ − M u ) T π : G T π ⩽ b , u ∈ U , π ⩾ 0. } \begin{aligned} \mathbf{SP_1}: \mathcal{Q}(\mathbf{y}) = \max_{ \pi, u} \{ (\mathbf{h - E\bar{y} - M}u )^T \pi : \mathbf{G^T \pi \leqslant b} ,u \in \mathcal{U}, \pi \geqslant \mathbf{0}.\} \end{aligned} SP1:Q(y)=π,umax{ (hEyˉMu)Tπ:GTπb,uU,π0.}
这相当于把上面的数学规划模型,写成了一个函数形式,实际上是等价的,只是另一个简便,节省地方的写法。这个部分,也被称为是recourse problem,可以理解为,第一阶段决策确定了,第二阶段等到不确定参数揭示了,我们做第二阶段的决策,来对整个问题进行追索,秋后算账。

写好了子问题的模型 S P 1 \mathbf{SP_1} SP1,那接下来的重要工作当然是:求解 S P 1 \mathbf{SP_1} SP1

S P 1 \mathbf{SP_1} SP1如何求解呢?:

注意, S P 1 \mathbf{SP_1} SP1是一个 bilinear optimization problem (因为 u ⋅ π u\cdot \pi uπ是二次项,两个都是决策变量),根据文献[1]中的参考文献,可知:

  • 可以用一些启发式算法求解 S P 1 \mathbf{SP_1} SP1; 这种方法得到的不一定是 S P 1 \mathbf{SP_1} SP1的最优解,因此算法收敛速度也许会慢一些;
  • 另外,如果 U \mathcal{U} U具有特殊的结构,可以构造精确性算法进行精确求解; 比如,如果 u u u是0-1变量,可以进行等价线性化,变成MIP进行求解;
  • 当然,根据笔者的经验,还可以使用Gurobi,COPT等求解器来求解 S P 1 \mathbf{SP_1} SP1;
  • 最后,还可以使用文献[1]介绍的方法:使用KKT条件来求解 S P 1 \mathbf{SP_1} SP1。本推文也是使用了KKT条件来求解 S P 1 \mathbf{SP_1} SP1的,见下文的超级详细的介绍;

综上,大概可以用四种可以来求解 S P 1 \mathbf{SP_1} SP1

  1. 启发式算法
  2. U \mathcal{U} U具有特殊的结构,可以构造精确性算法进行精确求解;
  3. 使用Gurobi,COPT等求解器来求解
  4. 使用KKT条件来求解

这部分原文是这么描述的

Note that the resulting problem in (2) is a bilinear optimization problem. Several solution strategies have been developed, either in a heuristic fashion or for instances with specially-structured U \mathcal{U} U.

求解了 S P 1 \mathbf{SP_1} SP1之后,又能有什么用呢?

答案是:为主问题提供割平面,从而改进全局界限,改进当前解。

假设在Benders-dual算法中,对于给定的第 k k k步迭代中第一阶段(Master Problem)得到的 y k ∗ \mathbf{y}_k^{*} yk,我们都能得到一个相应 Q ( y k ∗ ) \mathcal{Q}(\mathbf{y}_k^{*}) Q(yk)的第二阶段的解 ( u k ∗ , π k ∗ ) (u_k^*, \pi_k^*) (uk,πk),我们就可以生成一个下面形式的割平面:

  • 上面已经介绍过, max ⁡ π , u   ( h − E y ˉ − M u ) T π \max_{ \pi, u} \, (\mathbf{h - E\bar{y} - M}u )^T \pi maxπ,u(hEyˉMu)Tπ为最优解中第二阶段的目标函数的取值提供了一个下界)

因此,割平面的形式如下:

η ⩾ ( h − E y − M u k ∗ ) T π k ∗ \begin{aligned} \eta \geqslant \mathbf{(h - Ey - M}u_k^* )^T \pi_k^* \end{aligned} η(hEyMuk)Tπk
其中, η \eta η表示最优解中第二阶段的目标函数的取值。这个割平面,其实就可以看做是Benders decomposition中的optimality cut。(比较直观的理解请参考我们往期讲解Benders decomposition的推文中最后的Cut 5Cut 7

这个割平面可以被加入到主问题中,主问题就变化为

M P 1 : min ⁡ y , η c T y + η s . t . A y ⩾ d η ⩾ ( h − E y − M u l ∗ ) T π l ∗ , ∀ l ⩽ k y ∈ S y , η ∈ R . \begin{aligned} \mathbf{MP_1}: \quad &\min_{\mathbf{y}, \eta}\quad \mathbf{c^T y + \eta} \\ s.t.\quad& \mathbf{Ay \geqslant d} \\ & \eta \geqslant \mathbf{(h - Ey - M}u_l^* )^T \pi_l^*, \qquad \forall l \leqslant k \\ & \mathbf{y \in S_y}, \\ & \eta \in \mathbb{R}. \end{aligned} MP1:s.t.y,ηmincTy+ηAydη(hEyMul)Tπl,lkySy,ηR.
注意,第2条约束中, ∀   l ⩽ k \forall \ l \leqslant k  lk指的是在前 k k k次的迭代中,每一次产生的割平面都被加入到了 M P 1 \mathbf{MP_1} MP1。并且 η \eta η相当于一个辅助变量 ,是为了识别worst-case下的second-stage产生的成本的(也叫作recourse)。

上述模型,我们可以计算到目前为止得到的当前最优解 ( y k + 1 ∗ , η k + 1 ∗ ) (\mathbf{y_{k+1}^{*}}, \eta_{k+1}^{*}) (yk+1,ηk+1), 这也就是第 k + 1 k+1 k+1次迭代的时候二者的取值。

注意到,随着割平面 η ⩾ ( h − E y − M u l ∗ ) T π l ∗ ,     ∀ l ⩽ k \eta \geqslant \mathbf{(h - Ey - M}u_l^* )^T \pi_l^*, \,\,\, \forall l \leqslant k η(hEyMul)Tπl,lk的不断添加, M P 1 \mathbf{MP_1} MP1 η \eta η的值会不断增加(至少是不减),因此 M P 1 \mathbf{MP_1} MP1的目标函数会不断上升。下面会讲到, M P 1 \mathbf{MP_1} MP1的目标函数是全局最优解的一个下界。

与传统的Benders Decomposition算法中相同,Benders-dual算法迭代过程中,也可以计算任意一步迭代过程中,全局的上界和下界的变化,以此来判断当前解的质量,以及是否达到了最优解。

文献[1]中原文对Benders-dual method下的主问题的表述如下:

在这里插入图片描述
注意:文中提到了一些非常关键的信息,即Benders-dual method迭代过程中,全局上界和下界的计算。根据原文:

  • c T y k ∗ + Q ( y k ∗ ) \mathbf{c^Ty_k^* + \mathcal{Q}(y_k^*)} cTyk+Q(yk)原始问题目标值 Obj = { min ⁡ y c T y + max ⁡ u ∈ U min ⁡ x ∈ F ( y , u ) b T x ∣ A y ⩾ d , y ∈ S y } \text{Obj} = \{\min_{\mathbf{y}} \mathbf{c^Ty} +\max_{u \in \mathcal{U}} \min_{ \mathbf{x}\in {\mathbf{F}(\mathbf{y}, u )}} \mathbf{b}^T \mathbf{x} | \mathbf{Ay} \geqslant \mathbf{d}, \mathbf{y} \in \mathbf{S}_{\mathbf{y}}\} Obj={ minycTy+maxuUminxF(y,u)bTxAyd,ySy} (即原始问题)提供了一个上界;
  • M P 1 :    c T y k + 1 ∗ + η k + 1 ∗ \mathbf{MP_1}: \,\, \mathbf{c^Ty_{k+1}^{*}} + \eta_{k+1}^{*} MP1:cTyk+1+ηk+1原始问题提供了一个下界。
  • Benders-dual method算法迭代的过程中,上界和下界会得到不断改进。并且,循环地求解主问题 M P 1 \mathbf{MP_1} MP1,得到固定的 y ˉ \mathbf{\bar{y}} yˉ,并将 y ˉ \mathbf{\bar{y}} yˉ传给子问题 S P 1 \mathbf{SP_1} SP1,更新子问题 S P 1 \mathbf{SP_1} SP1,然后求解 S P 1 \mathbf{SP_1} SP1,根据 S P 1 \mathbf{SP_1} SP1的解,构造割平面 η ⩾ ( h − E y − M u k ∗ ) T π k ∗ \eta \geqslant \mathbf{(h - Ey - M}u_k^* )^T \pi_k^* η(hEyMuk)Tπk,并且将其添加到 M P 1 \mathbf{MP_1} MP1中。
  • 同时,更新全局的上界和下界。循环这个过程,最终上下界就可以在有限步之内收敛。

总结一句,Benders-dual算法迭代过程中,任意一步迭代中的全局的上界和下界可以用下面的公式计算得出:

L B = max ⁡ { c T y k + 1 ∗ + η k + 1 ∗ , L B } U B = min ⁡ { c T y k ∗ + Q ( y k ∗ ) , U B } \begin{aligned} &LB = \max\{\mathbf{c^Ty_{k+1}^{*}} + \eta_{k+1}^{*}, \quad LB\} \\ &UB=\min\{\mathbf{c^Ty_k^* + \mathcal{Q}(y_k^*)}, \quad UB\} \end{aligned} LB=max{ cTyk+1+ηk+1,LB}UB=min{ cTyk+Q(yk),UB}

这个很好理解:

  • L B = c T y k + 1 ∗ + η k + 1 ∗ LB = \mathbf{c^Ty_{k+1}^{*}} + \eta_{k+1}^{*} LB=cTyk+1+ηk+1,是只考虑了一部分随机场景,松弛了一部分约束,因此对其求 min ⁡ \min min,一定是更小(或者等于最小),因此它提供了全局最优解的一个下界;直观理解就是少考虑了约束,又是min问题,因此是个下界
  • U B = c T y k ∗ + Q ( y k ∗ ) UB=\mathbf{c^Ty_k^* + \mathcal{Q}(y_k^*)} UB=cTyk+Q(yk),是相当于将原问题拆分成两个相互独立的问题进行分别求解,然后将各自的目标函数相加,分开优化的可行解,一定也是联合优化的可行解;而分开优化的解,对于联合优化而言,只是一个可行解而已,并不一定是最优解,联合优化的解,一定好于或者等于分开优化的解。因此 c T y k ∗ + Q ( y k ∗ ) \mathbf{c^Ty_k^* + \mathcal{Q}(y_k^*)} cTyk+Q(yk)为Two-stage RO原模型的最优解提供了一个上界。
  • 当算法迭代过程中,达到 U B = L B UB=LB UB=LB,则算法终止,得到了最优解。

注意到,上述算法描述中, π k ∗ \pi_k^* πk u k ∗ u_k^* uk都是在他们各自的可行域中的极点(或者离散的点)。这样一来,Benders-dual算法的复杂度如下:
在这里插入图片描述

猜你喜欢

转载自blog.csdn.net/HsinglukLiu/article/details/125466295
今日推荐