Pensées: Programmation linéaire Dualité et méthode de multiplicateur de Lagrange

Lagrange méthode multiplicateur et le double problème de programmation linéaire associée

méthode du multiplicateur de Lagrange de résoudre l'idée de base

Voici un exemple d'une fonction binaire méthode expliquée Lagrange pour résoudre la pensée état Ratio.

On nous donne une fonction binaire \ (z \) :

\ [Z = f (x, y) \]

Et une contrainte:

\ [\ Phi (x, y) = 0 \]

Pour résoudre \ (z = f (x, y) \) extremum dans les conditions supplémentaires, nous avons d' abord une fonction de Lagrange \ (L (X, Y, \ lambda) \) , qui est défini comme suit:

\ [L (x, y, \ lambda) = f (x, y) + \ lambda \ phi (x, y) \]

On laisse ensuite \ (L (x, y, \ lambda) \) sur \ (x, y, \ lambda \) premier ordre partiel dérivé égal à 0:

\ [\ Begin {aligné} \ frac {\ L partielle} {\ x partielle} & = \ frac {\ f partielle} {\ partial x} + \ lambda \ frac {\ partial \ varphi} {\ partial x} = 0 \\ \ frac {\ L partielle} {\ y} & partielle = \ frac {\ f partielle} {\ y partiel} + \ lambda \ frac {\ partial \ varphi} {\ y partiel} = 0 \\ \ frac {\ L partielle} {\ partial \ lambda} & = \ phi (x, y) = 0 \ end {aligné} \]

Résolution des équations satisfaisant ci - dessus \ (X, Y, \ lambda \) , obtenu à point de stagnation \ ((X, Y) \) , est \ (z = f (x, y) \) dans la condition de contrainte \ (\ phi (x, y) = 0 \) dans les limites des points d'extrêmes possibles .

problème de programmation linéaire double et méthode des multiplicateurs de Lagrange

nous donne ici un problème de programmation linéaire général \ (P \) :

\ [\ Min z = c ^ TX \ quad \\\ begin {aligné} {\ rm er} \ quad & AX \ ge b \\ X & \ ge 0 \ end {aligné} \]

En outre , il est possible région appelée \ (Q_p = \ {X- | AX \ GE B, X- \ GE {\ BF 0} \} \) .

Set:

\ [X = \ left [\ begin {matrice} \\ x 1 x 2 \\ \ vdots \\ x_n \ end {matrix} \ right] \ quad b = \ left [\ begin {matrice} B_1 \\ \\ B_2 \ vdots \\ b_m \ end {matrix} \ right] \ quad Y = \ left [\ begin {matrice} y_1 \\ Y_2 \\ \ vdots \\ y_m \ end {matrix} \ right] \ Lambda = \ left [\ begin {matrix} \ lambda_1 \\ lambda_2 \\\ \ vdots lambda_n \\\ \ end {matrix} \ right] \]

Ensuite, faire:

\ [\ Overline {A} = \ left [\ begin {matrice} A \\ I_ {n} \ end {matrix} \ right] \ quad \ overline {b} = \ left [\ begin {matrice} b \\ 0 \ end {matrix} \ right] \ quad \ overline {Y} = \ left [\ begin {matrix} Y Lambda \\\ \ end {matrix} \ right] \]

Nous pouvons le faire lagrangien:

\ [L (X, \ overline Y) = c ^ TX- \ overline Y ^ T (\ overline AX- \ overline b) = (c- \ overline A ^ T \ overline Y) ^ + TX \ overline b ^ T \ overline Y \]

Ici multiplicateur \ (Y \ GE 0, \ Lambda \ GE0 \) , qui gradient:

\ [\ Nabla_XL (X, \ overline Y) = c- \ overline A ^ T \ overline Y \]

Gradient point extrême doit être égal à zéro, selon le procédé de multiplicateur de Lagrange pour résoudre idée, auquel cas la cause directe de zéro gradient, puis la résolution de la valeur de la variable correspondante. Ensuite , nous résolvons le problème \ (D \) :

\ [\ Max \ \ (c- \ overline A ^ T \ overline Y) ^ + TX \ overline b ^ T \ overline Y \\ {\ rm er} \ quad c- \ overline A ^ T \ overline Y = 0 \ ]

Depuis que nous avons fait \ (C \ overline A ^ T \ overline = Y-0 \) , le problème \ (D \) peut être simplifiée:

\ [\ Max \ \ \ overline b ^ T \ overline Y \\\ BEGIN {aligné} {\ rm er} \ quad & c = \ overline A ^ T \ overline Y \\\ overline Y & \ ge 0 \ end {alignés } \]

Et parce que:

\ [\ Overline {A} = \ left [\ begin {matrice} A \\ I_ {n} \ end {matrix} \ right] \ quad \ overline {b} = \ left [\ begin {matrice} b \\ 0 \ end {matrix} \ right] \ quad \ overline {Y} = \ left [\ begin {matrix} Y Lambda \\\ \ end {matrix} \ right] \]

Donc:

\ [\ Overline b ^ T \ overline Y = \ left [\ begin {matrice} b ^ T & 0 ^ T \ end {matrix} \ right] \ left [\ begin {matrix} Y Lambda \\\ \ end {matrix } \ right] = b ^ TY ^ A overline \\\ T \ overline Y = \ left [\ begin {matrice} A ^ T & I_n \ end {matrix} \ right] \ left [\ begin {matrice} Y \\ \ Lambda fin {matrice} \ right] = A ^ TY + \ Lambda \]

Depuis le \ (\ Lambda \ GE0 \) , en liaison avec l'équation ci - dessus, la question \ (D \) peut encore être simplifiée comme:

\ [\ Max \ \ b ^ TY \\\ begin {aligné} {\ rm er} \ quad A ^ TY \ le c \\ Y \ ge0 \ end {aligné} \]

Ce problème \ (D \) est devenu le problème de programmation linéaire d' origine \ (P \) du double problème .

La nature du double programme linéaire

théorème 1

Set \ (X- \) est le plan original \ (P \) de solution possible, \ (Y \) est le double de programmation \ (D \) solution possible, il y a une constante:

\ [C ^ TX \ b ^ Ty \]

preuve:

\ [C ^ TX \ (A ^ ty) ^ TX = Y ^ T (Ax) \ Y ^ TB = b ^ Ty \]

théorème 2

Si \ (X- \) et \ (Y \) sont le plan initial et la solution possible à la planification double, et \ (C ^ TX = B ^ TY \) , puis \ (X, Y \) sont leur optimale solution.

La preuve est évidente, obtenue directement du théorème 1.

théorème 3

Si la planification initiale de la solution optimale, la programmation double est également une solution optimale, et ils sont égaux à la valeur optimale, et vice versa.

preuve:

Adéquation de: tout d' abord l' introduction de variables d'écart \ (le U- \) , le \ (P \) écrit:

\ [\ Max \ \ c ^ TX \\\ begin {aligné} {\ rm r} \ quad AX + I_mU & b = \\ X \ ge0, u & \ ge 0 \ end {aligné} \]

À condition que la solution optimale pour le groupe \ (B \) , un groupe variable \ (X_B = B ^ {-}. 1 B \) , le nombre d'essai \ (\ Lambda \ Le 0 \) dans laquelle. \ (\ Lambda \) dans deux parties, correspondant à \ (X- \) a \ (\ Lambda_1 \) et le correspondant \ (le U- \) a \ (\ Lambda_2 \) . par conséquent,

\ [\ Lambda_1 ^ T ^ = c T-C_B ^ TB ^ {- 1} A \ le0 ^ \\\ Lambda_2 T = -c ^ T_BB ^ {- 1} = E -c_B ^ TB ^ {- 1} \ le0 \]

Classement \ (Y ^ T = C_B ^ TB ^ {-. 1} \) , il y \ (Y \ GE 0 \) \ (A ^ TY \ GE C \) , de sorte \ (Y \) est le \ (D \) solution réalisable, mais aussi par le:

\ [W = b ^ TY ^ Tb = Y = C_B ^ TB ^ {- 1} b = C_B ^ TX = z \]

Ainsi \ (Y \) est (D \) \ optimale solution. Suffisance est prouvé.

La nécessité: en raison du double problème de la programmation double du plan original, le caractère adéquat de ce qui précède peut être nécessaire dérivée directement.

Je suppose que tu aimes

Origine www.cnblogs.com/allegro-vivace/p/12630152.html
conseillé
Classement