[{"@context":"http:\/\/schema.org\/","@type":"BlogPosting","@id":"https:\/\/wiki.edu.vn\/en2fr\/wiki28\/methode-predicteur-de-predicteur-correcteur-wikipedia\/#BlogPosting","mainEntityOfPage":"https:\/\/wiki.edu.vn\/en2fr\/wiki28\/methode-predicteur-de-predicteur-correcteur-wikipedia\/","headline":"M\u00e9thode pr\u00e9dicteur de pr\u00e9dicteur-correcteur – Wikipedia wiki","name":"M\u00e9thode pr\u00e9dicteur de pr\u00e9dicteur-correcteur – Wikipedia wiki","description":"before-content-x4 M\u00e9thode pr\u00e9dictrice-correct de Mehrotra dans l’optimisation est une m\u00e9thode de point int\u00e9rieur sp\u00e9cifique pour la programmation lin\u00e9aire. Il a","datePublished":"2018-11-01","dateModified":"2018-11-01","author":{"@type":"Person","@id":"https:\/\/wiki.edu.vn\/en2fr\/wiki28\/author\/lordneo\/#Person","name":"lordneo","url":"https:\/\/wiki.edu.vn\/en2fr\/wiki28\/author\/lordneo\/","image":{"@type":"ImageObject","@id":"https:\/\/secure.gravatar.com\/avatar\/c9645c498c9701c88b89b8537773dd7c?s=96&d=mm&r=g","url":"https:\/\/secure.gravatar.com\/avatar\/c9645c498c9701c88b89b8537773dd7c?s=96&d=mm&r=g","height":96,"width":96}},"publisher":{"@type":"Organization","name":"Enzyklop\u00e4die","logo":{"@type":"ImageObject","@id":"https:\/\/wiki.edu.vn\/wiki4\/wp-content\/uploads\/2023\/08\/download.jpg","url":"https:\/\/wiki.edu.vn\/wiki4\/wp-content\/uploads\/2023\/08\/download.jpg","width":600,"height":60}},"image":{"@type":"ImageObject","@id":"https:\/\/wikimedia.org\/api\/rest_v1\/media\/math\/render\/svg\/c4df87d9031bd91758a2a576ecc6ede098d36270","url":"https:\/\/wikimedia.org\/api\/rest_v1\/media\/math\/render\/svg\/c4df87d9031bd91758a2a576ecc6ede098d36270","height":"","width":""},"url":"https:\/\/wiki.edu.vn\/en2fr\/wiki28\/methode-predicteur-de-predicteur-correcteur-wikipedia\/","wordCount":8892,"articleBody":" (adsbygoogle = window.adsbygoogle || []).push({});before-content-x4M\u00e9thode pr\u00e9dictrice-correct de Mehrotra dans l’optimisation est une m\u00e9thode de point int\u00e9rieur sp\u00e9cifique pour la programmation lin\u00e9aire. Il a \u00e9t\u00e9 propos\u00e9 en 1989 par Sanjay Mehrotra. [d’abord] (adsbygoogle = window.adsbygoogle || []).push({});after-content-x4La m\u00e9thode est bas\u00e9e sur le fait qu’\u00e0 chaque it\u00e9ration d’un algorithme de point int\u00e9rieur, il est n\u00e9cessaire de calculer la d\u00e9composition (factorisation) de Cholesky d’une grande matrice pour trouver la direction de recherche. L’\u00e9tape de factorisation est l’\u00e9tape la plus co\u00fbteuse dans l’algorithme. Par cons\u00e9quent, il est logique d’utiliser la m\u00eame d\u00e9composition plus d’une fois avant de le recomposer. \u00c0 chaque it\u00e9ration de l’algorithme, la m\u00e9thode pr\u00e9dicte-correct de Mehrotra utilise la m\u00eame d\u00e9composition de Cholesky pour trouver deux directions diff\u00e9rentes: un pr\u00e9dicteur et un correcteur. L’id\u00e9e est de calculer d’abord une direction de recherche d’optimisation bas\u00e9e sur un terme de premier ordre (pr\u00e9dicteur). La taille des pas qui peut \u00eatre prise dans ce sens est utilis\u00e9e pour \u00e9valuer la quantit\u00e9 de correction de centralit\u00e9 n\u00e9cessaire. Ensuite, un terme correcteur est calcul\u00e9: il contient \u00e0 la fois un terme de centralit\u00e9 et un terme de deuxi\u00e8me ordre. (adsbygoogle = window.adsbygoogle || []).push({});after-content-x4La direction de recherche compl\u00e8te est la somme de la direction pr\u00e9dictive et de la direction du correcteur. Bien qu’il n’y ait pas encore de complexit\u00e9 th\u00e9orique li\u00e9e, la m\u00e9thode pr\u00e9dicte-correct de Mehrotra est largement utilis\u00e9e dans la pratique. [2] Son \u00e9tape correctrice utilise la m\u00eame d\u00e9composition de Cholesky trouv\u00e9e au cours de l’\u00e9tape pr\u00e9dictive de mani\u00e8re efficace, et donc elle n’est que l\u00e9g\u00e8rement plus ch\u00e8re qu’un algorithme de point int\u00e9rieur standard. Cependant, les frais g\u00e9n\u00e9raux suppl\u00e9mentaires par it\u00e9ration sont g\u00e9n\u00e9ralement rembours\u00e9s par une r\u00e9duction du nombre d’it\u00e9rations n\u00e9cessaires pour atteindre une solution optimale. Il semble \u00e9galement converger tr\u00e8s rapidement lorsqu’il est proche de l’optimum. Table of Contents (adsbygoogle = window.adsbygoogle || []).push({});after-content-x4D\u00e9rivation [ modifier ]] \u00c9tape du pr\u00e9dicteur – direction de l’\u00e9chelle affine [ modifier ]] Pas de centrage [ modifier ]] \u00c9tape du correcteur [ modifier ]] Syst\u00e8me agr\u00e9g\u00e9 – Direction centrale-correct [ modifier ]] S\u00e9lection adaptative du param\u00e8tre de centrage [ modifier ]] Longueurs de pas [ modifier ]] Adaptation \u00e0 la programmation quadratique [ modifier ]] Les r\u00e9f\u00e9rences [ modifier ]] D\u00e9rivation [ modifier ]] La d\u00e9rivation de cette section suit le contour de Nocedal et Wright. [3] \u00c9tape du pr\u00e9dicteur – direction de l’\u00e9chelle affine [ modifier ]] Un programme lin\u00e9aire peut toujours \u00eatre formul\u00e9 sous la forme standard minxq(x)=cTx,s.t.Ax=b,x\u22650,{displayStyle {begin {aligned} & {Undernset {x} {min}} & q (x) & = c ^ {t} x, \\ & {text {s.t.}} & ax & = b, \\ &; & x & geq 0, end { align\u00e9}}} o\u00f9 c \u2208 R n \u00d7 d’abord , UN \u2208 R m \u00d7 n {displayStyle cin Mathbb {r} ^ {ntimes 1},; ain mathbb {r} ^ {mtimes n}} et b \u2208 R m \u00d7 d’abord {displaystyle bin mathbb {r} ^ {mTimes 1}} d\u00e9finir le probl\u00e8me avec m {displaystyle m} contraintes et n {displaystyle n} \u00e9quations pendant que X \u2208 R n \u00d7 d’abord {displaystyle xin mathbb {r} ^ {ntimes 1}} est un vecteur de variables. Les conditions de Karush-Kuhn-Tucker (KKT) pour le probl\u00e8me sont AT\u03bb+s=c,(Lagrange gradient condition)Ax=b,(Feasibility condition)XSe=0,(Complementarity condition)(x,s)\u22650,{displayStyle {begin {aligned} a ^ {t} lambda + s & = c, ;;; {text {(Lagrange Gradient Condition)}} \\ ax & = b, ;;; {Text {(condition de faisabilit\u00e9)}} \\ xse & = 0, ;;; {Texte {(condition de compl\u00e9mentarit\u00e9)}} \\ (x, s) & geq 0, end {align\u00e9}}} o\u00f9 X = diagramme ( X ) {DisplayStyle x = {texte {diag}} (x)} et S = diagramme ( s ) {displayStyle s = {text {diag}} (s)} d’o\u00f9 C’est = ( d’abord , d’abord , … , d’abord ) T \u2208 R n \u00d7 d’abord {displayStyle e = (1,1, points, 1) ^ {t} dans mathbb {r} ^ {ntimes 1}} . Ces conditions peuvent \u00eatre reformul\u00e9es comme une cartographie F : R 2 n + m \u2192 R 2 n + m {Displaystyle f: mathbb {r} ^ {2n + m} rightarrow Mathbb {r} ^ {2n + m}} comme suit F(x,\u03bb,s)=[AT\u03bb+s\u2212cAx\u2212bXSe]=0(x,s)\u22650{displayStyle {begin {aligned} f (x, lambda, s) = {begin {bmatrix} a ^ {t} lambda + s-c \\ ax-b \\ xseend {bMatrix}} & = 0 \\ (x, s) & geq 0end {align\u00e9}}} La m\u00e9thode pr\u00e9dictive-correct fonctionne ensuite en utilisant la m\u00e9thode de Newton pour obtenir la direction de mise \u00e0 l’\u00e9chelle affine. Ceci est r\u00e9alis\u00e9 en r\u00e9solvant le syst\u00e8me suivant d’\u00e9quations lin\u00e9aires J ( X , l , s ) [ \u0394xaff\u0394\u03bbaff\u0394saff]] = – F ( X , l , s ) {displayStyle j (x, lambda, s) {begin {bmatrix} delta x ^ {text {aff}} \\ delta lambda ^ {text {aff}} \\ delta s ^ {text {aff}} end {bmatrix}} = -F (x, lambda, s)} o\u00f9 J {displaystyle J} , d\u00e9fini comme J ( X , l , s ) = [ \u2207xF\u2207\u03bbF\u2207sF]] , {displayStyle j (x, lambda, s) = {begin {bmatrix} nabla _ {x} f & nabla _ {lambda} f & nabla _ {s} fend {bmatrix}},} est le jacobien de F. Ainsi, le syst\u00e8me devient [ 0ATIA00S0X]] [ \u0394xaff\u0394\u03bbaff\u0394saff]] = [ \u2212rc\u2212rb\u2212XSe]] , r c = UN T l + s – c , r b = UN X – b {displayStyle {begin {bmatrix} 0 & a ^ {t} & i \\ a & 0 & 0 \\ s & 0 & xend {bmatrix}} {begin {bmatrix} delta x ^ {text {aff}} \\ delta lambda ^ {text {aff}} \\ delta S ^ { Texte {AFF}} end {bMatrix}} = {begin {bmatrix} -r_ {c} \\ – r_ {b} \\ – xseend {bmatrix}}, ;;; r_ {c} = a ^ {t} lambda + s-c, ;;; r_ {b} = ax-b} Pas de centrage [ modifier ]] La valeur moyenne des produits X je s je , je = d’abord , 2 , … , n {displayStyle x_ {i} s_ {i},; i = 1,2, points, n} constituent une mesure importante de l’opportunit\u00e9 d’un certain ensemble ( X k , s k ) {displayStyle (x ^ {k}, s ^ \u200b\u200b{k})} (Les expos\u00e9s indiquent la valeur du num\u00e9ro d’it\u00e9ration, k {displaystyle k} , de la m\u00e9thode). C’est ce qu’on appelle la mesure de la dualit\u00e9 et est d\u00e9fini par m = d’abord n \u2211 je = d’abord n X je s je = xTsn . {displayStyle mu = {frac {1} {n}} sum _ {i = 1} ^ {n} x_ {i} s_ {i} = {frac {x ^ {t} s} {n}}.} Pour une valeur du param\u00e8tre de centrage, un \u2208 [ 0 , d’abord ]] , {DisplayStyle Sigma dans [0,1],} L’\u00e9tape de centrage peut \u00eatre calcul\u00e9e comme la solution pour [ 0ATIA00S0X]] [ \u0394xcen\u0394\u03bbcen\u0394scen]] = [ \u2212rc\u2212rb\u2212XSe+\u03c3\u03bce]] {displayStyle {begin {bmatrix} 0 & a ^ {t} & i \\ a & 0 & 0 \\ s & 0 & xend {bmatrix}} {begin {bmatrix} delta x ^ {text {cen}} \\ delta lambda ^ {text {cen}} \\ delta s ^ {Lambda ^ {Text {cen}} \\ delta S ^ { Texte {Cen}} end {bMatrix}} = {begin {bmatrix} -r_ {c} \\ – r_ {b} \\ – xse + sigma mu eend {bMatrix}}} \u00c9tape du correcteur [ modifier ]] Compte tenu du syst\u00e8me utilis\u00e9 pour calculer la direction de mise \u00e0 l’\u00e9chelle affine d\u00e9finie dans ce qui pr\u00e9c\u00e8de, on peut noter que faire un pas complet dans la direction de mise \u00e0 l’\u00e9chelle affine, la condition de compl\u00e9mentarit\u00e9 n’est pas satisfaite: ( xi+ D xiaff) ( si+ D siaff) = X je s je + X je D s je Affirmation + s je D X je Affirmation + D X je Affirmation D s je Affirmation = D X je Affirmation D s je Affirmation \u2260 0. {displayStyle Left (x_ {i} + delta x_ {i} ^ {text {aff}} droite) Left (s_ {i} + delta s_ {i} ^ {text {aff}} droit) = x_ {i} s_ {i} + x_ {i} delta s_ {i} ^ {text {aff}} + s_ {i} delta x_ {i} ^ {text {aff}} + delta x_ {i} ^ {text {aff}} Delta s_ {i} ^ {texte {aff}} = delta x_ {i} ^ {texte {aff}} delta s_ {i} ^ {texte {aff}} neq 0.} En tant que tel, un syst\u00e8me peut \u00eatre d\u00e9fini pour calculer une \u00e9tape qui tente de corriger cette erreur. Ce syst\u00e8me repose sur le calcul pr\u00e9c\u00e9dent de la direction de mise \u00e0 l’\u00e9chelle affine. [ 0ATIA00S0X]] [ \u0394xcor\u0394\u03bbcor\u0394scor]] = [ 00\u2212\u0394Xaff\u0394Saffe]] {displayStyle {begin {bmatrix} 0 & a ^ {t} & i \\ a & 0 & 0 \\ s & 0 & xend {bmatrix}} {begin {bmatrix} delta x ^ {text {cor}} \\ delta lambda ^ {text {cor}} \\ delta s ^ {Lambda ^ {Text {cor}} \\ delta s ^ { Texte {Cor}} end {bMatrix}} = {begin {bmatrix} 0 \\ 0 \\ -delta x ^ {text {aff}} delta s ^ {text {aff}} eend {bmatrix}}} Syst\u00e8me agr\u00e9g\u00e9 – Direction centrale-correct [ modifier ]] Le pr\u00e9dicteur, le correcteur et les contributions de centrage au syst\u00e8me \u00e0 droite du syst\u00e8me peuvent \u00eatre agr\u00e9g\u00e9s en un seul syst\u00e8me. Ce syst\u00e8me d\u00e9pendra du calcul pr\u00e9c\u00e9dent de la direction de mise \u00e0 l’\u00e9chelle affine, cependant, la matrice du syst\u00e8me sera identique \u00e0 celle de l’\u00e9tape de pr\u00e9dicteur de telle sorte que sa factorisation puisse \u00eatre r\u00e9utilis\u00e9e. Le syst\u00e8me agr\u00e9g\u00e9 est [ 0ATIA00S0X]] [ \u0394x\u0394\u03bb\u0394s]] = [ \u2212rc\u2212rb\u2212XSe\u2212\u0394Xaff\u0394Saffe+\u03c3\u03bce]] {displayStyle {begin {bmatrix} 0 & a ^ {t} & i \\ a & 0 & 0 \\ s & 0 & xend {bmatrix}} {begin {bmatrix} delta x \\ delta lambda \\ delta envoy -r_ {b} \\ – xse-delta x ^ {text {aff}} delta s ^ {text {aff}} e + sigma mu eend {bMatrix}}} L’algorithme pr\u00e9dicteur-corr\u00e9cteur calcule ensuite d’abord la direction de l’\u00e9chelle affine. Deuxi\u00e8mement, il r\u00e9sout le syst\u00e8me agr\u00e9g\u00e9 pour obtenir la direction de recherche de l’it\u00e9ration actuelle. S\u00e9lection adaptative du param\u00e8tre de centrage [ modifier ]] La direction de l’\u00e9chelle affine peut \u00eatre utilis\u00e9e pour d\u00e9finir une heuristique pour choisir de mani\u00e8re adaptative le param\u00e8tre de centrage comme un = ( \u03bcaff\u03bc) 3 , {displayStyle Sigma = Left ({frac {mu _ {text {aff}}} {mu}} droit) ^ {3},} o\u00f9 \u03bcaff=(x+\u03b1affpri\u0394xaff)T(s+\u03b1affdual\u0394saff)\/n,\u03b1affpri=min(1,mini:\u0394xiaffxiaff),\u03b1affdual=min(1,mini:\u0394siaffsiaff),{displayStyle {begin {aligned} mu _ {text {aff}} & = (x + alpha _ {text {aff}} ^ {text {pri}} delta x ^ {text {aff}}) ^ {t} (( S + alpha _ {texte {aff}} ^ {texte {dual}} delta s ^ {text {aff}}) \/ n, \\ alpha _ {texte {aff}} ^ {texte {pri}} & = min Left (1. } droit), \\ alpha _ {texte {aff}} ^ {texte {dual}} & = min Left (1, {Underfet {i: delta s_ {i} ^ {text {aff}} {displaystyle mu} est la mesure de dualit\u00e9 de l’it\u00e9ration pr\u00e9c\u00e9dente. [3] Longueurs de pas [ modifier ]] Dans les impl\u00e9mentations pratiques, une version de la recherche en ligne est effectu\u00e9e pour obtenir la longueur maximale de pas qui peut \u00eatre prise dans la direction de la recherche sans violer la non-n\u00e9gativit\u00e9, ( X , s ) \u2265 0 {displayStyle (x, s) geq 0} . [3] Adaptation \u00e0 la programmation quadratique [ modifier ]] Bien que les modifications pr\u00e9sent\u00e9es par Mehrotra aient \u00e9t\u00e9 destin\u00e9es aux algorithmes de points int\u00e9rieurs pour la programmation lin\u00e9aire, les id\u00e9es ont \u00e9galement \u00e9t\u00e9 \u00e9tendues et appliqu\u00e9es avec succ\u00e8s \u00e0 la programmation quadratique. [3] Les r\u00e9f\u00e9rences [ modifier ]] ^ Mehrotra, S. (1992). “Sur la mise en \u0153uvre d’une m\u00e9thode de point int\u00e9rieur primal-bas\u00e9”. SIAM Journal sur l’optimisation . 2 (4): 575\u2013601. est ce que je: 10.1137 \/ 0802028 . ^ “En 1989, Mehrotra a d\u00e9crit un algorithme pratique pour la programmation lin\u00e9aire qui reste \u00e0 la base de la plupart des logiciels actuels; son travail est apparu en 1992.” Potra, Florian A.; Stephen J. Wright (2000). “M\u00e9thodes de point int\u00e9rieur” . Journal of Computational and Applied Mathematics . 124 (1\u20132): 281\u2013302. est ce que je: 10.1016 \/ s0377-0427 (00) 00433-7 . ^ un b c d Nocedal, Jorge; Wright, Stephen J. (2006). Optimisation num\u00e9rique . \u00c9tats-Unis d’Am\u00e9rique: Springer. Pp. 392\u2013417, 448\u20134 ISBN 978-0387-30303-1 . (adsbygoogle = window.adsbygoogle || []).push({});after-content-x4"},{"@context":"http:\/\/schema.org\/","@type":"BreadcrumbList","itemListElement":[{"@type":"ListItem","position":1,"item":{"@id":"https:\/\/wiki.edu.vn\/en2fr\/wiki28\/#breadcrumbitem","name":"Enzyklop\u00e4die"}},{"@type":"ListItem","position":2,"item":{"@id":"https:\/\/wiki.edu.vn\/en2fr\/wiki28\/methode-predicteur-de-predicteur-correcteur-wikipedia\/#breadcrumbitem","name":"M\u00e9thode pr\u00e9dicteur de pr\u00e9dicteur-correcteur – Wikipedia wiki"}}]}]