[{"@context":"http:\/\/schema.org\/","@type":"BlogPosting","@id":"https:\/\/wiki.edu.vn\/all2pl\/wiki27\/przyspieszenie-andersona-wikipedia\/#BlogPosting","mainEntityOfPage":"https:\/\/wiki.edu.vn\/all2pl\/wiki27\/przyspieszenie-andersona-wikipedia\/","headline":"Przyspieszenie Andersona – Wikipedia","name":"Przyspieszenie Andersona – Wikipedia","description":"before-content-x4 L ‘ Przyspieszenie Andersona (znany r\u00f3wnie\u017c w j\u0119zyku angielskim jako Mieszanie Andersona ) jest metod\u0105 przyspieszenia zbie\u017cno\u015bci iteracji o","datePublished":"2023-12-11","dateModified":"2023-12-11","author":{"@type":"Person","@id":"https:\/\/wiki.edu.vn\/all2pl\/wiki27\/author\/lordneo\/#Person","name":"lordneo","url":"https:\/\/wiki.edu.vn\/all2pl\/wiki27\/author\/lordneo\/","image":{"@type":"ImageObject","@id":"https:\/\/secure.gravatar.com\/avatar\/44a4cee54c4c053e967fe3e7d054edd4?s=96&d=mm&r=g","url":"https:\/\/secure.gravatar.com\/avatar\/44a4cee54c4c053e967fe3e7d054edd4?s=96&d=mm&r=g","height":96,"width":96}},"publisher":{"@type":"Organization","name":"Enzyklop\u00e4die","logo":{"@type":"ImageObject","@id":"https:\/\/wiki.edu.vn\/wiki4\/wp-content\/uploads\/2023\/08\/download.jpg","url":"https:\/\/wiki.edu.vn\/wiki4\/wp-content\/uploads\/2023\/08\/download.jpg","width":600,"height":60}},"image":{"@type":"ImageObject","@id":"https:\/\/wikimedia.org\/api\/rest_v1\/media\/math\/render\/svg\/f690285952308aa49e3c6aac892df31cad6d1b06","url":"https:\/\/wikimedia.org\/api\/rest_v1\/media\/math\/render\/svg\/f690285952308aa49e3c6aac892df31cad6d1b06","height":"","width":""},"url":"https:\/\/wiki.edu.vn\/all2pl\/wiki27\/przyspieszenie-andersona-wikipedia\/","wordCount":11698,"articleBody":" (adsbygoogle = window.adsbygoogle || []).push({});before-content-x4L ‘ Przyspieszenie Andersona (znany r\u00f3wnie\u017c w j\u0119zyku angielskim jako Mieszanie Andersona ) jest metod\u0105 przyspieszenia zbie\u017cno\u015bci iteracji o sta\u0142ych punktach. Wprowadzone przez Donalda G. Andersona [Pierwszy] , t\u0119 metod\u0119 mo\u017cna zastosowa\u0107 do znalezienia rozwi\u0105zania r\u00f3wna\u0144 o sta\u0142ym punkcie F ( X ) = X {DisplayStyle f (x) = x} (adsbygoogle = window.adsbygoogle || []).push({});after-content-x4kt\u00f3re cz\u0119sto pojawiaj\u0105 si\u0119 w dziedzinie nauki obliczeniowej. Bior\u0105c pod uwag\u0119 funkcj\u0119 F : R N \u2192 R N {DisplayStyle f: Mathbb {r} ^{n} do mathbb {r} ^{n}} , rozwa\u017c problem znalezienia ustalonego punktu (adsbygoogle = window.adsbygoogle || []).push({});after-content-x4F {DisplayStyle f} lub rozwi\u0105zanie r\u00f3wnania F ( X ) = X {DisplayStyle f (x) = x} . Klasycznym podej\u015bciem do problemu jest u\u017cycie schematu iteracji o sta\u0142ym punkcie [2] lub bior\u0105c pod uwag\u0119 pierwsz\u0105 hipotez\u0119 X 0 {DisplayStyle x_ {0}} Dla roztworu oblicz sekwencj\u0119 X I + Pierwszy = F ( X I ) {DisplayStyle x_ {i+1} = f (x_ {i})} A\u017c do spe\u0142nienia kryterium konwergencji. Jednak zbie\u017cno\u015b\u0107 programu nie jest og\u00f3lnie gwarantowana. Ponadto zbie\u017cno\u015b\u0107 jest og\u00f3lnie og\u00f3lna liniowa i dlatego mo\u017ce by\u0107 zbyt wolna, szczeg\u00f3lnie je\u015bli ocena funkcji (adsbygoogle = window.adsbygoogle || []).push({});after-content-x4F {DisplayStyle f} To jest drogie [2] . Przyspieszenie Andersona jest metod\u0105 przyspieszenia zbie\u017cno\u015bci iteracji o sta\u0142ych punktach [2] . Definiuje siebie G ( X ) = F ( X ) – X {DisplayStyle g (x) = f (x) -x} , To jest G k = G ( X k ) {DisplayStyle g_ {k} = g (x_ {k})} . Bior\u0105c pod uwag\u0119 pocz\u0105tkowy theter X 0 {DisplayStyle x_ {0}} i ca\u0142y parametr M \u2265 Pierwszy {DisplayStyle Mgeq 1} , metod\u0119 mo\u017cna sformu\u0142owa\u0107 w nast\u0119puj\u0105cy spos\u00f3b [3] [Za pomoc\u0105 1] : X 1= F ( X 0) {DisplayStyle x_ {1} = f (x_ {0})} \u2200 k = Pierwszy W 2 W … {DisplayStyle forall k = 1,2, kropki} mk=min{m,k}{DisplayStyle m_ {k} = min {m, k}} Gk=[gk\u2212mk\u2026gk]{DisplayStyle g_ {k} = {start {bmatrix} g_ {k-m_ {k}} & dots & g_ {k} end {Bmatrix}}} \u03b1k=argmin\u03b1\u2208Ak\u2061||Gk\u03b1||2,doveAk={\u03b1=(\u03b10,\u2026,\u03b1mk)\u2208Rmk+1:\u2211i=0mk\u03b1i=1}{DisplayStyle Alpha _ {k} = operatorname {argmin} _ {alpha in a_ {k}} || g_ {k} alpha || _ {2}, quad {dove}}}; a_ {k} = {alpha = (alpha _ {0}, kropki, alfa _ {m_ {k}}) w Mathbb {r} ^{m_ {k} +1}: sum _ {i = 0} ^{m_ {k}} alfa _ alfa _ {i} = 1}} xk+1=\u2211i=0mk(\u03b1k)if(xk\u2212mk+i){DisplayStyle x_ {k+1} = sum _ {i = 0}^{m_ {k}} (alpha _ {k}) _ {i} f (x_ {k-m_ {k}+i})}} Aby zako\u0144czy\u0107 iteracje metody, mo\u017cna zastosowa\u0107 kryteria aresztowania dla metod iteracyjnych. Na przyk\u0142ad iteracje mo\u017cna przerwa\u0107, kiedy |. |. X k + Pierwszy – X k |. |. {DisplayStyle || x_ {k+1} -x_ {k} ||} jest pod przepisan\u0105 tolerancj\u0105 lub gdy pozosta\u0142o\u015b\u0107 G ( X k ) {DisplayStyle g (x_ {k})} Jest poni\u017cej zalecanej tolerancji. W por\u00f3wnaniu z prost\u0105 iteracj\u0105 o sta\u0142ym punkcie stwierdzono, \u017ce metoda przyspieszenia Andersona zbiega si\u0119 szybciej, bardziej solidniej [3] [4] . Table of ContentsRozwi\u0105zanie problemu minimalizacji [[[ zmiana |. Modifica Wikitesto ] Relaks [[[ zmiana |. Modifica Wikitesto ] Wyb\u00f3r m [[[ zmiana |. Modifica Wikitesto ] Wyb\u00f3r mk{DisplayStyle m_ {k}} [[[ M k {DisplayStyle m_ {k}} “> Edytuj |. M k {DisplayStyle m_ {k}} “> Modifica Wikitesto ] Notatki wyja\u015bniaj\u0105ce [[[ zmiana |. Modifica Wikitesto ] Bibliografia [[[ zmiana |. Modifica Wikitesto ] Rozwi\u0105zanie problemu minimalizacji [[[ zmiana |. Modifica Wikitesto ] Przy ka\u017cdej iteracji algorytmu problem optymalizacji zwi\u0105zanej Argmin \u2061 |. |. G k A |. |. 2 {DisplayStyle operatorname {argmin} || g_ {k} alpha || _ {2}} , z zastrze\u017ceniem A \u2208 A k {DisplayStyle Alpha w A_ {K}} nale\u017cy rozwi\u0105za\u0107. Problem mo\u017cna wyrazi\u0107 w niekt\u00f3rych r\u00f3wnowa\u017cnych preparatach [3] , kt\u00f3re odpowiadaj\u0105 r\u00f3\u017cnym metodom rozwi\u0105zania, kt\u00f3re mog\u0105 spowodowa\u0107 bardziej wydajn\u0105 implementacj\u0119: W obu poprzednich wyborach problem optymalizacji jest przedstawiony w postaci problemu przy minimalnych liniowych kwadratach, kt\u00f3re nie s\u0105 zwi\u0105zane, co mo\u017cna rozwi\u0105za\u0107 za pomoc\u0105 standardowych metod, w tym rozk\u0142adu QR [3] i rozk\u0142ad do warto\u015bci liczby pojedynczej [4] , by\u0107 mo\u017ce w tym techniki regularyzacji w celu radzenia sobie z problemami zwi\u0105zanymi z rankingiem i warunkowaniem problemu optymalizacji. Rozwi\u0105zywanie problemu minimum kwadratowego poprzez rozwi\u0105zanie r\u00f3wna\u0144 normalnych na og\u00f3\u0142 nie jest zalecane ze wzgl\u0119du na potencjaln\u0105 niestabilno\u015b\u0107 numeryczn\u0105 i og\u00f3lnie wysokie koszty oblicze\u0144. Stagnacja metody (tj. Obliczanie kolejnych iteracji o tej samej warto\u015bci, X k + Pierwszy = X k {DisplayStyle x_ {k+1} = x_ {k}} ) Powoduje awari\u0119 z powodu osobliwo\u015bci problemu minimalnych kwadrat\u00f3w. W ten sam spos\u00f3b quasi-instalacja ( X k + Pierwszy \u2248 X k {DisplayStyle x_ {k+1} ok. x_ {k}} ) powoduje uwarunkowanie problemu do minimalnych kwadrat\u00f3w [3] . Ponadto wyb\u00f3r parametru M {DisplayStyle M} Mo\u017ce to by\u0107 istotne przy okre\u015blaniu warunkowania problemu minimalnych kwadrat\u00f3w, jak pokazano p\u00f3\u017aniej. Relaks [[[ zmiana |. Modifica Wikitesto ] Algorytm mo\u017cna zmieni\u0107, wprowadzaj\u0105c zmienny parametr relaksacji (lub parametr miksowania) "},{"@context":"http:\/\/schema.org\/","@type":"BreadcrumbList","itemListElement":[{"@type":"ListItem","position":1,"item":{"@id":"https:\/\/wiki.edu.vn\/all2pl\/wiki27\/#breadcrumbitem","name":"Enzyklop\u00e4die"}},{"@type":"ListItem","position":2,"item":{"@id":"https:\/\/wiki.edu.vn\/all2pl\/wiki27\/przyspieszenie-andersona-wikipedia\/#breadcrumbitem","name":"Przyspieszenie Andersona – Wikipedia"}}]}]