Variationsrechnung – Wikipedia

before-content-x4

Das Variationsrechnung ist ein Feld der mathematischen Analyse, das Variationen verwendet, bei denen es sich um kleine Änderungen von Funktionen und Funktionalen handelt, um Maxima und Minima von Funktionalen zu finden: Zuordnungen von einer Reihe von Funktionen zu den reellen Zahlen.[a] Funktionale werden oft als bestimmte Integrale ausgedrückt, an denen Funktionen und ihre Ableitungen beteiligt sind. Funktionen, die Funktionale maximieren oder minimieren, können mithilfe der Euler-Lagrange-Gleichung der Variationsrechnung gefunden werden.

Ein einfaches Beispiel für ein solches Problem besteht darin, die Kurve mit der kürzesten Länge zu finden, die zwei Punkte verbindet. Wenn es keine Einschränkungen gibt, ist die Lösung eine gerade Linie zwischen den Punkten. Wenn die Kurve jedoch auf einer Oberfläche im Raum liegen muss, ist die Lösung weniger offensichtlich, und möglicherweise existieren viele Lösungen. Solche Lösungen sind als Geodäten bekannt. Ein verwandtes Problem stellt das Fermat-Prinzip dar: Licht folgt dem Weg der kürzesten optischen Länge, der zwei Punkte verbindet, wobei die optische Länge vom Material des Mediums abhängt. Ein entsprechendes Konzept in der Mechanik ist das Prinzip der geringsten / stationären Wirkung.

Viele wichtige Probleme betreffen Funktionen mehrerer Variablen. Lösungen von Randwertproblemen für die Laplace-Gleichung erfüllen das Dirichlet-Prinzip. Das Problem von Plateau besteht darin, eine Oberfläche mit minimaler Fläche zu finden, die eine bestimmte Kontur im Raum überspannt: Eine Lösung kann häufig durch Eintauchen eines Rahmens in eine Lösung aus Seifenlauge gefunden werden. Obwohl solche Experimente relativ einfach durchzuführen sind, ist ihre mathematische Interpretation alles andere als einfach: Es kann mehr als eine lokal minimierende Oberfläche geben, und sie können eine nicht triviale Topologie aufweisen.

Geschichte[edit]

Man kann sagen, dass die Variationsrechnung 1687 mit Newtons minimalem Widerstandsproblem beginnt, gefolgt von dem von Johann Bernoulli (1696) aufgeworfenen Problem der Brachistochronkurve.[2] Es erregte sofort die Aufmerksamkeit von Jakob Bernoulli und dem Marquis de l’Hôpital, aber Leonhard Euler arbeitete das Thema erstmals ab 1733 aus. Lagrange wurde von Eulers Arbeiten beeinflusst, um einen wesentlichen Beitrag zur Theorie zu leisten. Nachdem Euler 1755 das Werk des 19-jährigen Lagrange gesehen hatte, ließ Euler seinen eigenen teilweise geometrischen Ansatz zugunsten von Lagranges rein analytischem Ansatz fallen und benannte das Thema in um Variationsrechnung in seinem Vortrag von 1756 Elementa Calculi Variationum.[3][4][1]

Legendre (1786) legte eine nicht ganz zufriedenstellende Methode zur Unterscheidung von Maxima und Minima fest. Isaac Newton und Gottfried Leibniz widmeten dem Thema ebenfalls frühzeitig Aufmerksamkeit.[5] Zu dieser Diskriminierung haben unter anderem Vincenzo Brunacci (1810), Carl Friedrich Gauss (1829), Siméon Poisson (1831), Mikhail Ostrogradsky (1834) und Carl Jacobi (1837) beigetragen. Ein wichtiges allgemeines Werk ist das von Sarrus (1842), das von Cauchy (1844) verdichtet und verbessert wurde. Andere wertvolle Abhandlungen und Memoiren wurden von Strauch (1849), Jellett (1850), Otto Hesse (1857), Alfred Clebsch (1858) und Carll (1885) verfasst, aber das vielleicht wichtigste Werk des Jahrhunderts ist das von Weierstrass . Sein gefeierter Kurs über die Theorie ist epochal, und es kann behauptet werden, dass er der erste war, der sie auf eine feste und unbestreitbare Grundlage stellte. Das 1900 veröffentlichte 20. und 23. Hilbert-Problem förderte die weitere Entwicklung.[5]

Im 20. Jahrhundert leisteten unter anderem David Hilbert, Emmy Noether, Leonida Tonelli, Henri Lebesgue und Jacques Hadamard bedeutende Beiträge.[5]Marston Morse wandte die Variationsrechnung in der heutigen Morse-Theorie an.[6]Lev Pontryagin, Ralph Rockafellar und FH Clarke entwickelten neue mathematische Werkzeuge für die Variationsrechnung in der Theorie der optimalen Kontrolle.[6] Die dynamische Programmierung von Richard Bellman ist eine Alternative zur Variationsrechnung.[7][8][9][b]

Extrema[edit]

Die Variationsrechnung befasst sich mit den Maxima oder Minima (zusammenfassend genannt extrema) von Funktionalen. Eine Funktion ordnet Funktionen Skalaren zu, daher wurden Funktionen als beschrieben “Funktionen von Funktionen.” Funktionale haben Extrema in Bezug auf die Elemente y eines bestimmten Funktionsraums, der über eine bestimmte Domäne definiert ist. Eine funktionale J. [ y ] soll ein Extremum an der Funktion haben f wenn ΔJ = J. [ y ] – – J. [ f] hat das gleiche Zeichen für alle y in einer willkürlich kleinen Nachbarschaft von f .[c] Die Funktion f heißt ein extremal Funktion oder extrem.[d] Das Extremum J. [ f ] wird als lokales Maximum bezeichnet, wenn ΔJ ≤ 0 überall in einer willkürlich kleinen Nachbarschaft von f , und ein lokales Minimum, wenn ΔJ ≥ 0 Dort. Für einen Funktionsraum stetiger Funktionen werden Extrema entsprechender Funktionale aufgerufen schwache Extrema oder starke Extremaabhängig davon, ob die ersten Ableitungen der stetigen Funktionen jeweils alle stetig sind oder nicht.[11]

Sowohl starke als auch schwache Extrema von Funktionalen sind für einen Raum kontinuierlicher Funktionen, aber starke Extrema haben die zusätzliche Anforderung, dass die ersten Ableitungen der Funktionen im Raum stetig sind. Somit ist ein starkes Extremum auch ein schwaches Extremum, aber das Gegenteil kann nicht gelten. Starke Extrema zu finden ist schwieriger als schwache Extrema zu finden.[12] Ein Beispiel für eine notwendige Bedingung, die zum Auffinden schwacher Extrema verwendet wird, ist die Euler-Lagrange-Gleichung.[13][e]

Euler-Lagrange-Gleichung[edit]

Das Finden der Extrema von Funktionalen ähnelt dem Finden der Maxima und Minima von Funktionen. Die Maxima und Minima einer Funktion können lokalisiert werden, indem die Punkte gefunden werden, an denen ihre Ableitung verschwindet (dh gleich Null ist). Die Extrema von Funktionalen können erhalten werden, indem Funktionen gefunden werden, bei denen die funktionale Ableitung gleich Null ist. Dies führt zur Lösung der zugehörigen Euler-Lagrange-Gleichung.[f]

Betrachten Sie die Funktion

wo

x1, x2 sind Konstanten,
y ((x) ist zweimal kontinuierlich differenzierbar,
y ‘(x) = dy / dx ,
L.((x, y ((x), y ‘(x)) ist in Bezug auf seine Argumente zweimal kontinuierlich differenzierbar x, y, y.

Ist das funktionsfähig J.[y ] erreicht ein lokales Minimum bei f , und η((x) ist eine beliebige Funktion, die mindestens eine Ableitung hat und an den Endpunkten verschwindet x1 und x2 , dann für eine beliebige Anzahl ε nahe 0,

Der Begriff εη heißt das Variation der Funktion f und wird mit bezeichnet δf .[1][g]

Ersetzen f + εη zum y in der funktionalen J.[ y ] , das Ergebnis ist eine Funktion von ε,

Da die funktionale J.[ y ] hat ein Minimum für y = f , die Funktion Φ (ε) hat ein Minimum bei ε = 0 und somit,[h]

Nehmen Sie die Gesamtableitung von L.[x, y, y ′] , wo y = f + ε η und y ‘= f ‘+ ε η werden als Funktionen von betrachtet ε eher, als xergibt

und seit dy /. = η und dy ‘/ = η ‘ ,

Deshalb,

wo L.[x, y, y ′] → L.[x, f, f ′] wann ε = 0 und wir haben die Integration nach Teilen für den zweiten Term verwendet. Der zweite Term in der zweiten Zeile verschwindet, weil η = 0 beim x1 und x2 per Definition. Wie bereits erwähnt, ist die linke Seite der Gleichung Null, so dass

Nach dem fundamentalen Lemma der Variationsrechnung ist der Teil des Integranden in Klammern Null, dh

das heißt die Euler-Lagrange-Gleichung. Die linke Seite dieser Gleichung wird als funktionale Ableitung von bezeichnet J.[f] und wird bezeichnet δJ/.δf((x).

Im Allgemeinen ergibt dies eine gewöhnliche Differentialgleichung zweiter Ordnung, die gelöst werden kann, um die Extremalfunktion zu erhalten f((x). Die Euler-Lagrange-Gleichung ist eine notwendige, aber nicht ausreichende Bedingung für ein Extremum J.[f]. Eine ausreichende Bedingung für ein Minimum ist im Abschnitt Variationen angegeben und eine ausreichende Bedingung für ein Minimum.

Beispiel[edit]

Um diesen Prozess zu veranschaulichen, betrachten Sie das Problem des Findens der Extremalfunktion y = f ((x), Dies ist die kürzeste Kurve, die zwei Punkte verbindet ((x1, y1) und ((x2, y2). Die Bogenlänge der Kurve ist gegeben durch

mit

[i]

Die Euler-Lagrange-Gleichung wird nun verwendet, um die Extremalfunktion zu finden f ((x) das minimiert die Funktion EIN[y ] .

mit

Schon seit f erscheint nicht explizit in L. , Der erste Term in der Euler-Lagrange-Gleichung verschwindet für alle f ((x) und somit,

Ersetzen für L. und das Derivat nehmen,

So

für eine Konstante c. Dann

wo

Lösen bekommen wir

was impliziert, dass

ist eine Konstante und daher die kürzeste Kurve, die zwei Punkte verbindet ((x1, y1) und ((x2, y2) ist

und so haben wir die extreme Funktion gefunden f((x) das minimiert die Funktion EIN[y] damit EIN[f] ist ein Minimum. Die Gleichung für eine gerade Linie lautet y = f((x). Mit anderen Worten, der kürzeste Abstand zwischen zwei Punkten ist eine gerade Linie.[j]

Beltramis Identität[edit]

Bei physikalischen Problemen kann dies der Fall sein

L.x=0{ displaystyle { frac { partielles L} { partielles x}} = 0}

, was bedeutet, dass der Integrand eine Funktion von ist

f((x){ displaystyle f (x)}

und

f((x){ displaystyle f ‘(x)}

aber

x{ displaystyle x}

wird nicht separat angezeigt. In diesem Fall kann die Euler-Lagrange-Gleichung auf die Beltrami-Identität vereinfacht werden[16]

wo

C.{ displaystyle C}

ist eine Konstante. Die linke Seite ist die Legendre-Transformation von

L.{ displaystyle L}

in Gedenken an

f((x){ displaystyle f ‘(x)}

.

Die Intuition hinter diesem Ergebnis ist die, wenn die Variable x Ist eigentlich Zeit, dann die Aussage

L.x=0{ displaystyle { frac { partielles L} { partielles x}} = 0}

impliziert, dass der Lagrange zeitunabhängig ist. Nach dem Satz von Noether gibt es eine zugehörige konservierte Größe. In diesem Fall ist diese Größe die Hamilton-Transformation, die Legendre-Transformation der Lagrange, die (oft) mit der Energie des Systems zusammenfällt. Dies ist (minus) die Konstante in Beltramis Identität.

Euler-Poisson-Gleichung[edit]

Wenn

S.{ displaystyle S}

hängt von höheren Derivaten ab

y((x){ displaystyle y (x)}

, das heißt, wenn

S.=einbf((x,y((x),y((x),...,yn((x))dx,{ displaystyle S = int begrenzt _ {a} ^ {b} f (x, y (x), y ‘(x), …, y ^ {n} (x)) dx,}

dann

y{ displaystyle y}

muss die Euler-Poisson-Gleichung erfüllen,

fy– –ddx((fy)+...+((– –1)ndndxn[fy(n)]=0.{ displaystyle { frac { partielles f} { partielles y}} – { frac {d} {dx}} left ({ frac { partielles f} { partielles y ‘}} rechts) + … + (- 1) ^ {n} { frac {d ^ {n}} {dx ^ {n}}} left[{frac {partial f}{partial y^{(n)}}}right]= 0.}

[17]

Satz von Du Bois-Reymond[edit]

Die bisherige Diskussion hat angenommen, dass Extremalfunktionen zwei kontinuierliche Ableitungen besitzen, obwohl das Integral existiert J. erfordert nur erste Ableitungen von Testfunktionen. Die Bedingung, dass die erste Variation an einem Extrem verschwindet, kann als a angesehen werden schwache Form der Euler-Lagrange-Gleichung. Der Satz von Du Bois-Reymond besagt, dass diese schwache Form die starke Form impliziert. Wenn L. hat kontinuierliche erste und zweite Ableitungen in Bezug auf alle seine Argumente, und wenn

dann

f{ displaystyle f}

hat zwei kontinuierliche Ableitungen und erfüllt die Euler-Lagrange-Gleichung.

Lavrentiev-Phänomen[edit]

Hilbert war der erste, der gute Bedingungen für die Euler-Lagrange-Gleichungen gab, um eine stationäre Lösung zu erhalten. Innerhalb eines konvexen Bereichs und eines dreimal differenzierbaren positiven Lagrange-Bereichs bestehen die Lösungen aus einer zählbaren Sammlung von Abschnitten, die entweder entlang der Grenze verlaufen oder die Euler-Lagrange-Gleichungen im Inneren erfüllen.

Lavrentiev im Jahr 1926 zeigte jedoch, dass es Umstände gibt, unter denen es keine optimale Lösung gibt, aber man kann willkürlich näher kommen, indem man die Anzahl der Abschnitte erhöht. Das Lavrentiev-Phänomen identifiziert einen Unterschied im Infimum eines Minimierungsproblems über verschiedene Klassen zulässiger Funktionen hinweg. Zum Beispiel das folgende Problem, das Manià 1934 vorstellte:[18]

Deutlich,

after-content-x4