[{"@context":"http:\/\/schema.org\/","@type":"BlogPosting","@id":"https:\/\/wiki.edu.vn\/wiki11\/2020\/12\/24\/partitionsfunktion-mathematik-wikipedia\/#BlogPosting","mainEntityOfPage":"https:\/\/wiki.edu.vn\/wiki11\/2020\/12\/24\/partitionsfunktion-mathematik-wikipedia\/","headline":"Partitionsfunktion (Mathematik) – Wikipedia","name":"Partitionsfunktion (Mathematik) – Wikipedia","description":"Das Partitionsfunktion oder Konfigurationsintegral, wie in der Wahrscheinlichkeitstheorie, Informationstheorie und dynamischen Systemen verwendet, ist eine Verallgemeinerung der Definition einer Partitionsfunktion","datePublished":"2020-12-24","dateModified":"2020-12-24","author":{"@type":"Person","@id":"https:\/\/wiki.edu.vn\/wiki11\/author\/lordneo\/#Person","name":"lordneo","url":"https:\/\/wiki.edu.vn\/wiki11\/author\/lordneo\/","image":{"@type":"ImageObject","@id":"https:\/\/secure.gravatar.com\/avatar\/44a4cee54c4c053e967fe3e7d054edd4?s=96&d=mm&r=g","url":"https:\/\/secure.gravatar.com\/avatar\/44a4cee54c4c053e967fe3e7d054edd4?s=96&d=mm&r=g","height":96,"width":96}},"publisher":{"@type":"Organization","name":"Enzyklop\u00e4die","logo":{"@type":"ImageObject","@id":"https:\/\/wiki.edu.vn\/wiki4\/wp-content\/uploads\/2023\/08\/download.jpg","url":"https:\/\/wiki.edu.vn\/wiki4\/wp-content\/uploads\/2023\/08\/download.jpg","width":600,"height":60}},"image":{"@type":"ImageObject","@id":"https:\/\/wikimedia.org\/api\/rest_v1\/media\/math\/render\/svg\/af4a0955af42beb5f85aa05fb8c07abedc13990d","url":"https:\/\/wikimedia.org\/api\/rest_v1\/media\/math\/render\/svg\/af4a0955af42beb5f85aa05fb8c07abedc13990d","height":"","width":""},"url":"https:\/\/wiki.edu.vn\/wiki11\/2020\/12\/24\/partitionsfunktion-mathematik-wikipedia\/","wordCount":13731,"articleBody":"Das Partitionsfunktion oder Konfigurationsintegral, wie in der Wahrscheinlichkeitstheorie, Informationstheorie und dynamischen Systemen verwendet, ist eine Verallgemeinerung der Definition einer Partitionsfunktion in der statistischen Mechanik. Es ist ein Sonderfall einer Normalisierungskonstante in der Wahrscheinlichkeitstheorie f\u00fcr die Boltzmann-Verteilung. Die Partitionsfunktion tritt bei vielen Problemen der Wahrscheinlichkeitstheorie auf, weil in Situationen, in denen eine nat\u00fcrliche Symmetrie vorliegt, das zugeh\u00f6rige Wahrscheinlichkeitsma\u00df, das Gibbs-Ma\u00df, die Markov-Eigenschaft hat. Dies bedeutet, dass die Partitionsfunktion nicht nur in physikalischen Systemen mit Translationssymmetrie auftritt, sondern auch in so unterschiedlichen Umgebungen wie neuronalen Netzen (dem Hopfield-Netz) und Anwendungen wie Genomik, Korpuslinguistik und k\u00fcnstlicher Intelligenz, die Markov-Netze verwenden, und Markov Logiknetzwerke. Das Gibbs-Ma\u00df ist auch das einzigartige Ma\u00df, das die Eigenschaft hat, die Entropie f\u00fcr einen festen Erwartungswert der Energie zu maximieren; Dies liegt dem Auftreten der Partitionsfunktion bei Maximum-Entropie-Methoden und den daraus abgeleiteten Algorithmen zugrunde. Die Partitionsfunktion verbindet viele verschiedene Konzepte und bietet somit einen allgemeinen Rahmen, in dem viele verschiedene Arten von Gr\u00f6\u00dfen berechnet werden k\u00f6nnen. Insbesondere wird gezeigt, wie Erwartungswerte und Greensche Funktionen berechnet werden, um eine Br\u00fccke zur Fredholm-Theorie zu schlagen. Es bietet auch eine nat\u00fcrliche Umgebung f\u00fcr den Ansatz der Informationsgeometrie zur Informationstheorie, wobei die Fisher-Informationsmetrik als eine aus der Partitionsfunktion abgeleitete Korrelationsfunktion verstanden werden kann. es definiert zuf\u00e4llig eine Riemannsche Mannigfaltigkeit.Wenn sich die Einstellung f\u00fcr Zufallsvariablen auf einen komplexen projektiven Raum oder einen projektiven Hilbert-Raum bezieht, der mit der Fubini-Study-Metrik geometrisiert wurde, ergeben sich die Ergebnisse der Quantenmechanik und allgemeiner die Ergebnisse der Quantenfeldtheorie. In diesen Theorien wird die Partitionsfunktion in der Pfadintegralformulierung mit gro\u00dfem Erfolg stark ausgenutzt, was zu vielen Formeln f\u00fchrt, die nahezu identisch mit den hier besprochenen sind. Da der zugrunde liegende Messraum im Gegensatz zum realwertigen Simplex der Wahrscheinlichkeitstheorie einen komplexen Wert hat, ist dies jedoch ein zus\u00e4tzlicher Faktor von ich erscheint in vielen Formeln. Das Verfolgen dieses Faktors ist m\u00fchsam und wird hier nicht durchgef\u00fchrt. Dieser Artikel konzentriert sich haupts\u00e4chlich auf die klassische Wahrscheinlichkeitstheorie, bei der die Summe der Wahrscheinlichkeiten eins ergibt.Table of Contents Definition[edit]Der Parameter \u03b2[edit]Symmetrie[edit]Als Ma\u00dfnahme[edit]Normalisierung[edit]Erwartungswerte[edit]Informationsgeometrie[edit]Korrelationsfunktionen[edit]Gau\u00dfsche Integrale[edit]Allgemeine Eigenschaften[edit]Siehe auch[edit]Verweise[edit]Definition[edit]Gegeben eine Reihe von Zufallsvariablen X.ich{ displaystyle X_ {i}} Werte annehmen xich{ displaystyle x_ {i}}und irgendeine Art von potentieller Funktion oder Hamiltonian H.((x1,x2,\u2026){ displaystyle H (x_ {1}, x_ {2}, dots)}ist die Partitionsfunktion definiert als Z.((\u03b2)=\u2211xichexp\u2061((– –\u03b2H.((x1,x2,\u2026)){ displaystyle Z ( beta) = sum _ {x_ {i}} exp left (- beta H (x_ {1}, x_ {2}, dots) right)}Die Funktion H. wird als eine reelle Funktion im Raum der Zust\u00e4nde verstanden {X.1,X.2,\u22ef}}{ displaystyle {X_ {1}, X_ {2}, cdots }}w\u00e4hrend \u03b2{ displaystyle beta} ist ein reeller freier Parameter (\u00fcblicherweise die inverse Temperatur). Die Summe \u00fcber die xich{ displaystyle x_ {i}} wird als Summe \u00fcber alle m\u00f6glichen Werte jeder der Zufallsvariablen verstanden X.ich{ displaystyle X_ {i}} k\u00f6nnte dauern. Somit ist die Summe durch ein Integral zu ersetzen, wenn die X.ich{ displaystyle X_ {i}} sind kontinuierlich und nicht diskret. So schreibt manZ.((\u03b2)=\u222bexp\u2061((– –\u03b2H.((x1,x2,\u2026))dx1dx2\u22ef{ displaystyle Z ( beta) = int exp left (- beta H (x_ {1}, x_ {2}, dots) right) , dx_ {1} , dx_ {2} cdots}f\u00fcr den Fall von st\u00e4ndig variierenden X.ich{ displaystyle X_ {i}}.Wann H. ist eine beobachtbare, wie eine endlichdimensionale Matrix oder ein unendlichdimensionaler Hilbert-Raumoperator oder ein Element einer C-Stern-Algebra, ist es \u00fcblich, die Summation als Spur auszudr\u00fccken, so dassZ.((\u03b2)=tr\u2061((exp\u2061((– –\u03b2H.)){ displaystyle Z ( beta) = operatorname {tr} left ( exp left (- beta H right) right)}Wann H. ist unendlichdimensional, damit die obige Notation g\u00fcltig ist, muss das Argument eine Trace-Klasse sein, dh eine Form, bei der die Summation existiert und begrenzt ist.Die Anzahl der Variablen X.ich{ displaystyle X_ {i}} m\u00fcssen nicht abz\u00e4hlbar sein, in welchem \u200b\u200bFall die Summen durch Funktionsintegrale ersetzt werden sollen. Obwohl es viele Notationen f\u00fcr funktionale Integrale gibt, w\u00e4re eine gemeinsameZ.=\u222bD.\u03c6exp\u2061((– –\u03b2H.[\u03c6]){ displaystyle Z = int { mathcal {D}} varphi exp left (- beta H.[varphi ]Recht)}Dies ist der Fall f\u00fcr die Partitionsfunktion in der Quantenfeldtheorie.Eine \u00fcbliche, n\u00fctzliche Modifikation der Partitionsfunktion ist die Einf\u00fchrung von Hilfsfunktionen. Dies erm\u00f6glicht beispielsweise, dass die Partitionsfunktion als Erzeugungsfunktion f\u00fcr Korrelationsfunktionen verwendet wird. Dies wird nachstehend ausf\u00fchrlicher er\u00f6rtert.Der Parameter \u03b2[edit]Die Rolle oder Bedeutung des Parameters \u03b2{ displaystyle beta} kann auf verschiedene Arten verstanden werden. In der klassischen Thermodynamik ist es eine inverse Temperatur. Allgemeiner w\u00fcrde man sagen, dass es die Variable ist, die mit einer (willk\u00fcrlichen) Funktion konjugiert ist H.{ displaystyle H} der Zufallsvariablen X.{ displaystyle X}. Das Wort konjugieren hier wird im Sinne konjugierter verallgemeinerter Koordinaten in der Lagrange-Mechanik also richtig verwendet \u03b2{ displaystyle beta} ist ein Lagrange-Multiplikator. Es wird nicht selten als generalisierte Kraft bezeichnet. Allen diesen Konzepten ist gemeinsam, dass ein Wert festgehalten werden soll, da andere, die auf komplizierte Weise miteinander verbunden sind, variieren d\u00fcrfen. Im aktuellen Fall ist der festzuhaltende Wert der Erwartungswert von H.{ displaystyle H}Auch wenn viele verschiedene Wahrscheinlichkeitsverteilungen genau denselben (festen) Wert ergeben k\u00f6nnen.F\u00fcr den allgemeinen Fall betrachtet man eine Reihe von Funktionen {H.k((x1,\u22ef)}}{ displaystyle {H_ {k} (x_ {1}, cdots) }} dass jeder von den Zufallsvariablen abh\u00e4ngt X.ich{ displaystyle X_ {i}}. Diese Funktionen werden gew\u00e4hlt, weil man aus dem einen oder anderen Grund seine Erwartungswerte konstant halten m\u00f6chte. Um die Erwartungswerte auf diese Weise einzuschr\u00e4nken, wendet man die Methode der Lagrange-Multiplikatoren an. Im allgemeinen Fall veranschaulichen Maximum-Entropie-Methoden die Art und Weise, wie dies durchgef\u00fchrt wird.Einige konkrete Beispiele sind angebracht. Bei grundlegenden thermodynamischen Problemen wird bei Verwendung des kanonischen Ensembles nur ein Parameter verwendet \u03b2{ displaystyle beta} spiegelt die Tatsache wider, dass es nur einen Erwartungswert gibt, der konstant gehalten werden muss: die freie Energie (aufgrund der Energieeinsparung). F\u00fcr chemische Probleme mit chemischen Reaktionen bietet das gro\u00dfe kanonische Ensemble die entsprechende Grundlage, und es gibt zwei Lagrange-Multiplikatoren. Eine besteht darin, die Energie konstant zu halten, und eine andere darin, die Partikelzahl konstant zu halten (da chemische Reaktionen die Rekombination einer festen Anzahl von Atomen beinhalten).F\u00fcr den allgemeinen Fall hat manZ.((\u03b2)=\u2211xichexp\u2061((– –\u2211k\u03b2kH.k((xich)){ displaystyle Z ( beta) = sum _ {x_ {i}} exp left (- sum _ {k} beta _ {k} H_ {k} (x_ {i}) right)}mit \u03b2=((\u03b21,\u03b22,\u22ef){ displaystyle beta = ( beta _ {1}, beta _ {2}, cdots)} ein Punkt in einem Raum.F\u00fcr eine Sammlung von Observablen H.k{ displaystyle H_ {k}}w\u00fcrde man schreibenZ.((\u03b2)=tr\u2061[exp\u2061(\u2212\u2211k\u03b2kHk)]{ displaystyle Z ( beta) = operatorname {tr} left[,exp left(-sum _{k}beta _{k}H_{k}right)right]}}Nach wie vor wird angenommen, dass das Argument von tr eine Traceklasse ist.Das entsprechende Gibbs-Ma\u00df liefert dann eine Wahrscheinlichkeitsverteilung, so dass der Erwartungswert von jedem H.k{ displaystyle H_ {k}} ist ein fester Wert. Genauer gesagt hat man\u2202\u2202\u03b2k((– –Log\u2061Z.)=\u27e8H.k\u27e9=E.[Hk]{ displaystyle { frac { partiell} { partiell beta _ {k}}} left (- log Z right) = langle H_ {k} rangle = mathrm {E} left[H_{k}right]}}mit den spitzen Klammern \u27e8H.k\u27e9{ displaystyle langle H_ {k} rangle} bezeichnet den erwarteten Wert von H.k{ displaystyle H_ {k}}, und E.[]{ displaystyle mathrm {E} [;]}} eine \u00fcbliche alternative Notation sein. Eine genaue Definition dieses Erwartungswerts ist unten angegeben.Obwohl der Wert von \u03b2{ displaystyle beta} wird allgemein als real angesehen, es muss im Allgemeinen nicht sein; Dies wird im folgenden Abschnitt Normalisierung erl\u00e4utert. Die Werte von \u03b2{ displaystyle beta} kann als Koordinaten von Punkten in einem Raum verstanden werden; Dieser Raum ist in der Tat eine Mannigfaltigkeit, wie unten skizziert. Das Studium dieser R\u00e4ume als Mannigfaltigkeiten bildet das Feld der Informationsgeometrie.Symmetrie[edit]Die potentielle Funktion selbst hat \u00fcblicherweise die Form einer Summe:H.((x1,x2,\u2026)=\u2211sV.((s){ displaystyle H (x_ {1}, x_ {2}, dots) = sum _ {s} V (s) ,}wo die Summe vorbei s ist eine Summe \u00fcber eine Teilmenge der Potenzmenge P.((X.) des Sets X.={x1,x2,\u2026}}{ displaystyle X = lbrace x_ {1}, x_ {2}, dots rbrace}. In der statistischen Mechanik wie dem Ising-Modell liegt die Summe beispielsweise \u00fcber Paaren n\u00e4chster Nachbarn. In der Wahrscheinlichkeitstheorie wie Markov-Netzwerken kann die Summe \u00fcber den Cliquen eines Graphen liegen. F\u00fcr das Ising-Modell und andere Gittermodelle sind die maximalen Cliquen Kanten.Die Tatsache, dass die potenzielle Funktion als Summe geschrieben werden kann, spiegelt normalerweise die Tatsache wider, dass sie unter der Wirkung einer Gruppensymmetrie, wie beispielsweise der translatorischen Invarianz, invariant ist. Solche Symmetrien k\u00f6nnen diskret oder kontinuierlich sein; Sie materialisieren sich in den Korrelationsfunktionen f\u00fcr die Zufallsvariablen (siehe unten). Somit wird eine Symmetrie im Hamilton-Operator zu einer Symmetrie der Korrelationsfunktion (und umgekehrt).Diese Symmetrie hat eine kritisch wichtige Interpretation in der Wahrscheinlichkeitstheorie: Sie impliziert, dass das Gibbs-Ma\u00df die Markov-Eigenschaft hat; Das hei\u00dft, es ist in gewisser Weise unabh\u00e4ngig von den Zufallsvariablen, oder \u00e4quivalent dazu ist das Ma\u00df f\u00fcr die \u00c4quivalenzklassen der Symmetrie identisch. Dies f\u00fchrt zu einem weit verbreiteten Auftreten der Partitionsfunktion bei Problemen mit der Markov-Eigenschaft, wie z. B. Hopfield-Netzwerken.Als Ma\u00dfnahme[edit]Der Wert des Ausdrucksexp\u2061((– –\u03b2H.((x1,x2,\u2026)){ displaystyle exp left (- beta H (x_ {1}, x_ {2}, dots) right)}kann als Wahrscheinlichkeit interpretiert werden, dass eine bestimmte Konfiguration von Werten ((x1,x2,\u2026){ displaystyle (x_ {1}, x_ {2}, dots)} tritt im System auf. Somit ist eine bestimmte Konfiguration gegeben ((x1,x2,\u2026){ displaystyle (x_ {1}, x_ {2}, dots)},P.((x1,x2,\u2026)=1Z.((\u03b2)exp\u2061((– –\u03b2H.((x1,x2,\u2026)){ displaystyle P (x_ {1}, x_ {2}, dots) = { frac {1} {Z ( beta)}} exp left (- beta H (x_ {1}, x_ { 2}, dots) right)}ist die Wahrscheinlichkeit der Konfiguration ((x1,x2,\u2026){ displaystyle (x_ {1}, x_ {2}, dots)} im System auftreten, das jetzt richtig normalisiert ist, so dass 0\u2264P.((x1,x2,\u2026)\u22641{ displaystyle 0 leq P (x_ {1}, x_ {2}, dots) leq 1}und so, dass die Summe \u00fcber alle Konfigurationen eins ergibt. Als solches kann die Partitionsfunktion so verstanden werden, dass sie ein Ma\u00df (ein Wahrscheinlichkeitsma\u00df) f\u00fcr den Wahrscheinlichkeitsraum bereitstellt; formal wird es das Gibbs-Ma\u00df genannt. Es verallgemeinert die engeren Konzepte des gro\u00dfen kanonischen Ensembles und des kanonischen Ensembles in der statistischen Mechanik.Es gibt mindestens eine Konfiguration ((x1,x2,\u2026){ displaystyle (x_ {1}, x_ {2}, dots)} f\u00fcr die die Wahrscheinlichkeit maximiert ist; Diese Konfiguration wird \u00fcblicherweise als Grundzustand bezeichnet. Wenn die Konfiguration eindeutig ist, wird der Grundzustand genannt nicht entartetund das System soll ergodisch sein; sonst ist der Grundzustand degenerieren. Der Grundzustand kann mit den Generatoren der Symmetrie pendeln oder nicht; Wenn es pendelt, spricht man von einer unver\u00e4nderlichen Ma\u00dfnahme. Wenn es nicht pendelt, wird die Symmetrie als spontan gebrochen bezeichnet.Bedingungen, unter denen ein Grundzustand existiert und einzigartig ist, sind durch die Karush-Kuhn-Tucker-Bedingungen gegeben; Diese Bedingungen werden \u00fcblicherweise verwendet, um die Verwendung des Gibbs-Ma\u00dfes bei Problemen mit maximaler Entropie zu rechtfertigen.[citation needed]Normalisierung[edit]Die Werte von \u03b2{ displaystyle beta} h\u00e4ngen von dem mathematischen Raum ab, \u00fcber den das Zufallsfeld variiert. Realwertige Zufallsfelder nehmen also Werte auf einem Simplex an: Dies ist die geometrische Art zu sagen, dass die Summe der Wahrscheinlichkeiten eins ergeben muss. F\u00fcr die Quantenmechanik erstrecken sich die Zufallsvariablen \u00fcber einen komplexen Projektionsraum (oder einen komplexwertigen projektiven Hilbert-Raum), wobei die Zufallsvariablen als Wahrscheinlichkeitsamplituden interpretiert werden. Der Schwerpunkt liegt hier auf dem Wort projektiv, da die Amplituden immer noch auf eins normiert sind. Die Normalisierung f\u00fcr die Potentialfunktion ist der Jacobi f\u00fcr den entsprechenden mathematischen Raum: Sie ist 1 f\u00fcr gew\u00f6hnliche Wahrscheinlichkeiten und ich f\u00fcr den Hilbert-Raum; so sieht man in der Quantenfeldtheorie ichtH.{ displaystyle itH} im Exponential statt \u03b2H.{ displaystyle beta H}. Die Partitionsfunktion wird bei der Pfadintegralformulierung der Quantenfeldtheorie mit gro\u00dfer Wirkung sehr stark genutzt. Abgesehen von diesem Unterschied und der Tatsache, dass sie normalerweise eher auf vierdimensionaler Raumzeit als allgemein formuliert ist, ist die Theorie dort nahezu identisch mit der hier vorgestellten.Erwartungswerte[edit]Die Partitionsfunktion wird \u00fcblicherweise als Erzeugungsfunktion f\u00fcr Erwartungswerte verschiedener Funktionen der Zufallsvariablen verwendet. Also zum Beispiel nehmen \u03b2{ displaystyle beta} als einstellbarer Parameter dann die Ableitung von Log\u2061((Z.((\u03b2)){ displaystyle log (Z ( beta))} in Gedenken an \u03b2{ displaystyle beta}E.[H]=\u27e8H.\u27e9=– –\u2202Log\u2061((Z.((\u03b2))\u2202\u03b2{ displaystyle mathbf {E} [H]= langle H rangle = – { frac { teilweise log (Z ( beta))} { teilweise beta}}}gibt den Durchschnitt (Erwartungswert) von an H.. In der Physik w\u00fcrde dies als durchschnittliche Energie des Systems bezeichnet.In Anbetracht der obigen Definition des Wahrscheinlichkeitsma\u00dfes ist der Erwartungswert einer Funktion f der Zufallsvariablen X. kann nun wie erwartet geschrieben werden: also f\u00fcr diskrete Werte X.schreibt man\u27e8f\u27e9=\u2211xichf((x1,x2,\u2026)P.((x1,x2,\u2026)=1Z.((\u03b2)\u2211xichf((x1,x2,\u2026)exp\u2061((– –\u03b2H.((x1,x2,\u2026)){ displaystyle { begin {align} langle f rangle & = sum _ {x_ {i}} f (x_ {1}, x_ {2}, dots) P \u200b\u200b(x_ {1}, x_ {2 }, dots) \\ & = { frac {1} {Z ( beta)}} sum _ {x_ {i}} f (x_ {1}, x_ {2}, dots) exp left (- beta H (x_ {1}, x_ {2}, dots) right) end {align}}}Die obige Notation ist f\u00fcr eine endliche Anzahl diskreter Zufallsvariablen streng korrekt, sollte jedoch f\u00fcr kontinuierliche Variablen als etwas “informell” angesehen werden. Richtig, die obigen Summierungen sollten durch die Notationen der zugrunde liegenden Sigma-Algebra ersetzt werden, die zur Definition eines Wahrscheinlichkeitsraums verwendet wird. Das hei\u00dft, die Identit\u00e4ten bleiben bestehen, wenn sie auf einem Messraum richtig formuliert sind.So ist beispielsweise die Entropie gegeben durchS.=– –kB.\u27e8ln\u2061P.\u27e9=– –kB.\u2211xichP.((x1,x2,\u2026)ln\u2061P.((x1,x2,\u2026)=kB.((\u03b2\u27e8H.\u27e9+Log\u2061Z.((\u03b2)){ displaystyle { begin {align} S & = – k_ {B} langle ln P rangle \\ & = – k_ {B} sum _ {x_ {i}} P (x_ {1}, x_ { 2}, Punkte) ln P (x_ {1}, x_ {2}, Punkte) \\ & = k_ {B} ( beta langle H rangle + log Z ( beta)) end {ausgerichtet}}}Das Gibbs-Ma\u00df ist die eindeutige statistische Verteilung, die die Entropie f\u00fcr einen festen Erwartungswert der Energie maximiert. Dies liegt seiner Verwendung bei Methoden mit maximaler Entropie zugrunde.Informationsgeometrie[edit]Die Punkte \u03b2{ displaystyle beta} kann so verstanden werden, dass es einen Raum und insbesondere eine Mannigfaltigkeit bildet. Es ist daher vern\u00fcnftig, nach der Struktur dieser Mannigfaltigkeit zu fragen; Dies ist die Aufgabe der Informationsgeometrie.Mehrere Ableitungen in Bezug auf die Lagrange-Multiplikatoren f\u00fchren zu einer positiven semidefiniten KovarianzmatrixGichj((\u03b2)=\u22022\u2202\u03b2ich\u2202\u03b2j((– –Log\u2061Z.((\u03b2))=\u27e8((H.ich– –\u27e8H.ich\u27e9)((H.j– –\u27e8H.j\u27e9)\u27e9{ displaystyle g_ {ij} ( beta) = { frac { partiell ^ {2}} { partiell beta ^ {i} partiell beta ^ {j}}} left (- log Z ( beta) right) = langle left (H_ {i} – langle H_ {i} rangle right) left (H_ {j} – langle H_ {j} rangle right) rangle}Diese Matrix ist positiv semidefinit und kann als metrischer Tensor interpretiert werden, insbesondere als Riemannsche Metrik. Wenn Sie den Raum der Lagrange-Multiplikatoren auf diese Weise mit einer Metrik ausstatten, wird daraus eine Riemannsche Mannigfaltigkeit.[1] Das Studium solcher Mannigfaltigkeiten wird als Informationsgeometrie bezeichnet; Die obige Metrik ist die Fisher-Informationsmetrik. Hier, \u03b2{ displaystyle beta} dient als Koordinate am Verteiler. Es ist interessant, die obige Definition mit den einfacheren Fisher-Informationen zu vergleichen, von denen sie inspiriert sind.Dass das Obige die Fisher-Informationsmetrik definiert, l\u00e4sst sich leicht erkennen, wenn der Erwartungswert explizit ersetzt wird:Gichj((\u03b2)=\u27e8((H.ich– –\u27e8H.ich\u27e9)((H.j– –\u27e8H.j\u27e9)\u27e9=\u2211xP.((x)((H.ich– –\u27e8H.ich\u27e9)((H.j– –\u27e8H.j\u27e9)=\u2211xP.((x)((H.ich+\u2202Log\u2061Z.\u2202\u03b2ich)((H.j+\u2202Log\u2061Z.\u2202\u03b2j)=\u2211xP.((x)\u2202Log\u2061P.((x)\u2202\u03b2ich\u2202Log\u2061P.((x)\u2202\u03b2j{ displaystyle { begin {align} g_ {ij} ( beta) & = langle left (H_ {i} – langle H_ {i} rangle right) left (H_ {j} – langle H_ {j} rangle right) rangle \\ & = sum _ {x} P (x) left (H_ {i} – langle H_ {i} rangle right) left (H_ {j } – langle H_ {j} rangle right) \\ & = sum _ {x} P (x) left (H_ {i} + { frac { partielle log Z} { partielle beta _ {i}}} rechts) links (H_ {j} + { frac { partiell log Z} { partiell beta _ {j}}} rechts) \\ & = sum _ {x } P (x) { frac { partiell log P (x)} { partiell beta ^ {i}}} { frac { partiell log P (x)} { partiell beta ^ {j }}} \\ end {align}}}wo wir geschrieben haben P.((x){ displaystyle P (x)} zum P.((x1,x2,\u2026){ displaystyle P (x_ {1}, x_ {2}, dots)} und die Summation wird so verstanden, dass sie \u00fcber allen Werten aller Zufallsvariablen liegt X.k{ displaystyle X_ {k}}. Bei stetig bewerteten Zufallsvariablen werden die Summierungen nat\u00fcrlich durch Integrale ersetzt.Seltsamerweise kann die Fisher-Informationsmetrik auch als euklidische Flachraummetrik nach entsprechender \u00c4nderung von Variablen verstanden werden, wie im Hauptartikel beschrieben. Wenn der \u03b2{ displaystyle beta} sind komplexwertig, die resultierende Metrik ist die Fubini-Study-Metrik. Wenn es in gemischten Zust\u00e4nden anstelle von reinen Zust\u00e4nden geschrieben wird, wird es als Bures-Metrik bezeichnet.Korrelationsfunktionen[edit]Durch die Einf\u00fchrung k\u00fcnstlicher Hilfsfunktionen J.k{ displaystyle J_ {k}} In die Partitionsfunktion kann es dann verwendet werden, um den Erwartungswert der Zufallsvariablen zu erhalten. So zum Beispiel durch SchreibenZ.((\u03b2,J.)=Z.((\u03b2,J.1,J.2,\u2026)=\u2211xichexp\u2061((– –\u03b2H.((x1,x2,\u2026)+\u2211nJ.nxn){ displaystyle { begin {align} Z ( beta, J) & = Z ( beta, J_ {1}, J_ {2}, dots) \\ & = sum _ {x_ {i}} exp left (- beta H (x_ {1}, x_ {2}, dots) + sum _ {n} J_ {n} x_ {n} right) end {align}}}man hat dannE.[xk]=\u27e8xk\u27e9=\u2202\u2202J.kLog\u2061Z.((\u03b2,J.)|J.=0{ displaystyle mathbf {E} [x_{k}]= langle x_ {k} rangle = left. { frac { partiell} { partiell J_ {k}}} log Z ( beta, J) rechts | _ {J = 0}}als Erwartungswert von xk{ displaystyle x_ {k}}. In der Pfadintegralformulierung der Quantenfeldtheorie werden diese Hilfsfunktionen \u00fcblicherweise als Quellfelder bezeichnet.Mehrfachdifferenzierungen f\u00fchren zu den verbundenen Korrelationsfunktionen der Zufallsvariablen. Also die Korrelationsfunktion C.((xj,xk){ displaystyle C (x_ {j}, x_ {k})} zwischen Variablen xj{ displaystyle x_ {j}} und xk{ displaystyle x_ {k}} ist gegeben durch:C.((xj,xk)=\u2202\u2202J.j\u2202\u2202J.kLog\u2061Z.((\u03b2,J.)|J.=0{ displaystyle C (x_ {j}, x_ {k}) = left. { frac { partiell} { partiell J_ {j}}} { frac { partiell} { partiell J_ {k}}} log Z ( beta, J) rechts | _ {J = 0} }}Gau\u00dfsche Integrale[edit]F\u00fcr den Fall wo H. kann als quadratische Form geschrieben werden, an der ein Differentialoperator beteiligt ist, d. hH.=12\u2211nxnD.xn{ displaystyle H = { frac {1} {2}} sum _ {n} x_ {n} Dx_ {n}}dann kann die Partitionsfunktion als Summe oder Integral \u00fcber Gau\u00dfsche verstanden werden. Die Korrelationsfunktion C.((xj,xk){ displaystyle C (x_ {j}, x_ {k})} kann als die Greensche Funktion f\u00fcr den Differentialoperator verstanden werden (und im Allgemeinen zur Fredholmschen Theorie f\u00fchren). In der Einstellung der Quantenfeldtheorie werden solche Funktionen als Propagatoren bezeichnet; Korrelatoren h\u00f6herer Ordnung werden n-Punkt-Funktionen genannt; Die Arbeit mit ihnen definiert die effektive Wirkung einer Theorie.Wenn die Zufallsvariablen Anti-Pendler-Grassmann-Zahlen sind, kann die Partitionsfunktion als Determinante des Operators ausgedr\u00fcckt werden D.. Dies erfolgt durch Schreiben als Berezin-Integral (auch Grassmann-Integral genannt).Allgemeine Eigenschaften[edit]Partitionsfunktionen werden verwendet, um die kritische Skalierung und Universalit\u00e4t zu diskutieren, und unterliegen der Renormierungsgruppe.Siehe auch[edit]Verweise[edit]"},{"@context":"http:\/\/schema.org\/","@type":"BreadcrumbList","itemListElement":[{"@type":"ListItem","position":1,"item":{"@id":"https:\/\/wiki.edu.vn\/wiki11\/#breadcrumbitem","name":"Enzyklop\u00e4die"}},{"@type":"ListItem","position":2,"item":{"@id":"https:\/\/wiki.edu.vn\/wiki11\/2020\/12\/24\/partitionsfunktion-mathematik-wikipedia\/#breadcrumbitem","name":"Partitionsfunktion (Mathematik) – Wikipedia"}}]}]