Zufallsmatrix – Wikipedia

before-content-x4

Matrixbewertete Zufallsvariable

after-content-x4

In Wahrscheinlichkeitstheorie und mathematischer Physik, a Zufallsmatrix ist eine Zufallsvariable mit Matrixwert, d. h. eine Matrix, in der einige oder alle Elemente Zufallsvariablen sind. Viele wichtige Eigenschaften physikalischer Systeme lassen sich mathematisch als Matrixprobleme darstellen. Beispielsweise kann die Wärmeleitfähigkeit eines Gitters aus der dynamischen Matrix der Partikel-Partikel-Wechselwirkungen innerhalb des Gitters berechnet werden.

Anwendungen[edit]

Physik[edit]

In der Kernphysik wurden von Eugene Wigner Zufallsmatrizen eingeführt, um die Kerne schwerer Atome zu modellieren.[1] Er postulierte, dass die Abstände zwischen den Linien im Spektrum eines schweren Atomkerns den Abständen zwischen den Eigenwerten einer Zufallsmatrix ähneln und nur von der Symmetrieklasse der zugrunde liegenden Evolution abhängen sollten.[2] In der Festkörperphysik modellieren Zufallsmatrizen das Verhalten großer ungeordneter Hamiltonoperatoren in der Mean-Field-Approximation.

Im Quantenchaos behauptet die Bohigas-Giannoni-Schmit (BGS)-Vermutung, dass die Spektralstatistik von Quantensystemen, deren klassische Gegenstücke chaotisches Verhalten aufweisen, durch die Zufallsmatrixtheorie beschrieben wird.[3]

In der Quantenoptik sind Transformationen, die durch zufällige unitäre Matrizen beschrieben werden, entscheidend, um den Vorteil von Quanten gegenüber klassischer Berechnung zu demonstrieren (siehe zB das Boson-Sampling-Modell).[4] Darüber hinaus können solche zufälligen einheitlichen Transformationen direkt in einer optischen Schaltung implementiert werden, indem ihre Parameter auf optische Schaltungskomponenten (d. h. Strahlteiler und Phasenschieber) abgebildet werden.[5]

Die Zufallsmatrixtheorie hat auch Anwendungen für den chiralen Dirac-Operator in der Quantenchromodynamik gefunden.[6]Quantengravitation in zwei Dimensionen,[7]mesoskopische Physik,[8]Spin-Transfer-Drehmoment,[9] der fraktionale Quanten-Hall-Effekt,[10]Anderson-Lokalisierung,[11]Quantenpunkte,[12] und Supraleiter[13]

Mathematische Statistik und numerische Analysis[edit]

In der multivariaten Statistik wurden von John Wishart Zufallsmatrizen für die statistische Analyse großer Stichproben eingeführt;[14] siehe Schätzung von Kovarianzmatrizen.

after-content-x4

Es wurden signifikante Ergebnisse gezeigt, die die klassischen skalaren Chernoff-, Bernstein- und Hoeffding-Ungleichungen auf die größten Eigenwerte endlicher Summen von zufälligen Hermiteschen Matrizen erweitern.[15] Korollarergebnisse werden für die maximalen Singulärwerte von rechteckigen Matrizen abgeleitet.

In der numerischen Analysis werden seit den Arbeiten von John von Neumann und Herman Goldstine Zufallsmatrizen verwendet[16] Berechnungsfehler bei Operationen wie der Matrixmultiplikation zu beschreiben. Siehe auch[17][18] für neuere Ergebnisse.

Zahlentheorie[edit]

In der Zahlentheorie wird die Verteilung der Nullstellen der Riemannschen Zetafunktion (und anderer L-Funktionen) durch die Verteilung der Eigenwerte bestimmter Zufallsmatrizen modelliert.[19] Die Verbindung wurde zuerst von Hugh Montgomery und Freeman J. Dyson entdeckt. Es ist mit der Hilbert-Pólya-Vermutung verbunden.

Theoretische Neurowissenschaften[edit]

Auf dem Gebiet der theoretischen Neurowissenschaften werden zunehmend Zufallsmatrizen verwendet, um das Netzwerk synaptischer Verbindungen zwischen Neuronen im Gehirn zu modellieren. Dynamische Modelle neuronaler Netze mit zufälliger Konnektivitätsmatrix zeigen einen Phasenübergang ins Chaos[20] wenn die Varianz der synaptischen Gewichte einen kritischen Wert überschreitet, an der Grenze der unendlichen Systemgröße. Die statistischen Eigenschaften des Spektrums biologisch inspirierter Zufallsmatrixmodelle mit dem dynamischen Verhalten zufällig verbundener neuronaler Netze in Beziehung zu setzen, ist ein intensives Forschungsthema.[21][22][23][24][25]

Optimale Kontrolle[edit]

In der Theorie der optimalen Kontrolle ist die Entwicklung von n Zustandsvariablen im Laufe der Zeit hängt zu jeder Zeit von ihren eigenen Werten und von den Werten von ab k Steuervariablen. Bei der linearen Evolution erscheinen Koeffizientenmatrizen in der Zustandsgleichung (Evolutionsgleichung). Bei einigen Problemen sind die Werte der Parameter in diesen Matrizen nicht mit Sicherheit bekannt, in diesem Fall gibt es zufällige Matrizen in der Zustandsgleichung und das Problem wird als stochastische Kontrolle bezeichnet.[26]: CH. 13[27][28] Ein wesentliches Ergebnis bei der linear-quadratischen Regelung mit stochastischen Matrizen ist, dass das Gewissheitsäquivalenzprinzip nicht gilt: während ohne Multiplikatorunsicherheit (d. h. mit nur additiver Unsicherheit) die optimale Politik mit einer quadratischen Verlustfunktion mit was entschieden würde, wenn die Unsicherheit ignoriert würde, gilt dies bei Vorhandensein von Zufallskoeffizienten in der Zustandsgleichung nicht mehr.

Gaußsche Ensembles[edit]

Die am häufigsten untersuchten Zufallsmatrix-Ensembles sind die Gaußschen Ensembles.

Die Gaußsches Einheitsensemble

GUE(n){displaystyle {text{GUE}}(n)}

wird durch das Gauß-Maß mit Dichte . beschrieben

auf dem raum von

n×n{displaystyle nmal n}

Hermitesche Matrizen

h=(hichJ)ich,J=1n{displaystyle H=(H_{ij})_{i,j=1}^{n}}

. Hier

ZGUE(n)=2n/2π12n2{displaystyle Z_{{text{GUE}}(n)}=2^{n/2}pi^{{frac {1}{2}}n^{2}}}

ist eine Normierungskonstante, die so gewählt wird, dass das Integral der Dichte gleich eins ist. Der Begriff einheitlich bezieht sich auf die Tatsache, dass die Verteilung bei unitärer Konjugation invariant ist. Das Gaußsche unitäre Ensemble modelliert Hamilton-Operatoren ohne Zeitumkehrsymmetrie.

Die Gaußsches orthogonales Ensemble

GO(n){displaystyle {text{GOE}}(n)}

wird durch das Gauß-Maß mit Dichte . beschrieben

auf dem raum von n × n echte symmetrische Matrizen h = (hij)n
ich,J=1
. Seine Verteilung ist bei orthogonaler Konjugation invariant, und es modelliert Hamilton-Operatoren mit Zeitumkehrsymmetrie.

Die Gaußsches symplektisches Ensemble

GSE(n){displaystyle {text{GSE}}(n)}

wird durch das Gauß-Maß mit Dichte . beschrieben

auf dem raum von n × n Hermitesche quaternionische Matrizen, zB symmetrische quadratische Matrizen aus Quaternionen, h = (hij)n
ich,J=1
. Seine Verteilung ist bei Konjugation durch die symplektische Gruppe invariant, und es modelliert Hamilton-Operatoren mit Zeitumkehrsymmetrie, aber ohne Rotationssymmetrie.

Die Gaußschen Ensembles GOE, GUE und GSE werden oft mit ihrem Dyson-Index bezeichnet, β = 1 für GOE, β = 2 für GUE, und β = 4 für GSE. Dieser Index zählt die Anzahl der reellen Komponenten pro Matrixelement. Die hier definierten Ensembles haben Gauß-verteilte Matrixelemente mit Mittelwert ⟨hij⟩ = 0, und Zweipunkt-Korrelationen gegeben durch

woraus alle höheren Korrelationen nach dem Satz von Isserlis folgen.

Die gemeinsame Wahrscheinlichkeitsdichte für die Eigenwerte λ1,λ2,…,λn von GUE/GOE/GSE ist gegeben durch

wo Zβ,n ist eine Normierungskonstante, die explizit berechnet werden kann, siehe Selberg-Integral. Im Fall von GUE (β = 2), die Formel (1) beschreibt einen determinanten Punktprozess. Eigenwerte stoßen sich ab, da die gemeinsame Wahrscheinlichkeitsdichte eine Null (von

β{displaystyle beta}

Ordnung) für übereinstimmende Eigenwerte

λJ=λich{displaystyle lambda_{j}=lambda_{i}}

.

Zur Verteilung des größten Eigenwerts für GOE-, GUE- und Wishart-Matrizen endlicher Dimensionen siehe.[29]

Verteilung der Ebenenabstände[edit]

Aus der geordneten Folge von Eigenwerten

λ1<<λn<λn+1<{displaystyle lambda_{1}

, definiert man die normierten Abstände

S=(λn+1λn)/IchSIch{displaystyle s=(lambda_{n+1}-lambda_{n})/langle srangle}

, wo

IchSIch=Ichλn+1λnIch{displaystyle langle srangle =langle lambda_{n+1}-lambda_{n}rangle}

ist der mittlere Abstand. Die Wahrscheinlichkeitsverteilung der Abstände ist näherungsweise gegeben durch

für das orthogonale Ensemble GOE

β=1{displaystyle beta=1}

,

für das unitäre Ensemble GUE

β=2{displaystyle beta =2}

, und

für das symplektische Ensemble GSE

β=4{displaystyle beta =4}

.

Die numerischen Konstanten sind so, dass

Pβ(S){displaystyle p_{beta}(s)}

ist normalisiert:

und der mittlere Abstand ist

zum

β=1,2,4{displaystyle beta=1,2,4}

.

Verallgemeinerungen[edit]

Wigner-Matrizen sind zufällige hermitesche Matrizen

hn=(hn(ich,J))ich,J=1n{displaystyle textstyle H_{n}=(H_{n}(i,j))_{i,j=1}^{n}}

so dass die Einträge

oberhalb der Hauptdiagonalen befinden sich unabhängige Zufallsvariablen mit Nullmittelwert und identischen zweiten Momenten.

Invariante Matrixensembles sind zufällige hermitesche Matrizen mit Dichte auf dem Raum reeller symmetrischer/ hermitescher/ quaternionischer hermitescher Matrizen, die von der Form

1ZnenTRV(h) ,{displaystyle textstyle {frac {1}{Z_{n}}}e^{-nmathrm {tr} V(H)}~,}

wo die Funktion V heißt Potenzial.

Die Gaußschen Ensembles sind die einzigen gemeinsamen Spezialfälle dieser beiden Klassen von Zufallsmatrizen.

Spektraltheorie zufälliger Matrizen[edit]

Die Spektraltheorie der Zufallsmatrizen untersucht die Verteilung der Eigenwerte, wenn die Größe der Matrix ins Unendliche geht.

Globales Regime[edit]

In dem globales Regime, interessiert man sich für die Verteilung der linearen Statistik der Form

nF,h=n1trF(h){displaystyle N_{f,H}=n^{-1}{text{tr}}f(H)}

.

Empirische Spektralmessung[edit]

Die empirisches spektrales Maß μh von h ist definiert durch

Normalerweise ist die Grenze von

μh{displaystyle mu_{H}}

ist ein deterministisches Maß; dies ist ein besonderer Fall der Selbstmittelung. Die kumulative Verteilungsfunktion des Grenzmaßes heißt integrierte Zustandsdichte und heißt n(λ). Ist die integrierte Zustandsdichte differenzierbar, so nennt man ihre Ableitung Zustandsdichte und heißt ρ(λ).

Die Grenze des empirischen Spektralmaßes für Wigner-Matrizen wurde von Eugene Wigner beschrieben; siehe Wigner-Halbkreisverteilung und Wigner-Vermutung. Bezüglich der Kovarianzmatrizen der Stichprobe wurde eine Theorie von Marčenko und Pastur entwickelt.[30][31]

Die Grenze des empirischen Spektralmaßes invarianten Matrixensembles wird durch eine bestimmte Integralgleichung beschrieben, die sich aus der Potentialtheorie ergibt.[32]

Schwankungen[edit]

Für die lineare Statistik nF,h = n-1 Σ F(λJ), interessiert man sich auch für die Schwankungen um ∫ F(λ) dN(λ). Für viele Klassen von Zufallsmatrizen gilt ein zentraler Grenzwertsatz der Form

ist bekannt, siehe,[33][34] usw.

Lokales Regime[edit]

In dem lokales Regime, interessiert man sich für die Abstände zwischen den Eigenwerten und allgemeiner für die gemeinsame Verteilung der Eigenwerte in einem Intervall der Länge der Ordnung 1/n. Man unterscheidet zwischen Bulk-Statistiken, die sich auf Intervalle innerhalb des Trägers des begrenzenden Spektralmaßes beziehen, und Kantenstatistik, die sich auf Intervalle nahe der Grenze des Trägers beziehen.

Massenstatistiken[edit]

Formell beheben

λ0{displaystyle lambda _{0}}

im Inneren der Unterstützung von

n(λ){displaystyle N(lambda)}

. Betrachten Sie dann den Punktprozess

wo

λJ{displaystyle lambda_{j}}

sind die Eigenwerte der Zufallsmatrix.

Der Punktprozess

Ξ(λ0){displaystyle Xi (lambda_{0})}

erfasst die statistischen Eigenschaften von Eigenwerten in der Nähe von

λ0{displaystyle lambda _{0}}

. Für die Gaußschen Ensembles ist der Grenzwert von

Ξ(λ0){displaystyle Xi (lambda_{0})}

ist bekannt;[2] für GUE ist es also ein determinanter Punktprozess mit dem Kernel

(das Sinuskern).

Die Universalität Prinzip postuliert, dass der Grenzwert von

Ξ(λ0){displaystyle Xi (lambda_{0})}

wie

n{displaystyle nto infty}

sollte nur von der Symmetrieklasse der Zufallsmatrix abhängen (und weder vom spezifischen Modell der Zufallsmatrizen noch von

λ0{displaystyle lambda _{0}}

). Dies wurde für mehrere Modelle von Zufallsmatrizen rigoros bewiesen: für invariante Matrixensembles[35][36]

für Wigner-Matrizen,[37][38]

usw.

Kantenstatistik[edit]

Siehe Tracy-Widom-Verteilung.

Korrelationsfunktionen[edit]

Die gemeinsame Wahrscheinlichkeitsdichte der Eigenwerte von

n×n{displaystyle nmal n}

zufällige hermitesche Matrizen

mhn×n{displaystyle Minmathbf{H}^{ntimes n}}

, mit Partitionsfunktionen der Form

wo

und

Dμ0(m){displaystyle dmu_{0}(M)}

ist das Standardmaß von Lebesgue für den Raum

hn×n{displaystylemathbf{H}^{ntimes n}}

von Hermitian

n×n{displaystyle nmal n}

Matrizen, ist gegeben durch

Die

k{displaystyle k}

-Punktkorrelationsfunktionen (oder Randverteilungen) sind definiert als

die schiefsymmetrische Funktionen ihrer Variablen sind. Insbesondere die Ein-Punkt-Korrelationsfunktion, oder Dichte der Staaten, ist

Sein Integral über einer Borel-Menge

BR{displaystyle Bsubset mathbf {R}}

gibt die erwartete Anzahl von Eigenwerten in

B{displaystyle B}

:

Das folgende Ergebnis drückt diese Korrelationsfunktionen als Determinanten der Matrizen aus, die aus der Auswertung des entsprechenden Integralkerns an den Paaren . gebildet werden

(xich,xJ){displaystyle (x_{i},x_{j})}

der Punkte, die innerhalb des Korrelators erscheinen.

Satz [Dyson-Mehta]

Für alle

k{displaystyle k}

,

1kn{displaystyle 1leq kleq n}

das

k{displaystyle k}

-Punktkorrelationsfunktion

Rn,V(k){displaystyle R_{n,V}^{(k)}}

kann als Determinante geschrieben werden

wo

Kn,V(x,ja){displaystyle K_{n,V}(x,y)}

ist der

n{displaystyle n}

Christoffel-Darboux-Kernel

verbunden sein mit

V{displaystyle V}

, geschrieben in Form der Quasipolynome

wo

{Pk(x)}kn{displaystyle {p_{k}(x)}_{kinmathbf{N}}}

ist eine vollständige Folge von monischen Polynomen der angegebenen Grade, die die Orthogonilitätsbedingungen erfüllen

Andere Klassen von Zufallsmatrizen[edit]

Wishart-Matrizen[edit]

Wishart-Matrizen sind n × n Zufallsmatrizen der Form h = x x*, wo x ist ein n × m Zufallsmatrix (mn) mit unabhängigen Einträgen und x* ist seine konjugierte Transponierte. In dem von Wishart betrachteten wichtigen Sonderfall sind die Einträge von x sind identisch verteilte Gaußsche Zufallsvariablen (entweder reell oder komplex).

Die Grenze des empirischen Spektralmaßes von Wishart-Matrizen wurde gefunden[30] von Vladimir Marchenko und Leonid Pastur, siehe Marchenko-Pastur Distribution.

Zufällige unitäre Matrizen[edit]

Siehe Kreisensembles.

Nicht-hermitesche Zufallsmatrizen[edit]

Siehe Rundschreiben.

Leitfaden für Referenzen[edit]

Verweise[edit]

  1. ^ ein B Wigner, E. (1955). „Charakteristische Vektoren von umrandeten Matrizen mit unendlichen Dimensionen“. Annalen der Mathematik. 62 (3): 548–564. mach:10.2307/1970079. JSTOR 19710079.
  2. ^ ein B C Mehta, ML (2004). Zufällige Matrizen. Amsterdam: Elsevier/Akademische Presse. ISBN 0-12-088409-7.
  3. ^ Bohigas, O.; Giannoni, MJ; Schmit, Schmit (1984). „Charakterisierung chaotischer Quantenspektren und Universalität der Pegelfluktuationsgesetze“. Phys. Rev. Lett. 52 (1): 1–4. Bibcode:1984PhRvL..52….1B. mach:10.1103/PhysRevLett.52.1.
  4. ^ Aaronson, Scott; Arkhipow, Alex (2013). “Die Rechenkomplexität der Linearoptik”. Theorie der Informatik. 9: 143–252. mach:10.4086/toc.2013.v009a004.
  5. ^ Russell, Nicholas; Chakhmakhchyan, Levon; O’Brien, Jeremy; Laing, Anthony (2017). „Direktwahl von Haar zufälligen einheitlichen Matrizen“. Neue J.Phys. 19 (3): 0330007. arXiv:1506.06220. Bibcode:2017NJPh…19c3007R. mach:10.1088/1367-2630/aa60ed. S2CID 46915633.
  6. ^ Verbaarschot JJ, Wettig T (2000). „Zufallsmatrixtheorie und chirale Symmetrie in QCD“. Annu. Rev. Nukl. Teil. Wissenschaft. 50: 343–410. arXiv:hep-ph/0003017. Bibcode:2000ARNPS..50..343V. mach:10.1146/annurev.nucl.50.1.343. S2CID 119470008.
  7. ^ Franchini F, Kravtsov VE (Oktober 2009). „Horizont in der Zufallsmatrixtheorie, der Hawking-Strahlung und des Flusses kalter Atome“. Phys. Rev. Lett. 103 (16): 166401. arXiv:0905.3533. Bibcode:2009PhRvL.103p6401F. mach:10.1103/PhysRevLett.103.166401. PMID 19905710. S2CID 11122957.
  8. ^ Sánchez D, Büttiker M (September 2004). „Magnetfeldasymmetrie des nichtlinearen mesoskopischen Transports“. Phys. Rev. Lett. 93 (10): 106802. arXiv:cond-mat/0404387. Bibcode:2004PhRvL..93j6802S. mach:10.1103/PhysRevLett.93.106802. PMID 15447435. S2CID 11686506.
  9. ^ Rychkov VS, Borlenghi S, Jaffres H, Fert A, Waintal X (August 2009). „Spin-Torque und Welligkeit in magnetischen Multischichten: eine Brücke zwischen Valet-Fert-Theorie und Quantenansätzen“. Phys. Rev. Lett. 103 (6): 066002. ARXIV:0902.4360. Bibcode:2009PhRvL.103f6602R. mach:10.1103/PhysRevLett.103.066602. PMID 19792592. S2CID 209013.
  10. ^ Callaway-DJE (April 1991). „Zufallsmatrizen, gebrochene Statistik und der Quanten-Hall-Effekt“. Phys. Rev. B. 43 (10): 8641–8643. Bibcode:1991PhRvB..43.8641C. mach:10.1103/PhysRevB.43.8641. PMID 9996505.
  11. ^ Janssen M, Pracz K (Juni 2000). „Korrelierte Zufallsbandmatrizen: Lokalisierungs-Delokalisierungsübergänge“. Phys. Rev. E. 61 (6 Pkt. A): 6278–86. arXiv:cond-mat/9911467. Bibcode:2000PhRvE..61.6278J. mach:10.1103/PhysRevE.61.6278. PMID 11088301. S2CID 34140447.
  12. ^ Zumbühl DM, Miller JB, Marcus CM, Campman K, Gossard AC (Dezember 2002). „Spin-Bahn-Kopplung, Antilokalisation und parallele Magnetfelder in Quantenpunkten“. Phys. Rev. Lett. 89 (27): 276803. arXiv:cond-mat/0208436. Bibcode:2002PhRvL..89A6803Z. mach:10.1103/PhysRevLett.89.276803. PMID 12513231. S2CID 9344722.
  13. ^ Bahcall SR (Dezember 1996). „Zufallsmatrixmodell für Supraleiter in einem magnetischen Feld“. Phys. Rev. Lett. 77 (26): 5276–5279. arXiv:cond-mat/9611136. Bibcode:1996PhRvL..77.5276B. mach:10.1103/PhysRevLett.77.5276. PMID 10062760. S2CID 206326136.
  14. ^ ein B Wishart, J. (1928). “Verallgemeinerte Produktmomentverteilung in Stichproben”. Biometrie. 20A (1–2): 32–52. mach:10.1093/biomet/20a.1-2.32.
  15. ^ Tropp, J. (2011). „Benutzerfreundliche Tail Bounds für Summen zufälliger Matrizen“. Grundlagen der Computermathematik. 12 (4): 389–434. arXiv:1004.4389. mach:10.1007/s10208-011-9099-z. S2CID 17735965.
  16. ^ ein B von Neumann, J.; Goldstine, HH (1947). “Numerische Invertierung von Matrizen höherer Ordnung”. Stier. Amer. Mathematik. Soc. 53 (11): 1021–1099. mach:10.1090/S0002-9904-1947-08909-6.
  17. ^ ein B Edelmann, A.; Rao, NR (2005). „Zufallsmatrixtheorie“. Acta Numerica. 14: 233–297. Bibcode:2005AcNum..14..233E. mach:10.1017/S0962492904000236.
  18. ^ Shen, J. (2001). “Über die Singulärwerte von Gaußschen Zufallsmatrizen”. Linearer Alg. Appl. 326 (1–3): 1–14. mach:10.1016/S0024-3795(00)00322-0.
  19. ^ Keating, Jon (1993). „Die Riemann-Zeta-Funktion und Quantenchaologie“. Proz. Intern. Schule für Phys. Enrico Fermi. CXIX: 145–185. mach:10.1016/b978-0-444-81588-0.50008-0. ISBN 9780444815880.
  20. ^ Sompolinsky, H.; Crisanti, A.; Sommers, H. (Juli 1988). „Chaos in zufälligen neuronalen Netzen“. Physische Überprüfungsschreiben. 61 (3): 259–262. Bibcode:1988PhRvL..61..259S. mach:10.1103/PhysRevLett.61.259. PMID 10039285.
  21. ^ Garcia del Molino, Luis Carlos; Pakdaman, Khashayar; Touboul, Jonathan; Wainrib, Gilles (Oktober 2013). „Synchronisation in zufälligen ausgeglichenen Netzen“. Physische Überprüfung E. 88 (4): 042824. ARXIV:1306.2576. Bibcode:2013PhRvE..88d2824G. mach:10.1103/PhysRevE.88.042824. PMID 24229242. S2CID 14550831.
  22. ^ Rajan, Kanaka; Abbott, L. (November 2006). „Eigenwertspektren von Zufallsmatrizen für neuronale Netze“. Physische Überprüfungsschreiben. 97 (18): 188104. Bibcode:2006PhRvL..97r8104R. mach:10.1103/PhysRevLett.97.188104. PMID 17155583.
  23. ^ Wainrib, Gilles; Touboul, Jonathan (März 2013). „Topologische und dynamische Komplexität zufälliger neuronaler Netze“. Physische Überprüfungsschreiben. 110 (11): 118101. arXiv:1210.5082. Bibcode:2013PhRvL.110k8101W. mach:10.1103/PhysRevLett.110.118101. PMID 25166580. S2CID 1188555.
  24. ^ Timme, Marc; Wolf, Fred; Geisel, Theo (Februar 2004). “Topologische Geschwindigkeitsbegrenzungen für die Netzwerksynchronisation”. Physische Überprüfungsschreiben. 92 (7): 074101. arXiv:cond-mat/0306512. Bibcode:2004PhRvL..92g4101T. mach:10.1103/PhysRevLett.92.074101. PMID 14995853. S2CID 5765956.
  25. ^ Muir, Dylan; Mrsic-Flogel, Thomas (2015). “Eigenspektrumgrenzen für semizufällige Matrizen mit modularer und räumlicher Struktur für neuronale Netze” (PDF). Phys. Rev. E. 91 (4): 042808. Bibcode:2015PhRvE..91d2808M. mach:10.1103/PhysRevE.91.042808. PMID 25974548.
  26. ^ Chow, Gregory P. (1976). Analyse und Steuerung dynamischer Wirtschaftssysteme. New York: Wiley. ISBN 0-471-15616-7.
  27. ^ Turnovsky, Stephen (1976). „Optimale Stabilisierungspolitiken für stochastische lineare Systeme: Der Fall korrelierter multiplikativer und additiver Störungen“. Rückblick Wirtschaftswissenschaften. 43 (1): 191–194. mach:10.2307/2296614. JSTOR 2296741.
  28. ^ Turnovsky, Stephen (1974). „Die Stabilitätseigenschaften einer optimalen Wirtschaftspolitik“. Amerikanischer Wirtschaftsbericht. 64 (1): 136–148. JSTOR 1814888.
  29. ^ Chiani M (2014). „Verteilung des größten Eigenwerts für reale Wishart- und Gaußsche Zufallsmatrizen und eine einfache Näherung für die Tracy-Widom-Verteilung“. Zeitschrift für multivariate Analyse. 129: 69–81. arXiv:1209.3394. mach:10.1016/j.jmva.2014.04.002. S2CID 15889291.
  30. ^ ein B .Marčenko, VA; Pastur, LA (1967). „Verteilung von Eigenwerten für einige Sätze von Zufallsmatrizen“. Mathematik der UdSSR-Sbornik. 1 (4): 457–483. Bibcode:1967SbMat…1..457M. mach:10.1070/SM1967v001n04ABEH001994.
  31. ^ ein B Pastur, LA (1973). „Spektren von zufälligen selbstadjungierten Operatoren“. Russ. Mathematik. Überleben. 28 (1): 1–67. Bibcode:1973RuMaS..28….1P. mach:10.1070/RM1973v028n01ABEH001396.
  32. ^ Pastur, L.; Schcherbina, M. (1995). „Über den Ansatz der statistischen Mechanik in der Random-Matrix-Theorie: Integrierte Dichte der Zustände“. J.Stat. Physik. 79 (3–4): 585–611. Bibcode:1995JSP….79..585D. mach:10.1007/BF02184872. S2CID 120731790.
  33. ^ Johansson, K. (1998). „Über Schwankungen der Eigenwerte von zufälligen Hermiteschen Matrizen“. Herzog Math. J. 91 (1): 151–204. mach:10.1215/S0012-7094-98-09108-6.
  34. ^ Pastur, LA (2005). “Ein einfacher Ansatz für das globale Regime von Gaußschen Ensembles von Zufallsmatrizen”. Ukrainische Mathematik. J. 57 (6): 936–966. mach:10.1007/s11253-005-0241-4. S2CID 121531907.
  35. ^ Pastur, L.; Schcherbina, M. (1997). “Universalität der lokalen Eigenwertstatistik für eine Klasse von unitär invarianten Zufallsmatrix-Ensembles”. Zeitschrift für Statistische Physik. 86 (1–2): 109–147. Bibcode:1997JSP….86..109P. mach:10.1007/BF02180200. S2CID 15117770.
  36. ^ Deift, P.; Kriecherbauer, T.; McLaughlin, KT-R.; Venakides, S.; Zhou, X. (1997). „Asymptotik für Polynome orthogonal in Bezug auf unterschiedliche exponentielle Gewichte“. Internationale Hinweise zur Mathematikforschung. 1997 (16): 759–782. mach:10.1155/S1073792897000500.
  37. ^ Erdős, L.; Péché, S.; Ramírez, JA; Schlein, B.; Yau, HT (2010). „Massenuniversalität für Wigner-Matrizen“. Mitteilungen über Reine und Angewandte Mathematik. 63 (7): 895–925.
  38. ^ Tao, Terenz; Vu, Van H. (2010). “Zufallsmatrizen: Universalität der lokalen Eigenwertstatistik bis zum Rand”. Kommunikation in der mathematischen Physik. 298 (2): 549–572. arXiv:0908.1982. Bibcode:2010CMaPh.298..549T. mach:10.1007/s00220-010-1044-5. S2CID 16594369.
  39. ^ Anderson, GW; Guionnet, A.; Zeitouni, O. (2010). Eine Einführung in Zufallsmatrizen. Cambridge: Cambridge University Press. ISBN 978-0-521-19452-5.
  40. ^ Akemann, G.; Baik, J.; Di Francesco, P. (2011). Das Oxford Handbook of Random Matrix Theory. Oxford: Oxford University Press. ISBN 978-0-19-957400-1.
  41. ^ Diaconis, Persi (2003). “Muster in Eigenwerten: der 70. Vortrag von Josiah Willard Gibbs”. Bulletin der American Mathematical Society. Neue Serien. 40 (2): 155–178. mach:10.1090/S0273-0979-03-00975-3. HERR 1962294.
  42. ^ Diaconis, Persi (2005). “Was ist … eine Zufallsmatrix?”. Mitteilungen der American Mathematical Society. 52 (11): 1348–1349. ISSN 0002-9920. HERR 2183871.
  43. ^ Eynard, Bertrand; Kimura, Taro; Ribault, Sylvain (2015-10-15). “Zufallsmatrizen”. arXiv.org. Abgerufen 2021-05-11.

Externe Links[edit]


after-content-x4