Zufallsmatrizen - Bohemians und die geheimnisvolle Ordnung im Chaos
"Zufallsmatrix" - eine Matrix mit zufälligen Einträgen - klingt zuerst einmal vielleicht nach etwas Willkürlichem. Den Anstoß zur Forschung im Bereich der Zufallsmatrizen gab der Physiker Eugene Wigner. Seit seiner Entdeckung werden zufällige Matrizen in verschiedenen Bereichen der Quantenphysik verwendet, um dynamische Systeme zu beschreiben. Wie daraus solche faszinierenden Bilder entstehen, was man sonst noch alles damit anstellen kann und welche Möglichkeiten sich für die Forschung in der Physik und anderen Wissenschaften ergeben, soll in diesem Artikel gezeigt werden.
Zufallsmatrizen
Definition
Eine Zufallsmatrix ist eine Matrix, deren Einträge aus einen vorher festgelegten Stichprobe von (komplexen) Zahlen gemäß einer vorbestimmten Wahrscheinlichkeitsverteilung ausgewählt werden.[1]
Universelle Eigenschaften
Universelle Eigenschaften einer Zufallsmatrix sind Eigenschaften, die nicht von der Wahrscheinlichkeitsverteilung der Einträge abhängen. Also es ist egal, ob man die Einträge der Matrizen gemäß einer Normalverteilung, einer Beta-Verteilung oder einer anderen Wahrscheinlichkeitsverteilung auswählt, die Eigenschaften, die dabei zu beobachten sind, bleiben gleich. Es gibt sehr viele Methoden, solche Matrizen auszuwählen, dabei kann die Wahrscheinlichkeitsverteilung der Einträge, oder die Form der Symmetrie der Matrizen sehr stark variieren. Wir betrachten nun Matrizen, die symmetrisch bzgl. der Diagonale sind und deren Einträge unabhängig voneinander gemäß der Normalverteilung ausgewählt werden.
Lässt man die Größe dieser Matrizen gegen Unendlich gehen, ergeben die Abstände zwischen aufeinanderfolgenden Eigenwerten dieser Matrizen eine bestimmte Kurve [2] (siehe Bild). Diese Kurven gehören zu den sogenannten Wigner-Verteilungen, benannt nach dem oben genannten Physiker Eugene Wigner. Die Klasse der Zufallsmatrizen, deren Eigenwertabstände dieser Kurve folgen, nennt man gaußsches orthogonales Ensemble (GOE).[2]
Analog ergeben Eigenwertabstände von hermiteschen Zufallsmatrizen eine andere Kurve, deren Klasse nennt man gaußsches unitäres Ensemble (GUE).
Eine hermitesche Matrix ist eine Matrix mit komplexen Einträgen, die [math]\,{A}^T\ = \bar {A}\,[/math] erfüllt. D.h bei der Spiegelung wird das Vorzeichen des Imaginärteils gedreht (d.h. komplex konjugiert): [math]\,\begin{pmatrix} 1 & 2 & 3+i \\ 2 & 5 & 6-2i \\ 3-i & 6+2i & 7 \end{pmatrix}\,[/math] Ihre Eigenwerte sind alle reell.
Die dritte Kurve die im Bild zu sehen ist, das gaußsche symplektische Ensemble (GSE), beschreibt das Verhalten von den sogenannten quaternionischen Zufallsmatrizen.
Nicht universelle Eigenschaften
Eine Eigenschaft einer Zufallsmatrix ist nicht universell, wenn sie von der Wahrscheinlichkeitsverteilung der Einträge abhängt, ein Beispiel dafür ist die Dichte der Eigenwerte. Allerdings gibt es auch hier interessante Gesetzmäßigkeiten, wie zum Beispiel die sogenannten Wigner-Halbkreise. Dabei handelt es sich wieder um symmetrische Zufallsmatrizen, deren Einträge gemäß der Normalverteilung ausgewählt werden. Diesmal trägt man nicht die Eigenwertabstände in einem Histogramm auf, sondern die Häufigkeit von Eigenwerten. Je größer die Zufallsmatrizen sind, desto mehr nähert sich das Histogramm einem Halbkreis mit Mittelpunkt im Ursprung an.
Anwendungsgebiete
Zufallsmatrizen werden in den unterschiedlichsten, teils überraschenden Themengebieten genutzt, um (Natur-)Phänomene zu beschreiben oder Daten zu modellieren.
So etwa bei:
- Verknüpfung von Neuronen im Gehirn, künstlicher Intelligenz und maschinellem Lernen [3]
- Datenkompression/Signalübertragung, Mobilfunk [4]
- Finanzwirtschaft (Fluktuation von Börsenkursen) [5]
- der Statistik ankommender U-Bahnen in New York [6], Abstände parkender Autos und von Bäumen im Urwald
Warum genau es so gut funktioniert, diese doch sehr unterschiedlichen Dinge treffend durch Zufallsmatrizen zu beschreiben, ist überwiegend unbekannt.
Nicht nur in praktischen Anwendungsgebieten werden Zufallsmatrizen benutzt: Auch bei theoretischen Problemen in der Mathematik, wie dem Beweis der Riemannschen Vermutung, sind Zufallsmatrizen ein vielversprechender Ansatz[7], zu einer Lösung zu gelangen. Beispielsweise über eine (hypothetische) Matrix, von den Wissenschaftlern Riemannium getauft, deren Eigenwerte den Nullstellen der Riemannschen Zeta-Funktion entsprechen. Es gibt eine Verbindung zur Hilbert–Pólya Vermutung.
Eine Klasse von Zufallsmatrizen, die besonders viel mit der Dichte von Eigenwerten zu tun hat, ist die sogenannte Klasse der Bohemian Matrices. Auch Fraktale wie Julia- und Mandelbrotmengen tauchen im Zusammenhang mit Zufallsmatrizen auf (vgl. Bohemians mit Einträgen aus diskreter Menge, sowie die externe Galerie [1]).
Im Folgenden werden beispielhaft zwei sehr unterschiedliche Anwendungsgebiete genauer ausgeführt.
Bildverarbeitung
Zufallsmatrizen sind jedem von uns sicherlich schon einmal in einem ihrer praktischen Anwendungsgebiete begegnet: Der digitalen Bildverarbeitung.
Bei der Aufnahme von Fotos begegnet man oft dem sogenannten Bildrauschen, bei dem ein Bild störende Pixel aufweist, die in Farbe und Helligkeit deutlich vom eigentlichen Bild abweichen. Dies tritt vor allem bei einer schlechten Belichtungssituation, wie während der Dämmerung oder nachts, auf.
Es existieren verschiedene Arten von derartigen Bildstörungen, u. a. das Gaußsche Rauschen, dessen Wahrscheinlichkeitsdichte mithilfe der Normalverteilung als Formel beschrieben werden kann: [math]\frac{1}{\sqrt{2 \cdot \pi \cdot \sigma^2}} \cdot e^{-\frac{x^2}{2 \cdot \sigma^2}}[/math].
Unter der Annahme, dass jede zu diesen Pixeln assoziierte Matrix zufällig ist und damit ihre Eigenwertdichte berechenbar ist, kann man, indem man herausfindet, in welchem Maße sich der Eigenwert des Originalbilds zu dem des verrauschten Bildes verändert, das störende Gaußsche Rauschen eliminieren. Dabei werden die wichtigen Informationen des Originalbildes beibehalten.[8]
Quantenmechanik
Die Quantenmechanik beschäftigt sich mit den physikalischen Eigenschaften und Gesetzmäßigkeiten der Natur auf atomarer und subatomarer Ebene. Zufallsmatrizen können im Rahmen der Quantenmechanik z. B. bei magnetischen Systemen, dem Quanten-Hall-Effekt, Supraleitern[9], Quanten-Dots [10] und schweren Atomkernen eingesetzt werden.[6]
Eugene Wigner stieß bei der Analyse von schweren Atomkernen darauf, dass das Resonanzspektrum schwerer Kerne bei hohen Energien durch die Eigenwerte von Zufallsmatrizen beschrieben werden kann. Um auf die Verteilung der Energieniveaus zu schließen, wird die Verteilung der Eigenwerte einer Familie von Zufallsmatrizen betrachtet. Dies geschieht, indem man nach Werten sucht, gegen welche diese Distribution läuft (asymptotisches Verhalten), wenn die Größe dieser Matrizen gegen unendlich geht.[11] Das häufige Vorkommen der Verteilungsfunktionen lokaler Eigenwertstatistiken von Zufallsmatrizen in Mathematik und Quantenphysik legt nahe, dass diese eine gewisse Universalität besitzen. Der Mechanismus, der dem zugrunde liegt, ist bislang jedoch noch nicht allgemein verstanden.[12]
Bohemian Matrices
Bohemian Matrices sind eine bestimmte Form von Zufallsmatrizen. Der Name Bohemian steht dabei für bounded height integer matrix eigenvalues, woraus aus der Abkürzung BHIME dann Bohemian wurde. Ihre Untersuchung ist ein recht neues und noch relativ unerforschtes Gebiet und wird bislang im Rahmen der angewandten Mathematik betrachtet. Durchleuchtet werden dabei bspw. die Verteilung der Eigenwerte, ihre Symmetrien sowie Zahlenfolgen, die sich aus ihren Eigenschaften ergeben. Diese weisen überraschend oft Querverbindungen mit anderen Bereichen der Mathematik auf.[13]
Bohemian Matrices sind Zufallsmatrizen, deren Einträge auf eine Menge ganzer Zahlen aus einem endlichen Intervall beschränkt sind, wie z. B. [math]\{-1, 0, 1\}[/math]. Die ausgewählten Zahlen sind dabei unabhängig von der Dimension der Matrix. Das Feld der Bohemian Matrices umfasst mittlerweile auch Matrizen mit Einträgen aus kontinuierlichen bzw. nicht-endlichen Mengen, obwohl diese nach dieser Namensgebung streng genommen nicht mit inbegriffen wären.[14] Zusätzlich kann eine bestimmte Struktur der Matrix vorgegeben werden (z. B. Diagonalmatrix, Dreiecksmatrix etc.).
Wie macht man daraus Bilder?
Um die Eigenwerte der Zufallsmatrizen zu visualisieren, wird zunächst ein Satz von Matrizen nach dem gewünschten Muster generiert. Die Anzahl liegt dabei meist zwischen [math] 10^6[/math] und [math]10^7[/math] und die Größe etwa zwischen [math]3 \times 3 [/math] und [math]20 \times 20 [/math]. Bei nur schwach zu sehenden Mustern müssen teilweise auch deutlich mehr Matrizen einberechnet werden, um ein besseres Bild zu erhalten.
Von diesen Matrizen werden dann die Eigenwerte und deren Dichte berechnet, das heißt je häufiger ein Eigenwert in den Matrizen vorkommt, desto stärker fällt dieser ins Gewicht.
Real- und Imaginärteil der Eigenwertdichte werden dann in der komplexen Zahlenebene aufgetragen, wobei die Farbe nach einem vorher ausgewählten Farbschema festgelegt wird. Dazu wird eine Farbpalette ausgewählt, von der jede Farbe mit einer Dichte (zwischen 0 und 1) korrespondiert. Wenn der gleiche Eigenwert besonders häufig vorkommt, ändert dieser Pixel also entsprechend die Farbe im Bild.
Der Code zum Berechnen der Bilder ist frei verfügbar für Python: https://github.com/BohemianMatrices/bohemian-python und Matlab: https://github.com/BohemianMatrices/BHIME-Project. Die Bilder in diesem Artikel wurden in Matlab generiert.
Galerie
Je nachdem, wie man die Einträge und die Struktur einer Zufallsmatrix auswählt, kommen bei der Betrachtung der Eigenwertdichte unterschiedliche Muster und Formen zustande. In dieser Galerie sollen einige davon mit den zugehörigen Bildern vorgestellt werden. Es handelt sich bei allen Bildern um unsere Eigenkreationen (no pun intended).
Zufällige Matrix mit Einträgen aus diskreter Menge
Die wohl einfachste Art von Zufallsmatrizen sind [math]n\times n[/math] Matrizen, bei denen jeder Eintrag zufällig aus einer endlichen Menge von vorher festgelegten Werten ausgewählt wird. Dabei entstehen Muster mit teilweise selbstähnlich aussehenden Strukturen entlang der reellen Achse.
Betaverteilung
Bei diesen Matrizen werden alle Einträge zufällig aus einer Betaverteilung mit vorher festgelegten Parametern [math] \alpha [/math] und [math] \beta [/math] generiert, die die Form der Verteilung charakterisieren. Zusätzlich wird eine Amplitude und Verschiebung hinzugefügt, sodass die Einträge von der Form [math]A \cdot x+b[/math] sind, wobei [math]x[/math] der Wert aus der Betaverteilung ist. Dadurch entstehen je nach Wahl der Parameter Linienmuster, auf denen sich die Eigenwerte häufen.
Obere Hessenbergmatrix / Tridiagonalmatrix
Eine obere Hessenbergmatrix ist ähnlich wie eine obere Dreiecksmatrix, nur dass diese auch Einträge auf der ersten Nebendiagonalen unter der Hauptdiagonalen besitzt.
Beispielsweise ist [math]\,\begin{pmatrix} 1 & 2 & 3 & 4 \\ 5 & 6 & 7 & 8 \\ 0 & 9 & 10 & 11 \\ 0 & 0 & 12 & 13 \end{pmatrix}\,[/math] eine obere Hessenbergmatrix. Analog ist [math]\,\begin{pmatrix} 1 & 2 & 0 & 0 \\ 3 & 4 & 5 & 0 \\ 6 & 7 & 8 & 9 \\ 10 & 11 & 12 & 13 \end{pmatrix}\,[/math] eine untere Hessenbergmatrix.
Eine Tridiagonalmatrix ist sowohl eine obere als auch eine untere Hessenbergmatrix und hat somit nur Einträge auf der Hauptdiagonalen und den beiden angrenzenden Nebendiagonalen, wie z. B. [math]\,\begin{pmatrix} 1 & 2 & 0 & 0 \\ 3 & 4 & 5 & 0 \\ 0 & 6 & 7 & 8 \\ 0 & 0 & 9 & 10 \end{pmatrix}\,[/math].
Eigenwertdichte von 20 Millionen [math]12 \times 12[/math] oberen Hessenbergmatrizen mit Toeplitz-Struktur und Einträgen aus der Menge [math]\{-1, 0, 1\}[/math]
Feste Matrix mit kontinuierlicher Verteilung in bestimmten Werten (Eigenfish)
Hier wurden Matrizen von der Form [math]\,\begin{pmatrix} 0 & 0 & 0 & A \\ -1 & -1 & 0 & 0 \\ B & 0 & 0 & 0 \\ -1 & 1 & 1 & -1 \end{pmatrix}\,[/math] verwendet. Die Einträge A und B wurden dabei zufällig (gleichverteilt) aus einem kontinuierlichen Intervall ausgewählt.
Kleine Änderungen an den Einträgen der Matrix können dabei vollkommen unterschiedliche Formen hervorbringen. Für die Bilder wurde die obige Matrix teilweise leicht verändert und es wurden unterschiedliche Intervallgrenzen ausgewählt.
Einzelnachweise und Quellen
- ↑ Anderson, G.W., Guionnet, A. und Zeitouni, O., "An introduction to random matrices" (2010), Cambridge University Press, Cambridge, isbn:978-0-521-19452-5
- ↑ 2,0 2,1 Mehta, M.L., "Random Matrices" (2004), Elsevier/Academic Press, Amsterdam. isbn:0-12-088409-7
- ↑ Zhenyu Liao. A random matrix framework for large dimensional machine learning and neural networks. Other. Université Paris-Saclay, 2019. English. NNT: 2019SACLC068. HAL-Id: tel-02397287
- ↑ Antonia M. Tulino, Sergio Verdú: Random Matrix Theory and Wireless Communications. Now, 2004.
- ↑ http://web.mit.edu/sea06/agenda/talks/Harding.pdf
- ↑ 6,0 6,1 https://de.linkfang.org/wiki/Zufallsmatrix
- ↑ Keating, Jon, "The Riemann zeta-function and quantum chaology", Proc. Internat. School of Phys. Enrico Fermi (1993) CXIX, 145–185, doi:10.1016/b978-0-444-81588-0.50008-0, isbn:9780444815880
- ↑ https://de.wikipedia.org/wiki/Bildrauschen
- ↑ SR Bahcall: Random Matrix Model for Superconductors in a Magnetic Field. In: Phys. Rev. Lett.. 77, Nr. 26, Dezember 1996, S. 5276–5279. doi:10.1103/PhysRevLett.77.5276 . PMID 10062760.
- ↑ DM Zumbühl, JB Miller, CM Marcus, K Campman, AC Gossard: Spin-orbit Coupling, Antilocalization, and Parallel Magnetic Fields in Quantum Dots. In: Phys. Rev. Lett.. 89, Nr. 27, Dezember 2002, S. 276803. doi:10.1103/PhysRevLett.89.276803 . PMID 12513231.
- ↑ Wigner, E."Characteristic vectors of bordered matrices with infinite dimensions", Annals of Mathematics (1955) 62, 548–564, doi:10.2307/1970079, jstor:1970079
- ↑ T. Guhr, A. Müller–Groeling und H. A. Weidenmüller. Random-matrix theories in quantum physics: common concepts. Physics Reports,299, 189–425, 1998.
- ↑ https://www.bohemianmatrices.com
- ↑ https://ir.lib.uwo.ca/etd/6069/
letzter Zugriff für alle: 13.04.2021
Autoren
Silas Janke, Lea Homann, Daniel Gáspár, Falk Loewner