Zufallsmatrizen - Bohemians und die geheimnisvolle Ordnung im Chaos

Aus FunFacts Wiki
Zur Navigation springen Zur Suche springen

"Zufallsmatrix" - eine Matrix mit zufälligen Einträgen - klingt zuerst einmal vielleicht nach etwas Willkürlichem. Wie daraus solche faszinierenden Bilder entstehen, was man sonst noch alles damit anstellen kann und welche Möglichkeiten sich für die Forschung in der Physik und anderen Wissenschaften ergeben, soll in diesem Artikel gezeigt werden.

Den Anstoß zur Forschung im Bereich der Zufallsmatrizen gab der Physiker Eugene Wigner, der bei der Analyse von schweren Atomkernen darauf stieß, dass das Resonanzspektrum schwerer Kerne bei hohen Energien durch die Eigenwerte von Zufallsmatrizen beschrieben werden kann.[1] Seit dieser Entdeckung Wigners werden zufällige Matrizen in verschiedenen Bereichen der Quantenphysik verwendet, um dynamische Systeme zu beschreiben.[2] Das häufige Vorkommen der Verteilungsfunktionen lokaler Eigenwertstatistiken von Zufallsmatrizen in Mathematik und Quantenphysik legt nahe, dass diese eine gewisse Universalität besitzen. Der Mechanismus, der dem zugrunde liegt, ist bislang jedoch noch nicht allgemein verstanden.

Zufallsmatrizen

Definition

Eine Zufallsmatrix ist eine Matrix, deren Einträge aus einen vorher festgelegten Stichprobe von (komplexen) Zahlen gemäß einer vorbestimmten Wahrscheinlichkeitsverteilung ausgewählt werden.[3]

Universelle Eigenschaften

Kurven der Wigner-Verteilungen

Universelle Eigenschaften einer Zufallsmatrix sind Eigenschaften, die nicht von der Wahrscheinlichkeitsverteilung der Einträge abhängen. Also es ist egal, ob man die Einträge der Matrizen gemäß einer Normalverteilung, einer Beta-Verteilung oder einer anderen Wahrscheinlichkeitsverteilung auswählt, die Eigenschaften, die dabei zu beobachten sind, bleiben gleich. Es gibt sehr viele Methoden, solche Matrizen auszuwählen, dabei kann die Wahrscheinlichkeitsverteilung der Einträge, oder die Form der Symmetrie der Matrizen sehr stark variieren. Wir betrachten nun Matrizen, die symmetrisch bzgl. der Diagonale sind und deren Einträge unabhängig voneinander gemäß der Normalverteilung ausgewählt werden.

Lässt man die Größe dieser Matrizen gegen Unendlich gehen, ergeben die Abstände zwischen aufeinanderfolgenden Eigenwerten dieser Matrizen eine bestimmte Kurve [4] (siehe Bild). Diese Kurven gehören zu den sogenannten Wigner-Verteilungen, benannt nach dem oben genannten Physiker Eugene Wigner. Die Klasse der Zufallsmatrizen, deren Eigenwertabstände dieser Kurve folgen, nennt man gaußsches orthogonales Ensemble (GOE).[4]

Analog ergeben Eigenwertabstände von hermiteschen Zufallsmatrizen eine andere Kurve, deren Klasse nennt man gaußsches unitäres Ensemble (GUE).

Eine hermitesche Matrix ist eine Matrix mit komplexen Einträgen, die [math]\,{A}^T\ = \bar {A}\,[/math] erfüllt. D.h bei der Spiegelung wird das Vorzeichen des Imaginärteils gedreht (d.h. komplex konjugiert): [math]\,\begin{pmatrix} 1 & 2 & 3+i \\ 2 & 5 & 6-2i \\ 3-i & 6+2i & 7 \end{pmatrix}\,[/math] Ihre Eigenwerte sind alle reell.

Die dritte Kurve die im Bild zu sehen ist, das gaußsche symplektische Ensemble (GSE), beschreibt das Verhalten von den sogenannten quaternionischen Zufallsmatrizen.

Seitdem wurden viele weitere Familien von Zufallsmatrizen untersucht und dabei andere Ensembles entdeckt, deren Eigenwertabstände anderen Kurven folgen. Man fand dabei heraus, dass diese Eigenwertabstände nicht von der Wahrscheinlichkeitsverteilung der Einträge abhängig sind, sondern nur von den Symmetrien der entsprechenden Matrizen. Der Grund dafür ist die extreme Größe der Matrizen. Dadurch heben sich nämlich die komplizierten Effekte der Eigenwertberechnung im Mittel auf, und die Funktion strebt gegen einen Durchschnittswert. Allerdings lassen sich diese universellen Eigenschaften schwer beweisen und bis heute gibt es noch viele offene Probleme in diesem Gebiet.

Nicht universelle Eigenschaften

Eigenwertdichte von einer symmetrischen 1500x1500 Matrix mit Einträgen aus einer Normalverteilung

Eine Eigenschaft einer Zufallsmatrix ist nicht universell, wenn sie von der Wahrscheinlichkeitsverteilung der Einträge abhängt, ein Beispiel dafür ist die Dichte der Eigenwerte. Allerdings gibt es auch hier interessante Gesetzmäßigkeiten, wie zum Beispiel die sogenannten Wigner-Halbkreise. Dabei handelt es sich wieder um symmetrische Zufallsmatrizen, deren Einträge gemäß der Normalverteilung ausgewählt werden. Diesmal trägt man nicht die Eigenwertabstände in einem Histogramm auf, sondern die Häufigkeit von Eigenwerten. Je größer die Zufallsmatrizen sind, desto mehr nähert sich das Histogramm einem Halbkreis mit Mittelpunkt im Ursprung an.

Anwendungsgebiete

Zufallsmatrizen werden in den unterschiedlichsten, teils überraschenden Themengebieten genutzt, um (Natur-)Phänomene zu beschreiben oder Daten zu modellieren.

So etwa bei:

  • Verknüpfung von Neuronen im Gehirn, künstlicher Intelligenz und maschinellem Lernen [5]
  • Datenkompression/Signalübertragung, Mobilfunk [6]
  • Finanzwirtschaft (Fluktuation von Börsenkursen) [7]
  • der Statistik ankommender U-Bahnen in New York [8], Abstände parkender Autos und von Bäumen im Urwald

Warum genau es so gut funktioniert, diese doch sehr unterschiedlichen Dinge treffend durch Zufallsmatrizen zu beschreiben, ist überwiegend unbekannt.

Nicht nur in praktischen Anwendungsgebieten werden Zufallsmatrizen benutzt: Auch bei theoretischen Problemen in der Mathematik, wie dem Beweis der Riemannschen Vermutung, sind Zufallsmatrizen ein vielversprechender Ansatz[9], zu einer Lösung zu gelangen. Beispielsweise über eine (hypothetische) Matrix, von den Wissenschaftlern Riemannium getauft, deren Eigenwerte den Nullstellen der Riemannschen Zeta-Funktion entsprechen. Es gibt eine Verbindung zur Hilbert–Pólya Vermutung.

Eine Klasse von Zufallsmatrizen, die besonders viel mit der Dichte von Eigenwerten zu tun hat, ist die sogenannte Klasse der Bohemian Matrices. Auch Fraktale wie Julia- und Mandelbrotmengen tauchen im Zusammenhang mit Zufallsmatrizen auf (vgl. Bohemians mit Einträgen aus diskreter Menge, sowie die externe Galerie [1]).

Im Folgenden werden beispielhaft zwei sehr unterschiedliche Anwendungsgebiete genauer ausgeführt.

Bildverarbeitung

Zufallsmatrizen sind jedem von uns sicherlich schon einmal in einem ihrer praktischen Anwendungsgebiete begegnet: Der digitalen Bildverarbeitung.

Bei der Aufnahme von Fotos begegnet man oft dem sogenannten Bildrauschen, bei dem ein Bild störende Pixel aufweist, die in Farbe und Helligkeit deutlich vom eigentlichen Bild abweichen. Dies tritt vor allem bei einer schlechten Belichtungssituation, wie während der Dämmerung oder nachts, auf.

Es existieren verschiedene Arten von derartigen Bildstörungen, u. a. das Gaußsche Rauschen, dessen Wahrscheinlichkeitsdichte mithilfe der Normalverteilung als Formel beschrieben werden kann: [math]\frac{1}{\sqrt{2 \cdot \pi \cdot \sigma^2}} \cdot e^{-\frac{x^2}{2 \cdot \sigma^2}}[/math].

Unter der Annahme, dass jede zu diesen Pixeln assoziierte Matrix zufällig ist und damit ihre Eigenwertdichte berechenbar ist, kann man, indem man herausfindet, in welchem Maße sich der Eigenwert des Originalbilds zu dem des verrauschten Bildes verändert, das störende Gaußsche Rauschen eliminieren. Dabei werden die wichtigen Informationen des Originalbildes beibehalten.[10]

Quantenmechanik

Die Quantenmechanik beschäftigt sich mit den physikalischen Eigenschaften und Gesetzmäßigkeiten der Natur auf atomaren und subatomarer Ebene. Eines der vielen Dinge, die im Rahmen der Quantenmechanik betrachtet werden können, sind schwere Atomkerne und ihre unterschiedlichen Energieniveaus: Diese Energieniveaus werden mithilfe der Schrödingergleichung beschrieben. Das Lösen dieser Gleichung entspricht im Grunde dem Lösen eines Eigenwert-Problems.

Nach einem Vorschlag von Eugene Wigner kann nun, statt mit dem sogenannten Hamilton-Operator (welcher auf einem unendlich-dimensionalen Vektorraum definiert ist) zu arbeiten, die Verteilung der Eigenwerte einer Familie von Zufallsmatrizen betrachtet werden, um auf die Verteilung der Energieniveaus zu schließen. Dies geschieht, indem man nach Werten sucht, gegen welche diese Verteilung läuft (asymptotisches Verhalten), wenn die Größe dieser Matrizen gegen unendlich geht.[11]

Bohemian Matrices

Bohemian Matrices sind eine bestimmte Form von Zufallsmatrizen. Der Name Bohemian steht dabei für bounded height integer matrix eigenvalues, woraus aus der Abkürzung BHIME dann Bohemian wurde. Ihre Untersuchung ist ein recht neues und noch relativ unerforschtes Gebiet und wird bislang im Rahmen der angewandten Mathematik betrachtet. Durchleuchtet werden dabei bspw. die Verteilung der Eigenwerte, ihre Symmetrien sowie Zahlenfolgen, die sich aus ihren Eigenschaften ergeben. Diese weisen überraschend oft Querverbindungen mit anderen Bereichen der Mathematik auf.[12]

Bohemian Matrices sind Zufallsmatrizen, deren Einträge auf eine Menge ganzer Zahlen aus einem endlichen Intervall beschränkt sind, wie z. B. [math]\{-1, 0, 1\}[/math]. Die ausgewählten Zahlen sind dabei unabhängig von der Dimension der Matrix. Das Feld der Bohemian Matrices umfasst mittlerweile auch Matrizen mit Einträgen aus kontinuierlichen bzw. nicht-endlichen Mengen, obwohl diese nach dieser Namensgebung streng genommen nicht mit inbegriffen wären.[13] Zusätzlich kann eine bestimmte Struktur der Matrix vorgegeben werden (z. B. Diagonalmatrix, Dreiecksmatrix etc.).


Wie macht man daraus Bilder?

Um die Eigenwerte der Zufallsmatrizen zu visualisieren, wird zunächst ein Satz von Matrizen nach dem gewünschten Muster generiert. Die Anzahl liegt dabei meist zwischen [math] 10^6[/math] und [math]10^7[/math] und die Größe etwa zwischen [math]3 \times 3 [/math] und [math]20 \times 20 [/math]. Bei nur schwach zu sehenden Mustern müssen teilweise auch deutlich mehr Matrizen einberechnet werden, um ein besseres Bild zu erhalten.

Von diesen Matrizen werden dann die Eigenwerte und deren Dichte berechnet, das heißt je häufiger ein Eigenwert in den Matrizen vorkommt, desto stärker fällt dieser ins Gewicht.

Real- und Imaginärteil der Eigenwertdichte werden dann in der komplexen Zahlenebene aufgetragen, wobei die Farbe nach einem vorher ausgewählten Farbschema festgelegt wird. Dazu wird eine Farbpalette ausgewählt, von der jede Farbe mit einer Dichte (zwischen 0 und 1) korrespondiert. Wenn der gleiche Eigenwert besonders häufig vorkommt, ändert dieser Pixel also entsprechend die Farbe im Bild.

Der Code zum Berechnen der Bilder ist frei verfügbar für Python: https://github.com/BohemianMatrices/bohemian-python und Matlab: https://github.com/BohemianMatrices/BHIME-Project. Die Bilder in diesem Artikel wurden in Matlab generiert.

Galerie

Je nachdem, wie man die Einträge und die Struktur einer Zufallsmatrix auswählt, kommen bei der Betrachtung der Eigenwertdichte unterschiedliche Muster und Formen zustande. In dieser Galerie sollen einige davon mit den zugehörigen Bildern vorgestellt werden. Es handelt sich bei allen Bildern um unsere Eigenkreationen (no pun intended).

Zufällige Matrix mit Einträgen aus diskreter Menge

Die wohl einfachste Art von Zufallsmatrizen sind [math]n\times n[/math] Matrizen, bei denen jeder Eintrag zufällig aus einer endlichen Menge von vorher festgelegten Werten ausgewählt wird. Dabei entstehen Muster mit teilweise selbstähnlich aussehenden Strukturen entlang der reellen Achse.

Betaverteilung

Bei diesen Matrizen werden alle Einträge zufällig aus einer Betaverteilung mit vorher festgelegten Parametern [math] \alpha [/math] und [math] \beta [/math] generiert, die die Form der Verteilung charakterisieren. Zusätzlich wird eine Amplitude und Verschiebung hinzugefügt, sodass die Einträge von der Form [math]A \cdot x+b[/math] sind, wobei [math]x[/math] der Wert aus der Betaverteilung ist. Dadurch entstehen je nach Wahl der Parameter Linienmuster, auf denen sich die Eigenwerte häufen.

Obere Hessenbergmatrix / Tridiagonalmatrix

Eine obere Hessenbergmatrix ist ähnlich wie eine obere Dreiecksmatrix, nur dass diese auch Einträge auf der ersten Nebendiagonalen unter der Hauptdiagonalen besitzt.

Beispielsweise ist [math]\,\begin{pmatrix} 1 & 2 & 3 & 4 \\ 5 & 6 & 7 & 8 \\ 0 & 9 & 10 & 11 \\ 0 & 0 & 12 & 13 \end{pmatrix}\,[/math] eine obere Hessenbergmatrix. Analog ist [math]\,\begin{pmatrix} 1 & 2 & 0 & 0 \\ 3 & 4 & 5 & 0 \\ 6 & 7 & 8 & 9 \\ 10 & 11 & 12 & 13 \end{pmatrix}\,[/math] eine untere Hessenbergmatrix.

Eine Tridiagonalmatrix ist sowohl eine obere als auch eine untere Hessenbergmatrix und hat somit nur Einträge auf der Hauptdiagonalen und den beiden angrenzenden Nebendiagonalen, wie z. B. [math]\,\begin{pmatrix} 1 & 2 & 0 & 0 \\ 3 & 4 & 5 & 0 \\ 0 & 6 & 7 & 8 \\ 0 & 0 & 9 & 10 \end{pmatrix}\,[/math].

Feste Matrix mit kontinuierlicher Verteilung in bestimmten Werten (Eigenfish)

Hier wurden Matrizen von der Form [math]\,\begin{pmatrix} 0 & 0 & 0 & A \\ -1 & -1 & 0 & 0 \\ B & 0 & 0 & 0 \\ -1 & 1 & 1 & -1 \end{pmatrix}\,[/math] verwendet. Die Einträge A und B wurden dabei zufällig (bleichverteilt) aus einem kontinuierlichen Intervall ausgewählt.

Kleine Änderungen an den Einträgen der Matrix können dabei vollkommen unterschiedliche Formen hervorbringen. Für die Bilder wurde die obige Matrix teilweise leicht verändert und es wurden unterschiedliche Intervallgrenzen ausgewählt.

Einzelnachweise und Quellen

  1. Wigner, E."Characteristic vectors of bordered matrices with infinite dimensions", Annals of Mathematics (1955) 62, 548–564, doi:10.2307/1970079, jstor:1970079
  2. T. Guhr, A. Müller–Groeling und H. A. Weidenmüller. Random-matrix theories in quantum physics: common concepts. Physics Reports,299, 189–425, 1998.
  3. Anderson, G.W., Guionnet, A. und Zeitouni, O., "An introduction to random matrices" (2010), Cambridge University Press, Cambridge, isbn:978-0-521-19452-5
  4. 4,0 4,1 Mehta, M.L., "Random Matrices" (2004), Elsevier/Academic Press, Amsterdam. isbn:0-12-088409-7
  5. Zhenyu Liao. A random matrix framework for large dimensional machine learning and neural networks. Other. Université Paris-Saclay, 2019. English. NNT: 2019SACLC068. HAL-Id: tel-02397287
  6. Antonia M. Tulino, Sergio Verdú: Random Matrix Theory and Wireless Communications. Now, 2004.
  7. http://web.mit.edu/sea06/agenda/talks/Harding.pdf
  8. https://de.linkfang.org/wiki/Zufallsmatrix
  9. Keating, Jon, "The Riemann zeta-function and quantum chaology", Proc. Internat. School of Phys. Enrico Fermi (1993) CXIX, 145–185, doi:10.1016/b978-0-444-81588-0.50008-0, isbn:9780444815880
  10. https://de.wikipedia.org/wiki/Bildrauschen
  11. https://math.uni.lu/eml/projects/reports/random-matrices.pdf
  12. https://www.bohemianmatrices.com
  13. https://ir.lib.uwo.ca/etd/6069/

letzter Zugriff für alle: 30.03.2021

Autoren

Silas Janke, Lea Homann, Daniel Gáspár, Falk Loewner