In der mathematischen Disziplin der linearen Algebra ist Eigenzerlegung oder manchmal spektrale Zerlegung der Faktorisierung einer Matrix in eine kanonische Form, wobei die Matrix in Bezug auf seine Eigenwerte und Eigenvektoren dargestellt. Auf diese Weise kann nur diagonalisierbar Matrizen faktorisiert werden.
Fundamentale Theorie der Eigenvektoren und Eigenwerte-Matrix
Ein Vektor v der Dimension N ist ein Eigenvektor einer quadratischen Matrix A, wenn und nur wenn es die lineare Gleichung
wobei λ ein Skalar ist, der sogenannten Eigenwert entspricht, v. Das heißt, die Eigenvektoren sind die Vektoren, welche die lineare Transformation A lediglich ausdehnt oder schrumpft, und die Menge, dass sie langgestreckt / schrumpfen ist der Eigenwert ist. Die obige Gleichung wird als die Eigenwertgleichung oder das Eigenwertproblem.
Dies ergibt eine Gleichung für den Eigenwerten
Wir nennen p das charakteristische Polynom, und die Gleichung, die so genannte charakteristische Gleichung, ist ein N-ter Ordnung Polynomgleichung in der unbekannten λ. Diese Gleichung wird N & lgr; verschiedene Lösungen haben, wobei 1 ≤ N & lgr; ≤ N. Die Menge der Lösungen, also die Eigenwerte, wird manchmal als das Spektrum der A.
Wir können p als Faktor
Die ganze Zahl ni ist die algebraische Vielzahl von Eigenwert & lgr; i bezeichnet. Die algebraischen Mannigfaltigkeiten summieren, um N:
Für jeden Eigenwert & lgr; i, haben wir eine spezielle Eigenwertgleichung
Es wird 1 ≤ linear unabhängige Lösungen mi ≤ ni zu jedem Eigenwertgleichung sein. Die mi-Lösungen sind die Eigenvektoren zum Eigenwert & lgr; i verbunden. Die ganze Zahl mi ist die geometrische Vielzahl von & lgr; i bezeichnet. Es ist wichtig, im Auge zu behalten, dass die algebraische Vielfach ni und geometrische Vielfach mi kann oder auch nicht gleich sein, aber wir haben immer mi ≤ ni. Der einfachste Fall ist natürlich, wenn mi = ni = 1. Die Gesamtzahl der linear unabhängigen Eigenvektoren, Nv, kann durch Summieren der geometrischen Vielfachheiten berechnet werden
Die Eigenvektoren kann durch Eigenwerten indiziert werden, dh mit einem Doppel-Index, mit vi, j die j Eigenvektor zum Eigenwert i. Die Eigenvektoren kann auch über die einfachere Schreibweise eines einzelnen Index vk indexiert werden, mit k = 1, 2, ..., Nv.
Eigenzerlegung einer Matrix
Sei A eine quadratische Matrix mit N linear unabhängige Eigenvektoren werden kann, dann kann A als faktorisiert werden
wobei Q die quadratische Matrix, deren i Spalte ist der Eigenvektor von A und Λ ist die Diagonalmatrix, deren Diagonalelemente die zugehörigen Eigenwerte, das heißt ,. Dass nur diagonalizable Matrizen können auf diese Weise faktorisiert werden. Beispielsweise kann die defekte Matrix nicht diagonalisieren.
Die Eigenvektoren sind in der Regel normierten, aber nicht sein muß. Ein nicht-normalisierten Satz von Eigenvektoren, können auch wie die Spalten von Q, dass durch die Feststellung, dass die Größe der Eigenvektoren in Q wird bei der Zersetzung durch die Anwesenheit von Q. abgebrochen verstanden werden, verwendet werden
Beispiel
Die ein 2 × 2-reelle Matrix als ein Beispiel in eine Diagonalmatrix durch Multiplikation eines nicht-singuläre Matrix zerlegt werden.
Dann
Verlagerung auf der rechten Seite:
Die obige Gleichung kann in 2 simultanen Gleichungen zerlegt werden:
Unter Ausklammerung der Eigenwerte und:
Vermietung, gibt uns zwei Vektorgleichungen:
Und durch eine Vektorgleichung mit 2 Lösungen als Eigenwerte wiedergegeben werden:
wobei für die beiden Eigenwerte und stellt die Vektoren und.
Verlagerung auf der linken Seite und Faktorisierung aus
Da nicht-singulär ist, ist es wichtig, dass nicht-Null ist. Deshalb
Berücksichtigung der Determinante,
Somit
Uns die Lösungen der Eigenwerte der Matrix oder ein, und die resultierende Diagonalmatrix der Eigenzerlegung der somit.
Setzen die Lösungen wieder in den obigen Gleichungs
Lösen der Gleichungen, haben wir und
Somit ist die Matrix für das Eigenzerlegung der erforderlich. das heißt:
Matrix inverse über Eigenzerlegung
Wenn die Matrix A kann eigendecomposed werden, und wenn keine seiner Eigenwerte null sind, dann ist A nicht singulär ist und seine inverse gegeben durch
Da ferner Λ eine Diagonalmatrix ist, deren Umkehr leicht zu berechnen:
Praktische Auswirkungen
Wenn Eigenzerlegung basiert auf einer Matrix der gemessenen, realen Daten verwendet wird, kann die inverse weniger gültig, wenn alle Eigenwerte werden unverändert in der Form oben verwendet. Dies liegt daran, dass Eigenwerte relativ klein werden, ist ihr Beitrag zu dem Inversions groß. Die, in der Nähe von Null oder im "Rauschen" des Messsystems wird ungebührlichen Einfluss und könnte Lösungen unter Verwendung der inversen behindern.
Zwei mitigations wurden vorgeschlagen: 1) Abschneiden kleiner / Null-Eigenwerte, 2), die sich die niedrigste zuverlässige Eigenwert für diejenigen darunter.
Die erste Minderungs Methode ähnelt einem spärlichen Proben der ursprünglichen Matrix, Entfernen von Komponenten, die nicht als wertvoll angesehen werden. Wenn jedoch die Lösung oder Nachweisverfahren ist in der Nähe des Rauschpegels, Abschneiden kann Komponenten enthalten, die gewünschte Lösung zu beeinflussen entfernen.
Die zweite Minderungs erweitert den Eigenwert, so dass niedrigere Werte haben viel weniger Einfluss auf die Inversion, aber immer noch beitragen, dass Lösungen in der Nähe der Lärm wird immer noch gefunden werden.
Die zuverlässige Eigenwert kann durch die Annahme, dass Eigenwerte sehr ähnlich und niedriger Wert gibt eine gute Darstellung der Messrauschen zu finden.
Wenn die Eigenwerte Rang sortiert nach Wert, dann kann der zuverlässige Eigenwert durch Minimierung des Laplace-Operators der sortierten Eigenwerte gefunden werden:
wobei die Eigenwerte werden mit einem "S" tief zu bezeichnen, die sortiert werden. Die Position der Minimierung der niedrigste Eigenwert zuverlässig. In Messsystemen ist die Quadratwurzel dieses zuverlässigen Eigenwert der mittlere Rausch über die Komponenten des Systems.
Funktionalkalkül
Die Eigenzerlegung erlaubt eine einfachere Berechnung der Potenzreihen von Matrizen. Wenn f ist gegeben durch
dann wissen wir, dass
Weil Λ eine Diagonalmatrix ist, sind Funktionen des Λ sehr einfach zu berechnen:
Die Nichtdiagonalelemente der f null sind; das heißt, dass auch f eine Diagonalmatrix. Daher Berechnung f reduziert, um nur die Berechnung der Funktion auf jedem der Eigenwerte.
Eine ähnliche Technik arbeitet generell mit dem Holomorpher Funktionalkalkül, mit
von oben. Wieder einmal sehen wir, dass
Beispiele
Zersetzungs für spezielle Matrices
Normale Matrizen
Eine komplexe normale Matrix hat eine orthogonale Eigenvektorbasis, so dass eine normale Matrix kann als zerlegt werden
wobei U eine unitäre Matrix. Wenn ferner ein hermitesch, was impliziert, dass auch komplexe normale weist die Diagonalmatrix Λ nur reale Werte, und wenn ein unitär nimmt Λ alle ihre Werte auf der komplexen Einheitskreises.
Echt symmetrische Matrizen
Als Spezialfall, für jede N x N reelle symmetrische Matrix können die Eigenvektoren ausgewählt, dass sie wirklich sind, die orthogonal zueinander und haben Norm sein. So eine echte symmetrische Matrix A kann als zerlegt werden
wobei Q eine orthonormale Matrix, und Λ eine Diagonalmatrix, deren Einträge die Eigenwerte von A.
Wissenswertes
Nützliche Fakten in Bezug auf Eigenwerte
- Das Produkt der Eigenwerte gleich der Determinante von A ist
Man beachte, dass jeder Eigenwert mit der Strom ni, algebraischen Multiplizität erhöht.
- Wobei die Summe der Eigenwerte gleich der Spur A ist
Beachten Sie, dass jeder Eigenwert wird durch ni, die algebraische Vielfach multipliziert.
- Wenn die Eigenwerte von A & lambda; i ist, und A invertierbar ist, dann werden die Eigenwerte von A & lambda; i einfach.
- Wenn die Eigenwerte von A & lambda; i, werden die Eigenwerte von f einfach F, für jede holomorphe Funktion f.
Nützliche Fakten in Bezug auf Eigenvektoren
- Wenn A hermitesch und vollem Rang, kann die Basis der Eigenvektoren ausgewählt werden, gegenseitig orthogonal sein. Die Eigenwerte sind reell.
- Die Eigenvektoren von A sind die gleichen wie die Eigenvektoren von A.
- Eigenvektoren sind bis auf eine Phase definiert ist, das heißt, wenn dann auch ein Eigenvektor, und zwar so ist.
- Im Falle von entarteten Eigenwerte weisen die Eigenvektoren eine zusätzliche Rotationsfreiheit, nämlich einer Linearkombination von Eigenvektoren Sharing einen Eigenwert, selbst Eigenvektoren.
Nützliche Fakten in Bezug auf Eigenzerlegung
- A kann dann, wenn eigendecomposed werden
- Wenn p hat keine wiederholten Wurzeln, dh N & lgr; = N, dann A kann eigendecomposed werden.
- Die Aussage "A kann eigendecomposed werden" bedeutet nicht, dass A eine Inverse.
- Die Aussage "A hat eine inverse" bedeutet nicht, dass A kann eigendecomposed werden.
Nützliche Fakten über inverse Matrix
- kann dann, wenn invertiert
- Ob und wird die inverse gegeben durch
Numerische Berechnungen
Numerische Berechnung von Eigenwerten
Angenommen, dass wir die Eigenwerte einer gegebenen Matrix berechnet werden soll. Wenn die Matrix gering ist, können wir sie berechnen symbolisch mit der charakteristischen Polynoms. Dies ist jedoch für größere Matrizen, wobei in diesem Fall muß man ein numerisches Verfahren verwenden oft unmöglich.
In der Praxis werden die Eigenwerte von großer Matrizen nicht mit dem charakteristischen Polynom berechnet. Berechnen des Polynoms teuer wird in sich selbst, und dem genauen Wurzeln einer hohen Grades kann schwierig sein, zu berechnen und zu exprimieren: das Abel-Ruffini Theorem impliziert, dass die Wurzeln der Hoch Polynome im allgemeinen nicht einfach mit nth Wurzeln exprimiert werden. Daher allgemeinen Algorithmen, um Eigenvektoren zu finden und Eigenwerte iterativ.
Iterative numerische Algorithmen zum Annähern Wurzeln der Polynome existiert, wie das Newton-Verfahren, aber im allgemeinen ist es unpraktisch, das charakteristische Polynom zu berechnen, und dann gilt diese Methoden ist. Ein Grund dafür ist, dass kleine Rundungsfehler in den Koeffizienten des charakteristischen Polynoms können zu großen Fehlern in der Eigenwerte und Eigenvektoren führen: die Wurzeln sind ein extrem schlecht konditioniert Funktion der Koeffizienten.
Eine einfache und genaue iteratives Verfahren ist die Kraft-Methode: ein Zufallsvektor gewählt wird und eine Sequenz von Einheitsvektoren wie folgt berechnet
Diese Sequenz wird fast immer konvergiert gegen einen Eigenvektor entsprechend dem Eigenwert des größten Betrag, vorausgesetzt, dass v einen Nicht-Null-Komponente dieser Eigenvektor im Eigenvektorbasis. Diese einfachen Algorithmus ist nützlich, in einigen praktischen Anwendungen; zum Beispiel benutzt Google es, um den Page Rank von Dokumenten in ihre Suchmaschinen zu berechnen. Auch ist die Stromverfahren der Ausgangspunkt für viele weitere anspruchsvolle Algorithmen. Zum Beispiel, indem sie nicht nur den letzten Vektor in der Sequenz, sondern man die Zeitspanne von allen Vektoren in der Sequenz, kann man eine bessere Annäherung für den Eigenvektor zu erhalten, und diese Idee ist die Grundlage Arnoldi- Iteration. Alternativ wird die wichtige QR-Algorithmus auch eine subtile Transformation eines Stromverfahren.
Numerische Berechnung von Eigenvektoren
Sobald die Eigenwerte berechnet werden, könnte die Eigenvektoren durch die Lösung der Gleichung berechnen
mit Gauß-Elimination oder jede andere Methode zur Lösung von Matrixgleichungen.
Jedoch in praktischer großen Eigenwertverfahren die Eigenvektoren werden in der Regel auf andere Weise berechnet wird, als ein Nebenprodukt des Eigenwertberechnung. In Potenzmethode, beispielsweise der Eigenvektor tatsächlich vor der Eigenwert berechnet wird. In der QR-Algorithmus für eine hermitesche Matrix werden die orthonormalen Eigenvektoren als Produkt der Q-Matrizen von den Schritten in dem Algorithmus erhalten. Für hermitesche Matrizen, ist die Teile-und-herrsche-Eigenwert-Algorithmus effizienter als die QR-Algorithmus, wenn die beiden Eigenvektoren und Eigenwerte gewünscht sind.
Weitere Themen
Verallgemeinerte Eigenräume
Erinnern, dass die geometrische Vielzahl von einem Eigenwert kann als die Abmessung der zugeordneten Eigenraum, der Nullraum von & lambda; i beschrieben - A. Die algebraische Multiplizität kann auch als eine Dimension betrachtet werden: Es ist die Dimension der assoziierten verallgemeinerten Eigenraum, das ist der Nullraum der Matrix für jede hinreichend große k. Das heißt, es der Raum der verallgemeinerten Eigenvektoren, wobei ein Hauptraum ist jeder Vektor, der schließlich zu 0 wird, wenn & lambda; i ist, - A mit oft genug nacheinander aufgetragen. Jeder Eigenvektor ist ein Hauptraum und so jede Eigenraum in dem zugehörigen verallgemeinerten Eigenraum enthalten. Das bietet einen einfachen Nachweis, dass die geometrische Vielfach ist immer kleiner oder gleich der algebraischen Vielheit.
Diese Verwendung ist nicht zu verwechseln mit dem unten beschriebenen verallgemeinerten Eigenwert Problem sein.
Konjugat Eigenvektor
Konjugat Eigenvektor oder coneigenvector ist ein Vektor nach Transformation geschickt, um ein skalares Vielfaches seines Konjugats, wobei das skalare heißt das Konjugat Eigenwert oder coneigenvalue der linearen Transformation. Die coneigenvectors und coneigenvalues repräsentieren im wesentlichen die gleichen Informationen und Bedeutung wie die Eigenvektoren und Eigenwerte regelmäßigen, aber ergeben, wenn eine alternative Koordinatensystem verwendet. Die entsprechende Gleichung
Beispielsweise in kohärenten elektromagnetischen Streutheorie, die lineare Transformation A stellt die Aktion der Streuobjekt durchgeführt wird und die Eigenvektoren repräsentieren Polarisationszustände der elektromagnetischen Welle. In der Optik wird das Koordinatensystem aus Sicht der Welle ist, wie die Vorwärtsstreuung Alignment bekannt definiert sind, und führt zu einer regelmäßigen Eigenwertgleichung, während im Radar, wird das Koordinatensystem von der Radar Sicht, wie die Rückstreuung Alignment bekannt definiert sind, und gibt Anlass zu einer coneigenvalue Gleichung.
Verallgemeinerte Eigenwertproblem
Eine verallgemeinerte Eigenwertproblem ist das Problem, einen Vektor v, der gehorcht
wobei A und B Matrizen sind. Wenn v gehorcht dieser Gleichung mit einigen λ, dann nennen wir v Der Hauptraum von A und B, und λ heißt die verallgemeinerte Eigenwert von A und B, die dem Hauptraum v entspricht. Die möglichen Werte von λ muss folgende gehorchen Gleichung
In dem Fall können wir linear unabhängige Vektoren zu finden, so dass für jeden ,, wo dann definieren wir die Matrizen P und D, so dass
≡
Dann gilt die folgende Gleichheit
Und der Beweis ist
Und da P umkehrbar ist, multiplizieren wir die Gleichung von rechts durch ihre Inverse, Finishing den Beweis.
Der Satz von Matrizen der Form, in der eine komplexe Zahl ist, nennt man einen Bleistift; der Begriff Matrizenbüschel kann auch mit dem Paar von Matrizen beziehen. Wenn B invertierbar ist, so kann das ursprüngliche Problem in der Form geschrieben werden
Das ist ein Standard-Eigenwertproblem. In den meisten Fällen ist es jedoch bevorzugt, nicht die Inversion durchzuführen, sondern die verallgemeinerte Eigenwertproblem zu lösen, wie ursprünglich angegeben. Dies ist besonders wichtig, wenn A und B die hermitesche Matrix, da in diesem Fall ist im allgemeinen nicht Hermitesche und wichtige Eigenschaften der Lösung sind nicht mehr sichtbar.
Wenn A und B hermitesch ist und B eine positiv-definite Matrix, die Eigenwerte λ sind real und Eigenvektoren v1 und v2 mit verschiedenen Eigenwerten sind B-orthogonal. Auch in diesem Fall ist gewährleistet, dass es eine Grundlage verallgemeinerten Eigenvektoren. Dieser Fall wird manchmal als Hermitesche definitive Bleistift oder definitive Bleistift.
Kommentare - 0