Für n×n-Matrix: det(A) = 0 ⟺ A ist singulär (nicht invertierbar)
Matrix-Operationen
Grundlegende Operationen mit Matrizen
Operation
Bedingung
Ergebnis-Dimension
Addition A + B
Gleiche Dimension
m × n
Subtraktion A - B
Gleiche Dimension
m × n
Skalarmultiplikation k·A
Keine
m × n
Multiplikation A·B
Spalten(A) = Zeilen(B)
m × p
Transponierte Aᵀ
Keine
n × m
Inverse A⁻¹
det(A) ≠ 0, quadratisch
n × n
A (m×n) bedeutet: m Zeilen, n Spalten
Häufig gestellte Fragen zum Eigenwerte-Rechner
Was sind Eigenwerte und Eigenvektoren?
Eigenwerte (λ) und Eigenvektoren (v) einer Matrix A erfüllen die Gleichung Av = λv. Der Eigenvektor v ändert bei der Multiplikation mit A nur seine Länge um den Faktor λ, aber nicht seine Richtung. Dieses Konzept ist zentral für viele Bereiche der Mathematik und Physik, etwa Quantenmechanik, Hauptkomponentenanalyse, Stabilitätsanalyse dynamischer Systeme und Schwingungsanalyse.
Wie berechnet man Eigenwerte einer 2x2 Matrix?
Für eine 2x2 Matrix [[a,b],[c,d]] berechnet man das charakteristische Polynom det(A - λI) = (a-λ)(d-λ) - bc = λ² - (a+d)λ + (ad-bc). Die Eigenwerte sind dann λ₁,₂ = (Spur ± √(Spur² - 4·Determinante))/2. Die Diskriminante Δ = Spur² - 4·Determinante bestimmt, ob die Eigenwerte reell (Δ ≥ 0) oder komplex (Δ < 0) sind.
Was ist das charakteristische Polynom?
Das charakteristische Polynom einer Matrix A ist det(A - λI), wobei I die Einheitsmatrix ist. Die Nullstellen dieses Polynoms sind die Eigenwerte der Matrix. Für eine nxn Matrix ist es ein Polynom n-ten Grades in λ. Das charakteristische Polynom enthält wichtige Informationen über die Matrix: Die Koeffizienten sind Funktionen der Spur, Determinante und anderer Invarianten der Matrix.
Wie findet man die Eigenvektoren?
Nach Berechnung der Eigenwerte λᵢ löst man das homogene Gleichungssystem (A - λᵢI)v = 0 für jeden Eigenwert. Die nichttrivialen Lösungen dieses Systems sind die zu λᵢ gehörenden Eigenvektoren. Der Eigenraum zu λᵢ ist der Lösungsraum dieses Gleichungssystems. Eigenvektoren sind nur bis auf einen skalaren Faktor eindeutig bestimmt und werden oft normalisiert.
Wann ist eine Matrix diagonalisierbar?
Eine Matrix ist diagonalisierbar, wenn für jeden Eigenwert die algebraische und geometrische Vielfachheit übereinstimmen. Äquivalent: wenn sie n linear unabhängige Eigenvektoren besitzt (bei nxn Matrix). Symmetrische Matrizen sind immer diagonalisierbar über den reellen Zahlen. Die Diagonalisierung hat die Form A = PDP⁻¹, wobei D die Diagonalmatrix der Eigenwerte und P die Matrix der Eigenvektoren ist.
Welche Eigenschaften haben Eigenwerte?
Wichtige Eigenschaften von Eigenwerten: Die Summe aller Eigenwerte entspricht der Spur der Matrix, das Produkt aller Eigenwerte entspricht der Determinante. Eigenwerte reeller symmetrischer Matrizen sind immer reell. Bei orthogonalen Matrizen haben alle Eigenwerte Betrag 1. Ähnliche Matrizen haben dieselben Eigenwerte. Die Eigenwerte von A^n sind die n-ten Potenzen der Eigenwerte von A.
Wozu braucht man Eigenwerte in der Praxis?
Eigenwerte haben vielfältige Anwendungen: Stabilitätsanalyse in der Regelungstechnik (negative reelle Eigenwerte bedeuten Stabilität), Hauptkomponentenanalyse in der Statistik (größte Eigenwerte zeigen wichtigste Variationsrichtungen), Quantenmechanik (Eigenwerte sind Messwerte physikalischer Observablen), Schwingungsanalyse in der Mechanik, PageRank-Algorithmus von Google, Gesichtserkennung und Bildkompression, sowie Markov-Ketten-Analyse.
Was sind komplexe Eigenwerte und wie interpretiere ich sie?
Komplexe Eigenwerte λ = a ± bi treten als konjugierte Paare auf und zeigen oszillierendes Verhalten an. Der Realteil a bestimmt das Wachstum/Zerfall: a < 0 bedeutet gedämpfte Schwingung, a > 0 bedeutet aufschaukelnde Schwingung, a = 0 bedeutet ungedämpfte Oszillation. Der Imaginärteil b bestimmt die Frequenz der Schwingung: ω = |b|. In Anwendungen: Für Regelungssysteme müssen alle Eigenwerte negative Realteile haben (Stabilität). Bei mechanischen Schwingungen zeigen komplexe Eigenwerte Eigenschwingungen an. In der Quantenmechanik müssen Eigenwerte reell sein (Hermitesche Operatoren), was messbare Größen garantiert.
Warum gehören Eigenwerte und Eigenvektoren immer zusammen?
Ein Eigenwert beschreibt den Skalierungsfaktor, ein Eigenvektor die dazugehörige Richtung. Ohne Eigenvektor wäre der Eigenwert nur eine Zahl ohne Richtungsaussage. Ohne Eigenwert wüsstest du nicht, wie stark die Matrix entlang dieser Richtung streckt, staucht oder spiegelt. Erst beide zusammen erklären das Verhalten der linearen Abbildung.
Was bedeutet es, wenn ein Eigenwert mehrfach vorkommt?
Ein mehrfacher Eigenwert kann mehrere unabhängige Eigenvektoren haben, muss es aber nicht. Entscheidend ist der Unterschied zwischen algebraischer Vielfachheit im charakteristischen Polynom und geometrischer Vielfachheit im Eigenraum. Wenn zu wenige unabhängige Eigenvektoren existieren, ist die Matrix nicht diagonalisierbar.