0 Daumen
1,2k Aufrufe

Die Eigenwerte einer reellen symmetrischen Matrix sind ja reell und die Eigenvektoren sind orthogonal.
Es geht nun um folgendes Eigenwertproblem einer 2x2 Matrix:$$\begin{pmatrix} 4 \lambda^2 +2 & -2 \\ -2 & \lambda^2 +2 \end{pmatrix}\cdot \tilde{y} = \vec{0}$$Die Matrix ist also symmetrisch. Da die Eigenwerte konjungiert komplex sind, gibt es nur 2 EV. Als korrekte Lösungen für die EV erhalte ich

\(\tilde{y_1}= \begin{pmatrix} 1\\1 \end{pmatrix}\) und

\(\tilde{y_2}= \begin{pmatrix} 1\\-4 \end{pmatrix}\)

Diese Vektoren sind jedoch nicht orthogonal, obwohl die Matrix ja symmetrisch und reell ist.
Liegt das daran, dass hier ein quadratisches Eigenwertproblem vorliegt?

Avatar von 3,5 k

Warum funktioniert die Latex-Darstellung nicht?

Ich sehe zumindest nur die Tex-Befehle.

Du musst deine pmatrix entweder mit $$ ... $$ für "Display-Math" oder mit \( ... \) für "Inline-Math" umranden.

So hier zum Beispiel: $$\begin{pmatrix} 4 \lambda^2 +2 & -2 \\ -2 & \lambda^2 +2 \end{pmatrix}\cdot \tilde{y} = \vec{0}$$

Ich habe die Frage editiert.

Was genau suchst du? Die Lösungen für das quadratische Eigenwertproblem

$$ \left[ \begin{pmatrix} 4 & 0\\ 0 & 1 \end{pmatrix} \lambda^2 + \begin{pmatrix} 0 & -2\\ -2 & 0 \end{pmatrix} \right] \tilde y = 0 $$

?

1 Antwort

0 Daumen
 
Beste Antwort

Hallo Simon,

deine Lösungen sind richtig. Es gilt: $$\det\left\lvert\begin{pmatrix}4\lambda^2+2  & -2 \\ -2 & \lambda^2+2 \end{pmatrix} \right\lvert=4\lambda^4+10\lambda^2.$$ Die Nullstellen von \(4\lambda^4+10\lambda^2\) sind komplex, es gibt aber auch eine reelle Nullstelle \(\lambda=0\). Die anderen beiden Nullstellen sind \(\lambda=-i\sqrt{5/2}\) und \(\lambda=i\sqrt{5/2}\).

Den Eigenwert \(\lambda=-i\sqrt{5/2}\) eingesetzt in die Matrixgleichung ergibt: $$\begin{pmatrix}-8  & -2 \\ -2 & -1/2 \end{pmatrix}\vec{v}=\begin{pmatrix}0\\0 \end{pmatrix}.$$ Mit Gauß-Elimination kommen wir auf die Matrix $$\begin{pmatrix}-8  & -2 \\ 0 & 0 \end{pmatrix}\vec{v}=\begin{pmatrix}0\\0 \end{pmatrix}$$ und demnach ist die Lösungsmenge mit \(\mathcal{L}_1=\{\mu \cdot \bigl(\begin{smallmatrix}-1/4 \\ 1\end{smallmatrix}\bigr)\mid \mu \in\mathbb{R}\}\) gegeben. Ein Eigenvektor des Eigenwerts \(\lambda=-i\sqrt{5/2}\) ist für \(\mu = 1\) zum Beispiel mit \(\vec{v}=\bigl(\begin{smallmatrix}-1/4 \\ 1\end{smallmatrix}\bigr)\) gegeben. Bemerke aber, dass es unendlich viele mögliche Eigenvektoren gibt. Das sind alle Vielfachen von \(\vec{v}\). Für den anderen Eigenwert bekommen wir die selben Eigenvekoren, weil \((-i)^2=1=i^2\) ist.

Für den Eigenwert \(\lambda=0\) haben wir die Matrix $$\begin{pmatrix}2  & -2 \\ -2 & 2 \end{pmatrix}\vec{x}=\begin{pmatrix}0\\0\end{pmatrix}.$$ Umgewandelt mit Gauß ergibt sich $$\begin{pmatrix}2  & -2 \\ 0 & 0 \end{pmatrix}\vec{x}=\begin{pmatrix}0\\0\end{pmatrix}.$$ Die Lösungsmenge ist folglich \(\mathcal{L_2}:=\{\beta\cdot \bigl(\begin{smallmatrix}1\\1\end{smallmatrix}\bigr) \mid \beta\in\mathbb{R}\}\) und ein möglicher Eigenvektor ist durch \(\vec{x}=\bigl(\begin{smallmatrix}1\\1\end{smallmatrix}\bigr)\) definiert.

Die Eigenvektoren sind nicht orthogonal, weil \(\vec{x}\cdot \vec{v}\neq 0\) ist.

Nachtrag aus der Kommentarspalte: Da hier ein quadratisches Eigenwertproblem zu lösen ist, gilt der Spektralsatz nicht. Die Eigenvektoren müssen also nicht orthogonal zueinander sein.

Avatar von 2,1 k

Hallo,

ich glaube ich habe die Frage nicht präzise angegeben:

Das charakteristische Polynom ist bereits durch

\( \begin{vmatrix} 4 \lambda^2 +2 & -2 \\ -2 & \lambda^2 +2 \end{vmatrix} = 0 \)

gegeben.

Damit komme ich dann auf die oben genannten EV in meiner Frage.

Achsoo, habe mich schon gewundert. Na gut, dann ist das natürlich was ganz anderes. xD

Ja :)

Das ist die Lösung der mechanischen BewegungsDGLen für ein System mit 2 Massen.

Mich wundert eben, dass die EV nicht orthogonal sind, obwohl ja die Matrix symmetrisch ist. Die Eigenwerte sind ja auch schon komplex.

Gilt die Orthogonalität und der Satz mit reellen Eigenwerten bei symmetrischen Matrizen also nur bei "normalen, linearen" Eigenwertproblemen der Form

det(λI-A) = 0

?

Hey Simon, ich habe meine Antwort bearbeitet. Scheinbar hast du doch einen Fehler bei der Berechnung der EV gemacht oder?

Hallo,

aber mit \( \mu = -\frac{1}{4} \) ergibt sich doch

\( \vec {v} = \begin{pmatrix} 1\\-4 \end{pmatrix} \)

Dann stimmt doch meine Lösung, oder nicht?

Ja, klar. Ich bin heute ein bisschen neben der Spur. Sorry.

Hey Simon,

ich habe mich Mal ein bisschen mit dem Thema beschäftig. Selbst wenn die Matrix reellwertig ist, müssen ihre Eigenvektoren nicht unbedingt orthogonal sein, siehe math.stackexchange.

Kein Problem, passiert doch jedem mal :)

Dann sind wir uns ja einig, dass die Eigenvektoren nicht orthogonal sind. Weist du warum das trotz symmetrischer Matrix nicht der Fall ist bzw. wann gilt diese Orthoganlität?

Reellwertige Matrizen müssen doch orthogonale Vektoren haben. Das Problem hier ist, dass deine gegebene Matrix ja schon in der Darstellung \((A-E\lambda)\vec{v}=0\) ist. Man müsste sich die Ausgangsmatrix \(A\) mal angucken, kannst du die noch hinzufügen?

Simon, dein charakteristisches Polynom ist meiner Meinung nach falsch aufgestellt. Normalerweise hat man doch eine reelle \(n\times n\) Matrix \(A\) mit $$\begin{pmatrix}a_{11}& \ldots & a_{1n}\\\vdots & \ddots & \vdots\\ a_{n1} & \ldots & a_{nn} \end{pmatrix},$$ wobei die Koeffizienten aus den reellen Zahlen sind. Das charakteristische Polynom ist nun durch \(\chi_\lambda :=(A-E\lambda)\) definiert, wobei \(E\) die Einheitsmatrix ist. Wie kann es sein, dass du dann auf quadratische Unbestimmte \(\lambda\) kommst?

Klar.

Ausgangspunkt ist das DGL-System:

\( \boldsymbol M \ddot{y}+ \boldsymbol K y = \vec{0} \)

Mit dem Ansatz

\( y = \tilde{y} exp(\lambda t) \)

ergibt sich dann das Eigenwertproblem

\( (\boldsymbol M \lambda^2 + K) \cdot \tilde{y}= \vec{0}. \)

M und K sind symmetrische Matrizen und sogar positiv semidefinit.

Ach man, an solch einen Fall habe ich überhaupt nicht gedacht. Danke für die Aufklärung.

Ich habs. Weil wir 1,1 als EV haben, sind auch alle seine Vielfachen EV. Deshalb gilt für 4* 1,1 und (-1/4,1) dass sie orthogonal zueinander sind.

Die Skalierungsfaktoren der EV ergeben sich aus den Randbedingungen. Die kann ich nicht einfach so anpassen, nur um die Orthogonalität herzustellen.

Ich habe auch mal geschaut. Für ein polynomiales Eigenwertproblem, wie hier mit \(\lambda^2 \), ergibt sich im Allgemeinen keine Orthogonalität der EV; auch nicht wenn die Matrix symmetrisch ist.

Ja, genau. Für allgemeine Matrizen nicht. Reellwertige, symmetrische Matrizen sollten aber orthogonale Eigenvektoren beinhalten. Die Eigenvektoren zu deiner Matrix sind auch orthogonal, aber dann passen sie nicht zu deinen Randbedingungen. Also liegt es an den speziellen Randbedingungen, die du stellst.

$$ \vec{x}\cdot \vec{v}=\begin{pmatrix}4\\4\end{pmatrix}\cdot \begin{pmatrix}-1/4\\1\end{pmatrix}=4\cdot (-1/4)+1\color{red}{\cdot 4 }=-1+\color{red}{ 4 }=\color{red}{3 }. $$

Hmm, ich sollte wohl heute nichts mehr machen und mich in das Bett legen. Das ist ja sehr peinlich. Danke für den Hinweis.

Ich habe jetzt alles angepasst und einen passenden Link für einen Beweis hinzugefügt, aus dem hervorgeht, dass nicht alle Eigenvektoren zu den Eigenwerten einer Matrix orthogonal zueinander sein müssen (gilt auch für reelle, symmetrische Matrizen). Jetzt sollte die Frage richtig beantwortet sein.

Ich entschuldige mich noch Mal für die blöden Fehler in meiner Antwort. Es ist wohl heute nicht mein Tag.

Kein Problem, Danke für deine Hilfe. Man kann ja selber auch noch ein bisschen mitdenken ;)

Bei symmetrischen Matrizen sind Eigenvektoren zu paarweise verschiedenen Eigenwerten stets orthogonal. Falls die algebraische(=geometrische) Vielfachheit eines EWs >1 ist, kann man die Eigenvektoren zu diesem Eigenwert immer so wählen, dass diese orthogonal sind.

Das Problem ist hier, dass es (vermutlich) gar nicht um die Eigenvektoren einer symmetrischen Matrix geht, sondern um etwas komplett anderes.

Die Matrix ist definitiv symmetrisch (siehe Angabe in meiner Frage).

Das Problem hier ist, dass es sich um ein quadratisches Eigenwertproblem handelt. Die Eigenvektoren müssen dann auch bei einer symmetrischen Matrix nicht orthogonal zueinander sein. Z. B. sind die Eigenwerte ja schon komplex, was bei reellen, symmetrischen Matrizen ja normal auch nicht der Fall ist (wenn es ein lineares Eigenwertproblem wäre)

Ja genau.

Da deine Ergebnisse überhaupt keine Eigenvektoren im klassischen Sinne sind, müssen sie auch nicht orthogonal sein, denn nur auf diese klassischen Eigenvektoren bezieht sich der Spektralsatz. Wenn du dir die "richtigen" Eigenvektoren dieser Matrix ausrechnen lässt:

https://www.wolframalpha.com/input/?i=eigenvector+%28%284x%5E2%2B2%2C-2%29%2C%28-2%2Cx%5E2%2B2%29%29

siehst du, dass diese aber sehr wohl orthogonal sind.

Danke für den Hinweis auf den Spektralsatz. Ich habe das Mal in der Antwort hinzugefügt.

Ein anderes Problem?

Stell deine Frage

Willkommen bei der Mathelounge! Stell deine Frage einfach und kostenlos

x
Made by a lovely community