0 Daumen
1,2k Aufrufe

Aufgabe:

Sei AR2,2A\in \mathbb{R}^{2,2} eine symmetrische Matrix mit zwei verschiedenen reellen Eigenwerten λ1,λ2\lambda_1,\lambda_2 und einem Eigenvektor v1v_1 zum Eigenwert λ1\lambda_1.

Jetzt soll ich beweisen, dass jeder Vektor vR2v\in \mathbb{R}^2, der senkrecht auf den Eigenvektor v1v_1 ist, ein Eigenvektor zum Eigenwert λ2\lambda_2 ist.

v20v_2 \neq 0

Problem/Ansatz:

v1,v2=0\langle v_1,v_2\rangle=0

Av1=λ1v1A\cdot v_1=\lambda_1\cdot v_1


Wäre nett, wenn mir jemand eine Erklärung geben könnte :)


123vier

Avatar von

Hallo :-)

In welcher Menge lebt deine Matrix AA? In R2,2\mathbb{R}^{2,2} oder Rn,n\mathbb{R}^{n,n}, etc. ?

Wir befinden uns hier im R2


123vier

1 Antwort

0 Daumen

die Antwort kommt etwas spät, aber dafür kannst du dir das nochmal anschauen und nachfolgende Fragesteller, die die gleiche Frage haben, können sich auf dieser Weise sofort Tipps holen. Fangen wir an.

Die Behauptung ist:

Für eine symmetrische Matrix ARn×nA \in \mathbb{R}^{n \times n} sind dessen Eigenvektoren zu verschiedenen Eigenwerte orthogonal.

Vorüberlegung:

(1) Wir betrachten hier symmetrischen Matrizen. Diese haben die besondere Eigenschaft, dass sie identisch mit ihrer Transponierten sind: A=ATA = A^T.

(2) Es ist 0v1Rn0 \neq v_1 \in \mathbb{R}^n ein Eigenvektor zum Eigenwert λ1\lambda_1 von AA, wenn die Gleichung Av1=λ1v1Av_1 = \lambda_1 v_1 erfüllt ist.

(3) Wir nennen v1, v2Rnv_1, \ v_2 \in \mathbb{R}^n orthogonal, wenn dessen Skalarprodukt gleich Null ist: v1v2=0v_1 \cdot v_2 = 0

(4) Das Skalarprodukt können wir auch schreiben als v1v2=v1Tv2v_1 \cdot v_2 = v_1^Tv_2, denn:

Sei o.E.d.A. n=3n = 3. (x1y1z1)T(x2y2z2)=(x1y1z1)(x2y2z2)=Matrix mult.x1x2+y1y2+z1z2\begin{pmatrix} x_1 \\ y_1 \\ z_1\end{pmatrix}^T\begin{pmatrix} x_2 \\ y_2 \\ z_2 \end{pmatrix} = \begin{pmatrix} x_1 & y_1 & z_1\end{pmatrix}\begin{pmatrix} x_2 \\ y_2 \\ z_2 \end{pmatrix} \stackrel{Matrix \ mult.}{=} x_1x_2 + y_1y_2 + z_1z_2


Nun kommen wir zum Beweis. Ich werde hier einige Zwischenschritte weglassen, weil du selber ja auch noch etwas machen sollst.

Beweis (Vorlage):

λ1v1Tv2=()(Av1)Tv2=v1TATv2=...=λ2v1Tv2    (λ1λ2)v1Tv2=0\lambda_1v_1^Tv_2 \stackrel{(*)}{=} (Av_1)^Tv_2 = v_1^TA^Tv_2 = ... = \lambda_2v_1^Tv_2 \iff (\lambda_1 - \lambda_2)v_1^Tv_2 = 0

()(*) Überlege dir, warum λ1v1T=(Av1)T\lambda_1v_1^T = (Av_1)^T gilt. Solltest du nicht sofort drauf kommen, nimm dir eine 3×33 \times 3 Matrix und einen dreidimensionalen Vektor und führe die Multiplikationen durch. Schau dann, was auf der linken und auf der rechten Seite für Vektoren stehen. Wie sehen die aus?

Aus (λ1λ2)v1Tv2=0(\lambda_1 - \lambda_2)v_1^Tv_2 = 0 erhalten wir die Behauptung, warum? Warum kann nicht λ1λ2=0\lambda_1 - \lambda_2 = 0 gelten?

Avatar von

Ich fand die Aufgabe auch ganz interessant, muss aber auch sagen, dass ich bis jetzt ebenfalls nicht weit gekommen bin:

(λ1λ2)v1Tv2=0(\lambda_1 - \lambda_2)v_1^Tv_2 = 0 ist trivialerweise erfüllt, da v1Tv2=0v_1^Tv_2=0 bereits gilt, weil v1v_1 und v2v_2 orthogonal sind. λ1λ20\lambda_1 - \lambda_2 \neq 0, da die Eigenwerte nach Voraussetzung verschieden sind. Aus meiner Sicht würde das so aber nicht reichen, die Behauptung zu zeigen.

Ansonsten habe ich mal (λ1λ2)v1Tv2=0(\lambda_1 - \lambda_2)v_1^Tv_2 = 0 nochmal so umgeformt:

(λ1λ2)v1Tv2=00=v1TAv= : w=λ1v1Tv2=λ2v1Tv2=v1Tλ2v= : z \begin{aligned}(\lambda_1 - \lambda_2)v_1^Tv_2 &= 0\\\Leftrightarrow 0=v_1^T\cdot \underbrace{A\cdot v}_{=:w}=\lambda_1v_1^Tv_2&=\lambda_2v_1^Tv_2=v_1^T\cdot \underbrace{\lambda_2\cdot v}_{=:z} \end{aligned}

Leider folgt hier nicht i.A v=wv=w und ich sehe nirgends einen Anhaltspunkt, λ1λ2\lambda_1\neq \lambda_2 zu nutzen...

Würde mich auch sehr interessieren.

Du hast recht, ich habe nur gezeigt, dass die Eigenwerte einer symmetrischen Matrix orthogonal zueinander sind. Deswegen genügte es,

(λ1λ2)v1Tv2=0(\lambda_1 - \lambda_2)v_1^Tv_2 = 0

zu betrachten, weil daraus dann v1Tv2=0v_1^Tv_2 = 0 nach Voraussetzung und damit die Orthogonalität folgt.


Warum ich die Behauptung durcheinander gebracht habe, kann ich dir heute nicht mehr sagen. Ich werde den richtigen Beweis die Tage aber nachholen und den Beitrag korrigieren.

...ich habe nur gezeigt, dass die Eigenwerte einer symmetrischen Matrix orthogonal zueinander sind.

Genau!

Und jetzt nutzt man aus, dass AA als symmetrische Matrix diagonalisierbar ist oder weil beide reellen Eigenwerte von AA verschieden sind, dass AA diagonalisierbar ist. Hier sind es ja nur zwei Eigenwerte, was die Sache dann besonders einfach macht, denn wegen der Diagonalisierbarkeit von AA gibt es eine Basis aus Eigenvektoren. Hier sind es nur zwei, sodass die Eigenräume nur eindimensional sind. v1,v2v_1,v_2 sind als Eigenvektoren von AA orthogonal zueinander. Außerdem gilt aus dem Konzept zu orthogonalen Komplementen die Gleichheit 2=dim(R2)=dim((span(v1)))+dim(span(v1))=dim((span(v1)))+1, 2=\dim(\mathbb{R}^2)=\dim((\operatorname{span}(v_1))^{\perp})+\dim(\operatorname{span}(v_1))=\dim((\operatorname{span}(v_1))^{\perp})+1,

sodass dim((span(v1)))=1\dim((\operatorname{span}(v_1))^{\perp})=1 folgt und damit bereits v2(span(v1))v_2\in (\operatorname{span}(v_1))^{\perp}. Nun sei vR2v\in \mathbb{R}^2 beliebig mit v1,v=0\langle v_1,v\rangle=0. Dann ist wegen dim((span(v1)))=1\dim((\operatorname{span}(v_1))^{\perp})=1 auch vspan(v1))v\in \operatorname{span}(v_1))^{\perp}. Also sind v,v2v,v_2 linear abhängig, woraus folgt, dass vv im Eigenraum von v2v_2 enthalten ist, in Zeichen: vEig(A,λ2)v\in \operatorname{Eig}(A,\lambda_2).

Ein anderes Problem?

Stell deine Frage