0 Daumen
1k Aufrufe

Ich arbeite gerade eine Übungsklausur durch und hänge gerade an folgender Frage:

Wahr oder falsch?

Wenn A ∈ M(n, C) reelle Eigenwerte und eine Orthonormalbasis aus Eigenvektoren
besitzt, dann ist A selbst-adjungiert.

$$x,u \in \mathbb{C}^n~mit~x= \sum_{j=1}^{n}b_jv_j~und~u= \sum_{k=1}^{n}a_kv_k~wobei\{v_1,v_2,...,v_n\}~eine~Orthonormalbasis$$ $$von~\mathbb{C}^n~ist. \{\lambda_1,\lambda_2,...,\lambda_n\} sind~die~zugehörigen~reellen~Eigenwerte~bezüglich~A.$$

$$<~,~>ist~das~Skalarprodukt.~Angenommen~es~gilt~<x,Au>=<Ax,u> \forall x,u \in \mathbb{C^n}*$$

$$<x,Au>= <\sum_{j=1}^{n}b_jv_j, A\sum_{k=1}^{n}a_kv_k>=<\sum_{j=1}^{n}b_jv_j, \sum_{k=1}^{n}\lambda_ka_kv_k>=\sum_{k=1}^{n}\lambda_ka_k<\sum_{j=1}^{n}b_jv_j,v_k>$$

$$=\sum_{k=1}^{n}\lambda_ka_k\overline{\sum_{j=1}^{n}b_j<v_k,v_j>}=\sum_{k=1}^{n}\lambda_ka_k\overline{b_k}=^*\sum_{k=1}^{n}\lambda_kb_k\overline{a_k}=<Ax,u> $$

Nun müsste dies ja insbesondere für Vektoren gelten für die auch

$$a_k=b_k =0 : \forall k \in \{1,2,...,n-1\}~und~0 \neq a_n \in \mathbb{C}\setminus\mathbb {R},~0 \neq b_n \in \mathbb {R} $$ gilt. Folglich würde dann 

$$\lambda_n a_n b_n=\lambda_n \overline{a_n} b_n=> a_n=\overline{a_n}$$ gelten. Da a_n komplex ist wäre dies ein Widerspruch.

Ich bin mir ziemlich sicher, dass ich hier irgendwo einen Fehler eingebaut habe. Könnte mich jemand auf diesen hinweisen und mir sagen, wie man die Aufgabe richtig löst?

Avatar von

1 Antwort

+1 Daumen

Die Aussage sollte korrekt sein.

Ich habe deine Argumentation nicht komplett überprüft, ein Problem sehe ich jedoch definitiv bei folgendem Schritt:

$$<\sum_{j=1}^{n}b_jv_j, \sum_{k=1}^{n}\lambda_ka_kv_k>=\sum_{k=1}^{n}\lambda_ka_k<\sum_{j=1}^{n}b_jv_j,v_k>$$

Im 2. Argument des komplexen Skalarproduktes dürfen Skalare nicht direkt, sondern nur komplex konjugiert herausgezogen werden. Für die \(\lambda_k\) spielt dies keine Rolle, da diese ohnehin reell sind. Sehr wohl können jedoch die \(a_k\) in \(\mathbb{C}\) liegen. Genau deshalb kommst du letztendlich wahrscheinlich auch zum Widerspruch.


Zur Lösung würde ich folgenden Weg vorschlagen:


Da eine Orthonormalbasis aus Eigenvektoren existiert, lässt sich \(A\) schreiben als

$$A = TDT^*,$$

wobei \(T\) eine unitäre Matrix mit den Eigenvektoren in den Spalten und \(D\) eine Diagonalmatrix ist. Insbesondere hat \(D\) nur reelle Einträge, da die Eigenwerte reell sind. Damit gilt nun mit den Rechenregeln für Adjungierte Matrizen

$$A^* = (TDT^*)^* = (T^*)^*D^*T^* = TD^*T^* = TDT^* = A.$$

Der letzte Schritt ist möglich, weil \(D\) nur reelle Einträge hat und als Diagonalmatrix insbesondere symmetrisch (und somit selbstadjungiert) ist.

Avatar von

Ich habe gerade nochmal in meinen Skript nachgeschaut. Das Skalarprodukt auf komplexen Räumen ist eine Sesquilinearform. Es ist im 2. Argument als linear definiert, außerdem gilt $$<a,b>=\overline{<b,a>}$$

Also kann ich aus dem zweiten Argument ohne zu Konjugieren das Summenzeichen samt Skalar und Eigenwert herausziehen. Ich muss lediglich für die b_j im 1. Argument konjugieren, was ich ja auch getan habe.

Bezüglich deiner Lösung:

$$A^* = (TDT^*)^* = (T^*)^*D^*T^* = TD^*T^* = TDT^* = A.$$

Ich verstehe eine Sache nicht ganz, müsste der erste Ausdruck nicht $$A^*=(TDT^{-1})^*$$ lauten? Wieso ist bei dir das zweite T adjungiert? Der Rest macht für mich Sinn.

Danke für deine Hilfe soweit!

Mea culpa. Ich habe die Linearität in den Argumenten verwechselt. Im 2. Argument gibt es natürlich eine Linearität, weshalb dein Schritt korrekt ist.

Nach weiterer Überlegung habe ich jedoch den Fehler gefunden:

$$a_k=b_k =0 : \forall k \in \{1,2,...,n-1\}~und~0 \neq a_n \in \mathbb{C}\setminus\mathbb {R},~0 \neq b_n \in \mathbb {R}$$

Überlege dir, weshalb ein solches \(a_n\) nicht existieren kann. Welche Eigenschaft würde der resultierende Vektor erfüllen? Tipp: Was weißt du über die Eigenwerte?


Das zweite \(T\) ist deshalb adjungiert, da \(T\) eine unitäre Matrix ist und somit \(T^{-1} = T^*\) erfüllt.

Und nochmal muss ich mich korrigieren. Ich habe in obigem Kommentar leider Blödsinn geschrieben - natürlich gibt es solche Skalare.

Jetzt habe ich aber den tatsächlichen Fehler gefunden:

$$\sum_{k=1}^{n}\lambda_kb_k\overline{a_k}=<Ax,u>$$

Dies gilt nicht. Rechne es einfach nochmal nach.

Ahhh, okay. Ich habe auch gemerkt, wieso ich fälschlicherweise auf diese Gleichung gekommen bin. Ich wollte <Ax,u> berechnen, habe aber aus versehen beim Einsetzen für x und u die jeweils andere linear Kombination eingesetzt, sodass ich dann a statt b konjugiert habe. Dann könnte ich ja sogar meine ursprüngliche Idee als Beweis nehmen:

$$<Ax,u>=<\sum_{j=1}^n \lambda_jb_jv_j,\sum_{k=1}^n a_kv_k>=\sum_{k=1}^n a_k<\sum_{j=1}^n \lambda_jb_jv_j,v_k>=$$

$$=\sum_{k=1}^n a_k\overline{\sum_{j=1}^n \lambda_jb_j<v_k,v_j>}=\sum_{k=1}^{n}\lambda_ka_k\overline{b_k}$$

Der letzte Term ist wenn man die Gleichungskette von meinem ursprünglichen Post rückwärts verfolgt = <x,Au>


Vielen Dank für deine Hilfe!

Ein anderes Problem?

Stell deine Frage

Willkommen bei der Mathelounge! Stell deine Frage einfach und kostenlos

x
Made by a lovely community