+1 Daumen
533 Aufrufe

Aufgabe: Beweise: Ist M eine endliche Menge von normalen Matrizen, so gibt es ein Polynom p∈ℂ[X] mit p(A)=A* für alle A∈M

(A* steht für AT komplex konjugiert)


Problem/Ansatz: Ich habe hier leider kein Ansatz... Wäre nett, wenn mir jemand helfen könnte

Avatar von

Wie du ein Polynom zu einer beliebigen normalen Matrix findest wurde unten ja schon erläutert.

Wenn du das verstanden hast kannst du auch so weiter argumentieren:

Ist \( M = \{ A_1, ..., A_n \} \) eine endliche Menge normaler Matrizen, dann betrachte die Blockdiagonalmatrix

$$ A := \begin{pmatrix} A_1 \\ & \ddots \\ && A_n \end{pmatrix} $$

Diese Matrix \( A \) ist ebenfalls normal und wir finden deshalb ein Polynom \( p \) mit \( p(A) = A^H \). Es ist dann

$$ \begin{pmatrix} A_1^H \\ & \ddots \\ && A_n^H \end{pmatrix} = A^H = p(A) = p\left( \begin{pmatrix} A_1 \\ & \ddots \\ && A_n \end{pmatrix} \right) = \begin{pmatrix} p(A_1) \\ & \ddots \\ && p(A_n) \end{pmatrix} $$

und insbesondere \( p(A_i) = A_i^H \).

1 Antwort

+1 Daumen
 
Beste Antwort

Sei \( p \in \mathbb{C}[x] \) beliebig, also

\(\begin{aligned} p(x)=\sum \limits_{i=0}^{n} \alpha_{i} x^{i}, \quad \alpha \in \mathbb{C} .\end{aligned} \)

Da \(A\) normal ist, existiert eine Diagonalisierung über \( \mathbb{C} \), insbesondere eine unitäre Matrix \( \mathrm{S} \) mit

\(\begin{aligned} A=S^{H} D S \Longrightarrow A^{H}=S^{H} D^{H} S=S^{H} \bar{D} S\end{aligned} \)
für \(D\) diagonal. Es gilt also
\(\begin{aligned} p\left(\mathbf{S}^{H} \mathbf{D S}\right)=\sum \limits_{i=0}^{n} \alpha_{i}\left(\mathbf{S}^{H} \mathbf{D S}\right)^{i}=\sum \limits_{i=0}^{n} \alpha_{i} \mathbf{S}^{H} \mathbf{D}^{i} \mathbf{S}=\mathbf{S}^{H} p(\mathbf{D}) \mathbf{S}\end{aligned} \)
Für müssen also \( p \) so wählen, dass \( p(\mathbf{D})=\overline{\mathbf{D}} \) (komplex konjugiert) gilt, also wenn \( \lambda_{\mathrm{i}} \) ein Eigenwert von \( A\) ist, so soll \( p\left(\lambda_{i}\right)=\overline{\lambda_{i}} \) gelten. Ein solches Polynom kann man z.B. durch Interpolation konstruieren (hier ist ja lediglich nach der Existenz gefragt, es reicht also zu wissen, dass ein solches Polynom existieren muss). Wir konstruieren nun \( p_{1}, \ldots, p_{m} \) für alle \( \boldsymbol{A} \in M \) (ich nehme an, dass \( |M|=m \) ).

Nun können wir ähnlich wie bei der Lagrange interpolation vorgehen: Seien \( E_{1}=\left\{\lambda_{1}, \ldots, \lambda_{k}\right\} \) die Eigenwerte aller Matrizen in \(M\backslash\left\{\boldsymbol{A}_{1}\right\} \), welche verschieden von den Eigenwerten von \( A_{1} \) sind. Dann wird unser modifiziertes \( p_{1} \) die Form
\(\begin{aligned} p_{1}(x)=\left(x-\lambda_{1}\right) \cdots\left(x-\lambda_{k}\right) p(x)\end{aligned} \)
Die Idee ist hier, dass sobald wir irgendendeine andere Matrix als \( A_{1} \) in \( p_{1} \) Einsetzen, wir die Nullmatrix erhalten. Dann können wir nämlich einfach eine Linearkombination der \( p_{i} \) am Ende betrachten. Das einzige Problem is jetzt noch, dass, wenn wir \( A_{1} \) in \( p_{1} \) einsetzten, wir noch einen zusätzlichen Faktor \( \left(\lambda_{A_{1}}-\lambda_{1}\right) \cdots\left(\lambda_{A_{1}}-\lambda_{k}\right) \) für jeden Eintrag \( \lambda_{\mathbf{A}_{1}} \) der Diagonale erhalten. Also konstuieren wir unser erstes Polynom so, dass

\(\begin{aligned} \tilde{p}\left(\lambda_{\mathbf{A}_{1}}\right)=\frac{\overline{\lambda_{\mathbf{A}_{1}}}}{\left(\lambda_{\mathbf{A}_{1}}-\lambda_{1}\right) \cdots\left(\lambda_{\mathbf{A}_{1}}-\lambda_{k}\right)}\end{aligned} \)

gilt für alle Eigenwerte \( \lambda_{A_{1}} \) von \( \boldsymbol{A}_{1} \). Unser letzendliches Polynom \( p_{1} \) wird also die Form

\(\begin{aligned} p_{1}(x)=\left(x-\lambda_{1}\right) \cdots\left(x-\lambda_{k}\right) \tilde{p}(x)\end{aligned} \)

haben. Diesen Prozess wiederholen wir jetzt für alle übrigen Matrizen in \( M \), und unser finales Polynom wird dann einfach die Summe all jener sein, also

\(\begin{aligned} P(x)=\sum \limits_{i=1}^{m} p_{m}(x) .\end{aligned} \)

Avatar von 4,6 k

Schade, dass man nur einen Daumenhoch vergeben kann !

Eine kurze Frage. Kann sein, dass ich auf dem Schlauch stehe, aber ist die Diagonalisierung nicht so definiert, dass A=SDS*? Es müsste glaube ich für D D=S*AS gelten...

\(\begin{aligned} p_{1}(x)=\left(x-\lambda_{1}\right) \cdots\left(x-\lambda_{k}\right) p(x)\end{aligned} \)

Die Idee ist hier, dass sobald wir irgendendeine andere Matrix als \( A_{1} \) in \( p_{1} \) Einsetzen, wir die Nullmatrix erhalten.

Wenn \( A_ 1 \) und \( A_i \) einen gemeinsamen Eigenwert \( \mu \neq 0 \) haben funktioniert diese Konstruktion nicht.

Wegen \( p_1(A_i) = 0 \) müsste \( p_1(\mu) = 0 \) sein. Jetzt ist \( \mu \neq \lambda_j \) also ist \( \bar \mu = p(\mu) = 0 \). Widerspruch.

@MatHaeMatician Ja, ich habe gesehen, es ist nicht richtig in diesem Fall, aber nicht aus dem Grund, welchen du nennst. Wenn \(A_1\) und \(A_2\) einen gemeinsamen Eigenwert haben, dann gilt \(p_1(A_2) \neq 0\) weil ich ja "von \(A\) verschiedene Eigenwerte" geschrieben habe, also ist \(p_1(D_2)\) eine Diagonalmatrix, welche überall Null ausser bei den Gemeinsamen Eigenwerten hat. Dein Kommentar zeigt jedoch, dass die obige Methode leider nicht rektifiziert werden kann (ich habe wohl unterbewusst angenommen, die Matrizen hätten verschiedene Eigenwerte).

Ein anderes Problem?

Stell deine Frage

Willkommen bei der Mathelounge! Stell deine Frage einfach und kostenlos

x
Made by a lovely community