+1 Daumen
913 Aufrufe

Aufgabe: Beweise: Ist M eine endliche Menge von normalen Matrizen, so gibt es ein Polynom p∈ℂ[X] mit p(A)=A* für alle A∈M

(A* steht für AT komplex konjugiert)


Problem/Ansatz: Ich habe hier leider kein Ansatz... Wäre nett, wenn mir jemand helfen könnte

Avatar von

Wie du ein Polynom zu einer beliebigen normalen Matrix findest wurde unten ja schon erläutert.

Wenn du das verstanden hast kannst du auch so weiter argumentieren:

Ist M={A1,...,An} M = \{ A_1, ..., A_n \} eine endliche Menge normaler Matrizen, dann betrachte die Blockdiagonalmatrix

A : =(A1An) A := \begin{pmatrix} A_1 \\ & \ddots \\ && A_n \end{pmatrix}

Diese Matrix A A ist ebenfalls normal und wir finden deshalb ein Polynom p p mit p(A)=AH p(A) = A^H . Es ist dann

(A1HAnH)=AH=p(A)=p((A1An))=(p(A1)p(An)) \begin{pmatrix} A_1^H \\ & \ddots \\ && A_n^H \end{pmatrix} = A^H = p(A) = p\left( \begin{pmatrix} A_1 \\ & \ddots \\ && A_n \end{pmatrix} \right) = \begin{pmatrix} p(A_1) \\ & \ddots \\ && p(A_n) \end{pmatrix}

und insbesondere p(Ai)=AiH p(A_i) = A_i^H .

1 Antwort

+1 Daumen
 
Beste Antwort

Sei pC[x] p \in \mathbb{C}[x] beliebig, also

p(x)=i=0nαixi,αC.\begin{aligned} p(x)=\sum \limits_{i=0}^{n} \alpha_{i} x^{i}, \quad \alpha \in \mathbb{C} .\end{aligned}

Da AA normal ist, existiert eine Diagonalisierung über C \mathbb{C} , insbesondere eine unitäre Matrix S \mathrm{S} mit

A=SHDSAH=SHDHS=SHDˉS\begin{aligned} A=S^{H} D S \Longrightarrow A^{H}=S^{H} D^{H} S=S^{H} \bar{D} S\end{aligned}
für DD diagonal. Es gilt also
p(SHDS)=i=0nαi(SHDS)i=i=0nαiSHDiS=SHp(D)S\begin{aligned} p\left(\mathbf{S}^{H} \mathbf{D S}\right)=\sum \limits_{i=0}^{n} \alpha_{i}\left(\mathbf{S}^{H} \mathbf{D S}\right)^{i}=\sum \limits_{i=0}^{n} \alpha_{i} \mathbf{S}^{H} \mathbf{D}^{i} \mathbf{S}=\mathbf{S}^{H} p(\mathbf{D}) \mathbf{S}\end{aligned}
Für müssen also p p so wählen, dass p(D)=D p(\mathbf{D})=\overline{\mathbf{D}} (komplex konjugiert) gilt, also wenn λi \lambda_{\mathrm{i}} ein Eigenwert von A A ist, so soll p(λi)=λi p\left(\lambda_{i}\right)=\overline{\lambda_{i}} gelten. Ein solches Polynom kann man z.B. durch Interpolation konstruieren (hier ist ja lediglich nach der Existenz gefragt, es reicht also zu wissen, dass ein solches Polynom existieren muss). Wir konstruieren nun p1,,pm p_{1}, \ldots, p_{m} für alle AM \boldsymbol{A} \in M (ich nehme an, dass M=m |M|=m ).

Nun können wir ähnlich wie bei der Lagrange interpolation vorgehen: Seien E1={λ1,,λk} E_{1}=\left\{\lambda_{1}, \ldots, \lambda_{k}\right\} die Eigenwerte aller Matrizen in M\{A1}M\backslash\left\{\boldsymbol{A}_{1}\right\} , welche verschieden von den Eigenwerten von A1 A_{1} sind. Dann wird unser modifiziertes p1 p_{1} die Form
p1(x)=(xλ1)(xλk)p(x)\begin{aligned} p_{1}(x)=\left(x-\lambda_{1}\right) \cdots\left(x-\lambda_{k}\right) p(x)\end{aligned}
Die Idee ist hier, dass sobald wir irgendendeine andere Matrix als A1 A_{1} in p1 p_{1} Einsetzen, wir die Nullmatrix erhalten. Dann können wir nämlich einfach eine Linearkombination der pi p_{i} am Ende betrachten. Das einzige Problem is jetzt noch, dass, wenn wir A1 A_{1} in p1 p_{1} einsetzten, wir noch einen zusätzlichen Faktor (λA1λ1)(λA1λk) \left(\lambda_{A_{1}}-\lambda_{1}\right) \cdots\left(\lambda_{A_{1}}-\lambda_{k}\right) für jeden Eintrag λA1 \lambda_{\mathbf{A}_{1}} der Diagonale erhalten. Also konstuieren wir unser erstes Polynom so, dass

p~(λA1)=λA1(λA1λ1)(λA1λk)\begin{aligned} \tilde{p}\left(\lambda_{\mathbf{A}_{1}}\right)=\frac{\overline{\lambda_{\mathbf{A}_{1}}}}{\left(\lambda_{\mathbf{A}_{1}}-\lambda_{1}\right) \cdots\left(\lambda_{\mathbf{A}_{1}}-\lambda_{k}\right)}\end{aligned}

gilt für alle Eigenwerte λA1 \lambda_{A_{1}} von A1 \boldsymbol{A}_{1} . Unser letzendliches Polynom p1 p_{1} wird also die Form

p1(x)=(xλ1)(xλk)p~(x)\begin{aligned} p_{1}(x)=\left(x-\lambda_{1}\right) \cdots\left(x-\lambda_{k}\right) \tilde{p}(x)\end{aligned}

haben. Diesen Prozess wiederholen wir jetzt für alle übrigen Matrizen in M M , und unser finales Polynom wird dann einfach die Summe all jener sein, also

P(x)=i=1mpm(x).\begin{aligned} P(x)=\sum \limits_{i=1}^{m} p_{m}(x) .\end{aligned}

Avatar von 4,8 k

Schade, dass man nur einen Daumenhoch vergeben kann !

Eine kurze Frage. Kann sein, dass ich auf dem Schlauch stehe, aber ist die Diagonalisierung nicht so definiert, dass A=SDS*? Es müsste glaube ich für D D=S*AS gelten...

p1(x)=(xλ1)(xλk)p(x)\begin{aligned} p_{1}(x)=\left(x-\lambda_{1}\right) \cdots\left(x-\lambda_{k}\right) p(x)\end{aligned}

Die Idee ist hier, dass sobald wir irgendendeine andere Matrix als A1 A_{1} in p1 p_{1} Einsetzen, wir die Nullmatrix erhalten.

Wenn A1 A_ 1 und Ai A_i einen gemeinsamen Eigenwert μ0 \mu \neq 0 haben funktioniert diese Konstruktion nicht.

Wegen p1(Ai)=0 p_1(A_i) = 0 müsste p1(μ)=0 p_1(\mu) = 0 sein. Jetzt ist μλj \mu \neq \lambda_j also ist μˉ=p(μ)=0 \bar \mu = p(\mu) = 0 . Widerspruch.

@MatHaeMatician Ja, ich habe gesehen, es ist nicht richtig in diesem Fall, aber nicht aus dem Grund, welchen du nennst. Wenn A1A_1 und A2A_2 einen gemeinsamen Eigenwert haben, dann gilt p1(A2)0p_1(A_2) \neq 0 weil ich ja "von AA verschiedene Eigenwerte" geschrieben habe, also ist p1(D2)p_1(D_2) eine Diagonalmatrix, welche überall Null ausser bei den Gemeinsamen Eigenwerten hat. Dein Kommentar zeigt jedoch, dass die obige Methode leider nicht rektifiziert werden kann (ich habe wohl unterbewusst angenommen, die Matrizen hätten verschiedene Eigenwerte).

Ein anderes Problem?

Stell deine Frage