+1 Daumen
120 Aufrufe

Aufgabe:

Zeigen Sie, dass die Menge M = {(a,0 ; 0,b)} mit der Matrixmultiplikation eine abelsche Gruppe ist.

Ansatz: zz. I.Abgeschlossenheit , II. Assoziativität (x

*y)*z=x*(y*z), III. Neutralelement x*e=x , IV. Inverselement x∗y=e, V. Kommutativität x*y=y*x

Problem: Ich bin mir nicht so sicher, weil es eine Matrix ist.

von

Es ist nicht klar, woraus die Menge M besteht. Was genau sind die Elemente von M? Wie viele Elemente hat M? Was ist mit a und b gemeint?

M ist die Matrix. a,b element C, ab ungleich 0

M = (  a  0

          0  b  )

Was hat "1*u = u" mit Abgeschlossenheit zu tun?

wie zeige ich denn die abgeschlossenheit`?

1 Antwort

+2 Daumen
 
Beste Antwort

Es geht wohl um die Menge

$$ M = \left\{ \begin{pmatrix} \alpha & 0 \\ 0 & \beta \end{pmatrix} \mid \alpha, \beta \in \mathbb R \right\}. $$

Intuitiv: Das sind alle 2x2-Matrizen, deren Gegendiagonale nur Nulleinträge enthält.

Hier nur exemplarisch für die Matrizenaddition, du sollst es in diesem Fall aber für die Matrizenmultiplikation zeigen - das ist ein bisschen komplizierter, weil die Multiplikation von Matrizen nicht komponentenweise erfolgt. Aber das Prinzip ist dasselbe und wenn du das verstanden hast, kriegst du es mit der Multiplikation auch hin.

Wir zeigen: \((M, +)\) ist eine abelsche Gruppe.

Abgeschlossenheit: Seien \(\begin{pmatrix} \alpha_1 & 0 \\ 0 & \beta_1 \end{pmatrix}, \begin{pmatrix} \alpha_2 & 0 \\ 0 & \beta_2 \end{pmatrix} \in M\) mit \(\alpha_1, \alpha_2, \beta_1, \beta_2 \in \mathbb R\). Dann gilt auch

$$ \begin{pmatrix} \alpha_1 & 0 \\ 0 & \beta_1 \end{pmatrix} + \begin{pmatrix} \alpha_2 & 0 \\ 0 & \beta_2 \end{pmatrix} = \begin{pmatrix} \alpha_1 + \alpha_2 & 0 \\ 0 & \beta_1 + \beta_2 \end{pmatrix} \in M, $$

denn auch hier besteht die Gegendiagonale nur aus Nulleinträgen. Assoziativität und Kommutativität zeigt man dann ganz einfach durch Nachrechnen (im Grunde folgen beide Sachen sofort aus Assoziativität und Kommutativität in \((\mathbb R, +)\)). Dann noch Existenz des neutralen und inversen Elements:

Sei \(\begin{pmatrix} \alpha & 0 \\ 0 & \beta \end{pmatrix} \in M\) mit \(\alpha, \beta \in \mathbb R\).

Hier ist offensichtlich die Nullmatrix das neutrale Element, denn es gilt

$$\begin{pmatrix} \alpha & 0 \\ 0 & \beta \end{pmatrix} + \begin{pmatrix} 0 & 0 \\ 0 & 0 \end{pmatrix} = \begin{pmatrix} 0 & 0 \\ 0 & 0 \end{pmatrix} + \begin{pmatrix} \alpha & 0 \\ 0 & \beta \end{pmatrix} = \begin{pmatrix} \alpha & 0 \\ 0 & \beta \end{pmatrix}$$

und das inverse Element ist die Matrix, die die entsprechenden inversen Elemente (diese existieren in \(\mathbb R\)!) auf der Diagonale enthält:

$$ \begin{pmatrix} \alpha & 0 \\ 0 & \beta \end{pmatrix} + \begin{pmatrix} -\alpha & 0 \\ 0 & -\beta \end{pmatrix} = \begin{pmatrix} -\alpha & 0 \\ 0 & -\beta \end{pmatrix} + \begin{pmatrix} \alpha & 0 \\ 0 & \beta \end{pmatrix} = \begin{pmatrix} 0 & 0 \\ 0 & 0 \end{pmatrix}$$

Das sind alles keine Raketenwissenschaften. Aber wichtig ist es zu verstehen, wie man auf das neutrale und inverse Element kommt und das formal zeigt. Alles klar?

von

Ist das immer so, dass man die Nullmatrix für das Neutralelement verwendet soll ?

Kommt natürlich auf die Aufgabe an. Überleg dir halt, welche Matrix du mit einer gegebenen Matrix verknüpfen (hier addieren) musst, damit sich an der gegebenen Matrix nichts ändert. Addition von Matrizen heißt hier, dass wir einfach alle Einträge komponentenweise addieren. Das heißt, wenn ich eine Matrix addiere, die in allen Einträgen nur \(0\) enthält, ändert sich auch an den Einträgen der gegebenen Matrix nichts.

Ausführlicher:

$$ \begin{pmatrix} \alpha & 0 \\ 0 & \beta \end{pmatrix} + \begin{pmatrix} 0 & 0 \\ 0 & 0 \end{pmatrix} = \begin{pmatrix} \alpha + 0 & 0 + 0 \\ 0 + 0 & \beta + 0 \end{pmatrix} = \begin{pmatrix} \alpha & 0 \\ 0 & \beta \end{pmatrix} $$

Klar?

Aber: Ja. Wenn es um Matrizen mit der Verknüpfung der üblichen Addition geht, ist die Nullmatrix das neutrale Element.

Ich versteh nicht, wie man Assoziativität und Kommutativität in dem Kontext zeigen soll.

Ich zeige es dir jetzt nur mal für die Kommutativität: Du musst zeigen, dass es egal ist, in welcher Reihenfolge wir die Matrizen addieren. Hier:

\( \begin{align*} \begin{pmatrix} \alpha_1 & 0 \\ 0 & \beta_1 \end{pmatrix} + \begin{pmatrix} \alpha_2 & 0 \\ 0 & \beta_2 \end{pmatrix} &= \begin{pmatrix} \alpha_1 + \alpha_2 & 0 \\ 0 & \beta_1 + \beta_2 \end{pmatrix} \\ &= \begin{pmatrix} \alpha_2 + \alpha_1 & 0 \\ 0 & \beta_2 + \beta_1 \end{pmatrix} \\ &= \begin{pmatrix} \alpha_2 & 0 \\ 0 & \beta_2 \end{pmatrix} + \begin{pmatrix} \alpha_1 & 0 \\ 0 & \beta_1 \end{pmatrix} \end{align*}\)

Wir führen die Kommutativität auf die Kommutativität in \(\mathbb R\) zurück: Im zweiten Schritt können wir \( \alpha_1, \alpha_2 \) bzw. \( \beta_1, \beta_2 \) vertauschen, weil wir wissen, dass die Addition reeller Zahlen kommutativ ist.

Oben habe ich die erste Matrix links und die zweite Matrix rechts, unten die zweite Matrix links und die erste rechts: Und genau das ist Kommutativität. Die Matrizen waren beliebig, also ist die Addition von Matrizen dieser Menge kommutativ. Die Assoziativität geht jetzt ganz analog.

Die Nullmatrix als NE für die Matrixmultiplikation, interessant.

Danke @Larry. Lesen müsste man können.... habe meinen Beitrag mal editiert. Danke für deinen Hinweis.

\( (M \setminus \{0\}, \cdot) \) ist keine Gruppe. Zu zeigen ist, dass

$$ \left( M \setminus \left\{ \begin{pmatrix} a & 0 \\ 0 & b \end{pmatrix} ~\middle|~ a,b \in \mathbb{R}, ab \neq 0 \right\}, \cdot \right) $$

eine Gruppe ist.

\(\begin{pmatrix}0&0\\0&0\end{pmatrix} \in M \:\big\backslash \left \{    \begin{pmatrix}a&0\\0&b\end{pmatrix} : a,b \in \mathbb{C} \wedge ab \neq 0    \right \}
\)

Ich meine auch ab=0. Danke.

Ein anderes Problem?

Stell deine Frage

Willkommen bei der Mathelounge! Stell deine Frage sofort und kostenfrei

x
Made by a lovely community