0 Daumen
798 Aufrufe

Ich habe eine Aufgabe bei der ich zeigen soll, dass:

a. die Matrizenmultiplikation zweier Elemente von M stets ein Element von M liefert.

b. M mit der Matrizenmultiplikation als Verknüpfung eine Gruppe bildet.


Hier ist das Matrix:

blob.png

für eure Hilfe

Avatar von

  Vollkommen unverständlich;  von Was sind das  Matrizen?  Und was soll überhaupt M sein?

Also da unten steht das Matrix M

Hier ist die komplette Aufgabe:

blob.png

2 Antworten

0 Daumen

Hallo

 M :die Menge der 2 x 2 Matrizen mit a21=0

dann multipliziere einfach 2 solche, mal mit a1b1c1, mal mit a2b2c2, das ist alles.

wenn du das hast, hast du ja schon dass M1*M2 in M liegt. du brauchst noch ein 1 Element E mit E*M=M

 und zu jedem Mi ein Inverses.

die musst du halt herstellen.

gruß lul

Avatar von 106 k 🚀

Also bei der Aufgabe A, ich muss einfach MxM rechnen?

Danach? Wie kann M1*M2 in M liegt?

und was ist diese "ein Element von M"?

0 Daumen

  Zu  a)  Die Gestalt der Inversen   A  ^ -  1  ist dir bereits vorgegfben.  Alles was von dir verlangt wird, ist die reine Fleißarbeit,  per Matrizenmultiplikation  (  "  Matmul  "  )  zu zeigen


        A  ^ -  1  A  =  1|       (  1  )


      Gleichwohl will ich dich aber nicht dumm sterben lassen; wie berechnet man die Inverse einer  2  X  2  Matrix?

   " Unn da stellermer oons janz domm, unne sagemer so:  "

    JEDE  MATRIX  LÖST  IHRE EIGENE  SÄKULARDETERMINANTE  (  SD  ) .

   Für diagonalisierbare Matrizen folgt das ja  trivial; aber es gilt eben allgemein. Und wie man die  SD einer  2 X 2 Matrix   bestimmt,  das wird in den Büchern eben auch immer so Mega kompliziert erklärt.   Wir machen den quadratischen Ansatz


    f_A  (  x  )  =  x  ²  -  p  x  +  q       (  2a  )


     Und was ist  p  und  q  ?   Vieta das geschmähte Stiefkind; mit den beiden Eigenwerten ergibt sich


         p  =  E1  +  E2  =  Sp  (  A  )  =  a  +  b     (  2b  )

         q  =  E1  E2  =  det  (  A  )  =  a  b    (  2c  )

       f_A  (  x  )  =  x  ²  -  (  a  +  b  )  x  +  a  b      (  3a  )


         Jetzt  ganz  frech  Matrix A  einsetzen in sein Eigenwertpolynom


      A  ²  -  (  a  +  b  )  A  +  a  b  *  1|  =  0     |   *  A  ^ - 1   ( 3b )

     A  -  (  a  +  b  )  *  1|  +  a  b  A  ^ - 1  =  0    (  3c  )


     Jetzt alles nach der Inversen umstellen


        A  ^ -  1  =  ( 1 / a b )  [  (  a  +  b  )  *  1|  -  A  ]     (  4  )


    Zugegeben;  es ist ein bissele tricky.   Aber ich halte es für eine gute Übung nachzurechnen, dass ( 4 )  mit der Vorgabe von Herrn  Professor überein stimmt.

   So; jetzt kennste wenisten ein Kochrezept, um dir deine Inversen selber zu schnitzen.

   Zu  b)  ;  du das ist Faust dick aufgetragen.  Schauen wir uns doch mal diese A_Matrizen näher an:



                     a1     c1                             a2        c2

    A1    =        0      b1        ;  A2    =       0           b2       (  5  )



    Die  Spalten   einer Matrix sind doch die Bilder der kanonischen Einheitsvektoren.   Und gleich   Einheitsvektor  e1  stellt sich heraus als  GEMEINSAMER  EIGENVEKTOR   dieser ganzen Matrizenschar.   So hat A1  Eigenwert  a1 und  Matrix  A2  Eigenwert  a2  .   Dann folgt aber trivial für  A3 := A1 A2  der Produkteigenwert  E_A3  =   a3  =  a1  a2  .

    MEHR IST NICHT ZU ZEIGEN ;  denn c1  und b1  waren ja als ganz beliebig angenommen -  eine  gegenseitige Abhängigkeit dieser  Matrixelemente besteht nicht .

   Was  bleibt noch unter c) zu beweisen?  Abgeschlossenheit hatten wir eben schon.  Die  Einheitsmatrix  ( neutrales Element  )   bekommst du für  a  =  b  =  1  ;  c  =  0

   Dass jedes  A  eine Inverse hat, wissen wir auch schon.  Streng genommen ist noch zu zeigen, dass A  ^ -  1  €  M  .  doch das erledigt sich von Selber;  wenn alle Matrizen der Schar den selben Eigenvektor haben, trifft dies auch zu auf ihre Inversen; und der Eigenwert der Inversen ist das Reziproke.

Avatar von 5,5 k

Ein anderes Problem?

Stell deine Frage

Willkommen bei der Mathelounge! Stell deine Frage einfach und kostenlos

x
Made by a lovely community