0 Daumen
924 Aufrufe

Ich sitze schon ewig an dieser Aufgabe und stehe auf dem Schlauch, ich komme einfach nicht auf einen Ansatz, wie ich das zeigen soll...

Aufgabe:

         Es sei A ∈ ℝ2x2  eine orthogonale Matrix und {b1,b2} eine Orthonormalbasis des R2. 

          Zeigen Sie, dass auch {A · b1 , A · b2 } eine Orthonormalbasis des R2 ist. 

Avatar von

1 Antwort

+1 Daumen

Hi,

Orthogonalität

(1)<Ab1,Ab2>=<b1,ATAb2>=<b1,b2>=0 (1) \quad <Ab_1 , Ab_2> = <b_1 , A^TAb_2> =<b_1,b_2>=0

Normiertheit

(2)<Abi,Abi>=<bi,ATAbi>=<bi,bi>=1 (2) \quad <Ab_i,Ab_i> = <b_i,A^TAb_i> = <b_i,b_i>=1

Lineareunabhängigkeit

(3)0=λ1Abi+λ1Abi=A(λ1bi+λ1bi)λi=0 (3) \quad 0 = \lambda_1 A b_i + \lambda_1 A b_i = A ( \lambda_1 b_i + \lambda_1 b_i ) \Rightarrow \lambda_i = 0

Avatar von 39 k

Ein anderes Problem?

Stell deine Frage