+1 Daumen
602 Aufrufe

Es seien V und W zwei K-Vektorräume, φ : V → W eine lineare Abbildung, W' ein Untervektorraum von W und V' ein Untervektorraum von V . Zeigen Sie, dass φ(V') ein Untervektorraum von W und φ−1(W') ein Untervektorraum von V ist.


Mein Ansatz war:

V', W' ≠ {}

u', v' ∈ V: u=f(u'), v= f(v')

-> u' + v' ∈ V

-> f(u' + v') = f(u') + f(v') = u+v


Aber dadurch ist nichts bewiesen.

Avatar von

1 Antwort

0 Daumen

Hallo

 am einfachsten du gibst eine Basis von V' vor, Basis von V: b1 bis bn

Basis von V' c1 bis cm m<=n für echten UR m<n

dann zeigen, dass du maximal m lin unabhängig Vektoren in f(V') hast  also Unterraum von U. usw.

Gruß lul

Avatar von 106 k 🚀

Ein anderes Problem?

Stell deine Frage

Willkommen bei der Mathelounge! Stell deine Frage einfach und kostenlos

x
Made by a lovely community