Zwei Vektoren x und y sind genau dann linear abhängig, wenn es Skalare a1,a2 gibt, die nicht beide 0 sind und für die a1*x und a2*y = 0 gilt.
Das und ist wohl ein +
a1*x + a2*y = 0
Da einer der Skalare nicht 0 ist (sagen wir mal a1)
hat man x = -a2/a1 * y
oder kurz: Es gibt einen Skalar c mit
x = c*y ==> (x1, . . . , xn)t = c *(y1, . . . , yn)t = (c*y1, . . . , c*yn)t
Wenn du jetzt 2 Indizes i und j rauspickst, ist die Matrix
(xixjyiyj)=(xixjc∗xic∗xj)
Also die Determinate xi∗c∗xj−c∗xi∗xj=0
Umgekehrt, wenn alle diese Determinanten 0 sind kann man wohl so argumentieren:
Da x nicht der Nullvektor ist, gibt es jedenfalls eine
Komponente ( sagen wir mal x1 ) die nicht 0 ist.
Betrachte nun zwei Indizes i, j ( beide nicht 1 ) und die
Determinanten (x1xjy1yj)und(x1xiy1yi)
Beide sind 0 , also gilt x1∗yj=y1∗xj und x1∗yi=y1∗xi
Da x1 nicht 0 ist :
==> yj=x1y1∗xj und yi=x1y1∗xi
Weil das für alle i,j gilt ist also c=x1y1 ein Faktor c,
für den gilt y = c*x , also sind x und y lin. abhängig .