+1 Daumen
1,1k Aufrufe

Hallo liebe Mathematiker,

ich hatte gestern eine Frage zur Fehlerfortpflanzung mit Korrelation gestellt. In der Antwort wurde geschrieben, dass das Fehlerfortpflanzungsgesetz für eine Messgröße f=f(x1,...,xN), die von mit N fehlerbehafteten Werten xi abhängt, lautet:

(δf)2=i=1Nj=1Nfxifxjδ(xi,xj)(\delta f)^2=\sum_{i=1}^N\sum_{j=1}^N\frac{\partial f}{\partial x_i}\frac{\partial f}{\partial x_j}\delta(x_i,x_j)Auf Wikipedia sieht das viel "schlimmer" aus:

uy2=i=1m(yxiui)2+2i=1m1k=i+1myxiyxku(xi,xk)u^2_y=\sum_{i=1}^m(\frac{\partial y}{\partial x_i}u_i)^2+2\sum_{i=1}^{m-1}\sum_{k=i+1}^m\frac{\partial y}{\partial x_i}\frac{\partial y}{\partial x_k}u(x_i,x_k)

Was stimmt denn nun? Und kann kann mir bitte jemand erklären, wieso die Fehlerfortpflanzung so funktioniert (auf Wikipedia fällt das ohne Beweis vom Himmel)?

Liebe Grüße

Eluna

Avatar von

2 Antworten

0 Daumen
 
Beste Antwort

Aloha :)

Im Folgenden betrachten wir eine Funktion f(x1,x2,,xN)f(x_1,x_2,\ldots,x_N), die von NN Messwerten xix_i abhängt. Wir tun so als würden wir alle NN Messwerte nn-Mal bestimmen und daraus jeweils einen Wert für ff berechnen. Das heißt, wir haben NN Messwerte und nn Wiederholungen. Bitte das im Folgenden nicht durcheinander werfen.

Aus den nn Wiederholungen erhalten wir die Ergebnisse {f1,f2,,fn}\{f_1,f_2,\ldots,f_n\} und können daraus die Varianz berechnen:(δf)2=1n1k=1n(fkf)2(\delta f)^2=\frac{1}{n-1}\sum\limits_{k=1}^n\left(f_k-\overline f\right)^2Gemäß des zentralen Grenzwertsatzes können wir die NN Mittelwerte xi\overline x_i aus allen nn Wiederholungen den realen Werten gleichsetzen. Weiter können wir für jede der nn Wiederholungen die Funktion f(x1,x2,,xN)f(x_1,x_2,\ldots,x_N) durch eine Talyor-Reihe erster Ordnung um die Mittelwerte entwickeln: fk(x1,x2,,xN)=fk(x1,x2,,xN)+i=1Nfxi(xi,kxi)f_k(x_1,x_2,\ldots,x_N)=f_k(\overline x_1, \overline x_2, \ldots, \overline x_N)+\sum\limits_{i=1}^N\frac{\partial f}{\partial x_i}\left(x_{i,k}-\overline x_i\right)Hier bitte nicht durcheinander kommen. Der Index kk zählt die nn Wiederholungen, der Index ii zählt die NN Messwerte. Daher ist xi,kx_{i,k} der Messwert xix_i bei der kk-ten Wiederholung.

Das fk(x1,x2,,xN)f_k(\overline x_1,\overline x_2,\ldots,\overline x_N) hat, weil wir für jede Wiederholung kk immer dieselben Mittelwerte einsetzen, einen konstanten Wert, es ist der gesuchte Mittelwert f\overline f der Funktion. Daher ist:fkf=fk(x1,x2,,xN)fk(x1,x2,,xN)=i=1Nfxi(xi,kxi)f_k-\overline f=f_k(x_1,x_2,\ldots,x_N)-f_k(\overline x_1, \overline x_2, \ldots, \overline x_N)=\sum\limits_{i=1}^N\frac{\partial f}{\partial x_i}\left(x_{i,k}-\overline x_i\right)Das können wir oben einsetzen:(δf)2=1n1k=1n(i=1Nfxi(xi,kxi))2(\delta f)^2=\frac{1}{n-1}\sum\limits_{k=1}^n\left(\sum\limits_{i=1}^N\frac{\partial f}{\partial x_i}\left(x_{i,k}-\overline x_i\right)\right)^2(δf)2=1n1k=1n(i=1Nfxi(xi,kxi)j=1Nfxj(xj,kxj))\phantom{(\delta f)^2}=\frac{1}{n-1}\sum\limits_{k=1}^n\left(\sum\limits_{i=1}^N\frac{\partial f}{\partial x_i}\left(x_{i,k}-\overline x_i\right)\sum\limits_{j=1}^N\frac{\partial f}{\partial x_j}\left(x_{j,k}-\overline x_j\right)\right)(δf)2=1n1k=1n(i=1Nj=1Nfxifxj(xi,kxi)(xj,kxj))\phantom{(\delta f)^2}=\frac{1}{n-1}\sum\limits_{k=1}^n\left(\sum\limits_{i=1}^N\sum\limits_{j=1}^N\frac{\partial f}{\partial x_i}\frac{\partial f}{\partial x_j}\left(x_{i,k}-\overline x_i\right)\left(x_{j,k}-\overline x_j\right)\right)(δf)2=i=1Nj=1Nfxifxj1n1k=1n(xi,kxi)(xj,kxj)=Cov(xi,xj)\phantom{(\delta f)^2}=\sum\limits_{i=1}^N\sum\limits_{j=1}^N\frac{\partial f}{\partial x_i}\frac{\partial f}{\partial x_j}\underbrace{\frac{1}{n-1}\sum\limits_{k=1}^n\left(x_{i,k}-\overline x_i\right)\left(x_{j,k}-\overline x_j\right)}_{=Cov\,(x_i,x_j)}(δf)2=i=1Nj=1Nfxifxjδ(xi,xj)(\delta f)^2=\sum\limits_{i=1}^N\sum\limits_{j=1}^N\frac{\partial f}{\partial x_i}\frac{\partial f}{\partial x_j}\,\delta(x_i,x_j)

Die Formel, die du aus Wikipedia zitiert hast, ist exakt dieselbe. Das siehst du, indem du zunächst aus der Doppelsumme die Terme mit i=ji=j rausziehst:(δf)2=i=1N(fxiδxi)2+i,j=1  ;  ijNfxifxjδ(xi,xj)(\delta f)^2=\sum\limits_{i=1}^N\left(\frac{\partial f}{\partial x_i}\,\delta x_i\right)^2+\sum\limits_{i,j=1\;;\;i\ne j}^N\frac{\partial f}{\partial x_i}\frac{\partial f}{\partial x_j}\,\delta(x_i,x_j)Wegen der Symmetrie der Summanden in der zweiten Summe, braucht man nur die Terme j>ij>i zu berechnen und kann danach das Ergebnis verdoppeln:(δf)2=i=1N(fxiδxi)2+2i=1N1j=i+1Nfxifxjδ(xi,xj)(\delta f)^2=\sum\limits_{i=1}^N\left(\frac{\partial f}{\partial x_i}\,\delta x_i\right)^2+2\sum\limits_{i=1}^{N-1}\sum\limits_{j=i+1}^N\frac{\partial f}{\partial x_i}\frac{\partial f}{\partial x_j}\,\delta(x_i,x_j)

Avatar von 153 k 🚀

Wow! Danke dir sehr für diese Antwort.

Ich habe gerade sehr viel verstanden, unter anderem, dass die Varianz die quadratische Abweichung der Einzelmessung und nicht des Mittelwertes aus allen Einzelmessungen angibt. Als mir das klar wurde, konnte ich alles andere nachvollziehen.

Nochmal vielen Dank für zwei Aha-Effekte und natürlich ein Daumen hoch...

Liebe Grüße

Eluna

0 Daumen

Hi, Du kannst f(x+Δx) f(x + \Delta x ) in eine Taylorreihe erster Ordnung entwicklen als Approximation. Das sieht dann so aus

δ(f)=f(x+Δx)f(x)=grad(f)tΔx \delta(f) = f( x + \Delta x ) - f(x) = \text{grad(f)}^t \cdot \Delta x Daraus folgt

(1)δ(f)2=grad(f)tΔxΔxtgrad(f) (1) \quad \delta(f)^2 = \text{grad(f)}^t \cdot \Delta x \Delta x^t \cdot \text{grad(f)} Der Erwartungswert von delta(f) delta(f) ist dann

(2)Eδ(f)2=grad(f)tCov(Δx)grad(f) (2) \quad \text{E} \delta(f)^2 = \text{grad(f)}^t \cdot \text{Cov} (\Delta x) \cdot \text{grad(f)} und das entspricht Deinem ersten Ausdruck.

Der zweite Ausdruck entspricht dem auch, weil die Kovarianzmatix symmetrisch ist und die Diagonalelemente entsprechen Deinem ersten Summe Term von (2)

Avatar von 39 k

Hallo ullim,

vielen Dank für deine Antwort. Ich verstehe das fast schon ein bisschen. Allerdings ist mir nicht klar, wie du von ΔxΔxt\Delta x\Delta x^t plötzlich auf Cov(Δx)Cov(\Delta x) kommst. Die Kovarianz muss doch zwischen 2 Größen bestehen, oder?

Ich muss wohl einfach nochmal drüber nachdenken...

Machen wirs mal für den zweidimensionalen Fall

δ(f)=f(x,Δx,y+Δy)f(x,y)fxΔx+fyΔy=grad(f)t(ΔxΔy) \delta (f) = f(x,\Delta x , y + \Delta y ) - f(x,y) \approx \frac{\partial f}{\partial x} \Delta x + \frac{\partial f}{\partial y} \Delta y = \text{grad}(f)^t \begin{pmatrix} \Delta x \\ \Delta y \end{pmatrix} mit grad(f)=(fxfy) \text{grad}(f) = \begin{pmatrix} \frac{\partial f}{\partial x} \\ \frac{\partial f}{\partial y} \end{pmatrix} daraus folgt

δ(f)2=grad(f)t(ΔxΔy)(grad(f)t(ΔxΔy))t=grad(f)t(ΔxΔy)(ΔxΔy)tgrad(f)=grad(f)t(Δx2ΔxΔyΔxΔyΔy2)grad(f) \delta (f)^2 = \text{grad}(f)^t \begin{pmatrix} \Delta x \\ \Delta y \end{pmatrix} \left( \text{grad}(f)^t \begin{pmatrix} \Delta x \\ \Delta y \end{pmatrix} \right)^t = \\ \text{grad}(f)^t \begin{pmatrix} \Delta x \\ \Delta y \end{pmatrix} \begin{pmatrix} \Delta x \\ \Delta y \end{pmatrix}^t \text{grad}(f) = \\ \text{grad}(f)^t \begin{pmatrix} \Delta x^2 & \Delta x \Delta y \\ \Delta x \Delta y & \Delta y^2 \end{pmatrix} \text{grad}(f) Jetzt den Erwartungswert bilden ergibt

E(δ(f)2)=grad(f)tE(Δx2ΔxΔyΔxΔyΔy2)grad(f)=grad(f)t(σx2σxyσxyσy2)grad(f)=grad(f)tCov(Δx,Δy)grad(f) \text{E} \left( \delta (f)^2 \right) = \text{grad}(f)^t \cdot \text{E} \begin{pmatrix} \Delta x^2 & \Delta x \Delta y \\ \Delta x \Delta y & \Delta y^2 \end{pmatrix} \cdot \text{grad}(f) = \\ \text{grad}(f)^t \begin{pmatrix} \sigma_x^2 & \sigma_{xy} \\ \sigma_{xy} & \sigma_y^2 \end{pmatrix} \text{grad}(f) = \\ \text{grad}(f)^t \cdot \text{Cov} (\Delta x, \Delta y) \cdot \text{grad}(f)

Und das ausmultipliziert ergibt

(1)E(δ(f)2)=(fxσx)2+(fyσy)2+2fxfyσxy (1) \quad \text{E} \left( \delta (f)^2 \right) = \left( \frac{\partial f}{\partial x} \sigma_x \right)^2 + \left( \frac{\partial f}{\partial y} \sigma_y \right)^2 + 2 \frac{\partial f}{\partial x} \frac{\partial f}{\partial y} \sigma_{xy}

Das verglichen mit folgendem ergibt

(δf)2=i=12j=12fxifxjδ(xi,xj)=fx1fx1δ(x1,x1)+fx1fx2δ(x1,x2)+fx2fx1δ(x2,x1)+fx2fx2δ(x2,x2) (\delta f)^2=\sum_{i=1}^2 \sum_{j=1}^2 \frac{\partial f}{\partial x_i}\frac{\partial f}{\partial x_j}\delta(x_i,x_j) = \\ f_{x_1} f_{x_1} \delta(x_1, x_1) + f_{x_1} f_{x_2} \delta(x_1, x_2) + f_{x_2} f_{x_1} \delta(x_2, x_1) + f_{x_2} f_{x_2} \delta(x_2, x_2) und das ist das gleiche wie (1) weil gilt  δ(x1,x2)=δ(x2,x1) \delta(x_1, x_2) = \delta(x_2, x_1) und mit den Abkürzungen fx=fx f_x = \frac{\partial f}{\partial x} und fy=fy f_y = \frac{\partial f}{\partial y}

So, nun noch der zweite Ausdruck

uy2=i=12(yxiui)2+2i=121k=i+12yxiyxku(xi,xk)=(yx1u1)2+(yx2u2)2+2yx1yx2u(x1,x2) u^2_y=\sum_{i=1}^2 (\frac{\partial y}{\partial x_i}u_i)^2+2\sum_{i=1}^{2-1}\sum_{k=i+1}^2 \frac{\partial y}{\partial x_i}\frac{\partial y}{\partial x_k}u(x_i,x_k) = \\ \left( \frac{\partial y}{\partial x_1}u_1 \right)^2 + \left( \frac{\partial y}{\partial x_2}u_2 \right)^2 + 2 \frac{\partial y}{\partial x_1} \frac{\partial y}{\partial x_2} u(x_1, x_2) und das ist ebenfalls das gleiche wie (1) wenn man bedenkt das gilt

u(xi,xk)=δ(xi,xk) u(x_i, x_k) = \delta(x_i,x_k) und σxy=u(x1,x2)=δ(x1,x2) \sigma_{xy} = u(x_1,x_2) = \delta(x_1,x_2) sowie σx2=u12=δ(x1,x1) \sigma_x^2 = u_1^2 = \delta(x_1,x_1) und σy2=u22=δ(x2,x2) \sigma_y^2 = u_2^2 = \delta(x_2,x_2)

Das kann man dann auch noch auf mehrere Variablen erweitern.

x x und Δx \Delta x waren als Vektoren gemeint.

Danke dir und Daumen hoch für die sehr ausführliche Erklärung.

Ich konnte das jetzt halbwegs nachvollziehen. Mir ist nur noch nicht ganz klar, warum der Erwartungswert der Varianz verwendet wird. Das macht für mich irgendwie keinen Sinn. Aber wichtig ist schon mal, dass die Formeln übereinstimmen. Das habe ich verstanden :)

δ(f)2 \delta(f)^2 ist die mittelwertfreie quadratische stochastische Abweichung und damit ist der Erwartungswert von δ(f)2 \delta(f)^2 die Varianz. Und das kommt daher, weil Δx \Delta x stochastische Größen und nicht deterministische Größen sind.

Ein anderes Problem?

Stell deine Frage