+1 Daumen
605 Aufrufe

Hallo liebe Mathematiker,

ich hatte gestern eine Frage zur Fehlerfortpflanzung mit Korrelation gestellt. In der Antwort wurde geschrieben, dass das Fehlerfortpflanzungsgesetz für eine Messgröße f=f(x1,...,xN), die von mit N fehlerbehafteten Werten xi abhängt, lautet:

$$(\delta f)^2=\sum_{i=1}^N\sum_{j=1}^N\frac{\partial f}{\partial x_i}\frac{\partial f}{\partial x_j}\delta(x_i,x_j)$$Auf Wikipedia sieht das viel "schlimmer" aus:

$$u^2_y=\sum_{i=1}^m(\frac{\partial y}{\partial x_i}u_i)^2+2\sum_{i=1}^{m-1}\sum_{k=i+1}^m\frac{\partial y}{\partial x_i}\frac{\partial y}{\partial x_k}u(x_i,x_k)$$

Was stimmt denn nun? Und kann kann mir bitte jemand erklären, wieso die Fehlerfortpflanzung so funktioniert (auf Wikipedia fällt das ohne Beweis vom Himmel)?

Liebe Grüße

Eluna

Avatar von

2 Antworten

0 Daumen
 
Beste Antwort

Aloha :)

Im Folgenden betrachten wir eine Funktion \(f(x_1,x_2,\ldots,x_N)\), die von \(N\) Messwerten \(x_i\) abhängt. Wir tun so als würden wir alle \(N\) Messwerte \(n\)-Mal bestimmen und daraus jeweils einen Wert für \(f\) berechnen. Das heißt, wir haben \(N\) Messwerte und \(n\) Wiederholungen. Bitte das im Folgenden nicht durcheinander werfen.

Aus den \(n\) Wiederholungen erhalten wir die Ergebnisse \(\{f_1,f_2,\ldots,f_n\}\) und können daraus die Varianz berechnen:$$(\delta f)^2=\frac{1}{n-1}\sum\limits_{k=1}^n\left(f_k-\overline f\right)^2$$Gemäß des zentralen Grenzwertsatzes können wir die \(N\) Mittelwerte \(\overline x_i\) aus allen \(n\) Wiederholungen den realen Werten gleichsetzen. Weiter können wir für jede der \(n\) Wiederholungen die Funktion \(f(x_1,x_2,\ldots,x_N)\) durch eine Talyor-Reihe erster Ordnung um die Mittelwerte entwickeln: $$f_k(x_1,x_2,\ldots,x_N)=f_k(\overline x_1, \overline x_2, \ldots, \overline x_N)+\sum\limits_{i=1}^N\frac{\partial f}{\partial x_i}\left(x_{i,k}-\overline x_i\right)$$Hier bitte nicht durcheinander kommen. Der Index \(k\) zählt die \(n\) Wiederholungen, der Index \(i\) zählt die \(N\) Messwerte. Daher ist \(x_{i,k}\) der Messwert \(x_i\) bei der \(k\)-ten Wiederholung.

Das \(f_k(\overline x_1,\overline x_2,\ldots,\overline x_N)\) hat, weil wir für jede Wiederholung \(k\) immer dieselben Mittelwerte einsetzen, einen konstanten Wert, es ist der gesuchte Mittelwert \(\overline f\) der Funktion. Daher ist:$$f_k-\overline f=f_k(x_1,x_2,\ldots,x_N)-f_k(\overline x_1, \overline x_2, \ldots, \overline x_N)=\sum\limits_{i=1}^N\frac{\partial f}{\partial x_i}\left(x_{i,k}-\overline x_i\right)$$Das können wir oben einsetzen:$$(\delta f)^2=\frac{1}{n-1}\sum\limits_{k=1}^n\left(\sum\limits_{i=1}^N\frac{\partial f}{\partial x_i}\left(x_{i,k}-\overline x_i\right)\right)^2$$$$\phantom{(\delta f)^2}=\frac{1}{n-1}\sum\limits_{k=1}^n\left(\sum\limits_{i=1}^N\frac{\partial f}{\partial x_i}\left(x_{i,k}-\overline x_i\right)\sum\limits_{j=1}^N\frac{\partial f}{\partial x_j}\left(x_{j,k}-\overline x_j\right)\right)$$$$\phantom{(\delta f)^2}=\frac{1}{n-1}\sum\limits_{k=1}^n\left(\sum\limits_{i=1}^N\sum\limits_{j=1}^N\frac{\partial f}{\partial x_i}\frac{\partial f}{\partial x_j}\left(x_{i,k}-\overline x_i\right)\left(x_{j,k}-\overline x_j\right)\right)$$$$\phantom{(\delta f)^2}=\sum\limits_{i=1}^N\sum\limits_{j=1}^N\frac{\partial f}{\partial x_i}\frac{\partial f}{\partial x_j}\underbrace{\frac{1}{n-1}\sum\limits_{k=1}^n\left(x_{i,k}-\overline x_i\right)\left(x_{j,k}-\overline x_j\right)}_{=Cov\,(x_i,x_j)}$$$$(\delta f)^2=\sum\limits_{i=1}^N\sum\limits_{j=1}^N\frac{\partial f}{\partial x_i}\frac{\partial f}{\partial x_j}\,\delta(x_i,x_j)$$

Die Formel, die du aus Wikipedia zitiert hast, ist exakt dieselbe. Das siehst du, indem du zunächst aus der Doppelsumme die Terme mit \(i=j\) rausziehst:$$(\delta f)^2=\sum\limits_{i=1}^N\left(\frac{\partial f}{\partial x_i}\,\delta x_i\right)^2+\sum\limits_{i,j=1\;;\;i\ne j}^N\frac{\partial f}{\partial x_i}\frac{\partial f}{\partial x_j}\,\delta(x_i,x_j)$$Wegen der Symmetrie der Summanden in der zweiten Summe, braucht man nur die Terme \(j>i\) zu berechnen und kann danach das Ergebnis verdoppeln:$$(\delta f)^2=\sum\limits_{i=1}^N\left(\frac{\partial f}{\partial x_i}\,\delta x_i\right)^2+2\sum\limits_{i=1}^{N-1}\sum\limits_{j=i+1}^N\frac{\partial f}{\partial x_i}\frac{\partial f}{\partial x_j}\,\delta(x_i,x_j)$$

Avatar von 148 k 🚀

Wow! Danke dir sehr für diese Antwort.

Ich habe gerade sehr viel verstanden, unter anderem, dass die Varianz die quadratische Abweichung der Einzelmessung und nicht des Mittelwertes aus allen Einzelmessungen angibt. Als mir das klar wurde, konnte ich alles andere nachvollziehen.

Nochmal vielen Dank für zwei Aha-Effekte und natürlich ein Daumen hoch...

Liebe Grüße

Eluna

0 Daumen

Hi, Du kannst $$  f(x + \Delta x ) $$ in eine Taylorreihe erster Ordnung entwicklen als Approximation. Das sieht dann so aus

$$  \delta(f) = f( x + \Delta x ) - f(x) = \text{grad(f)}^t \cdot \Delta x  $$ Daraus folgt

$$ (1) \quad \delta(f)^2 =  \text{grad(f)}^t \cdot \Delta x \Delta x^t \cdot \text{grad(f)} $$ Der Erwartungswert von \( delta(f) \) ist dann

$$  (2) \quad \text{E} \delta(f)^2 = \text{grad(f)}^t \cdot \text{Cov} (\Delta x) \cdot \text{grad(f)}  $$ und das entspricht Deinem ersten Ausdruck.

Der zweite Ausdruck entspricht dem auch, weil die Kovarianzmatix symmetrisch ist und die Diagonalelemente entsprechen Deinem ersten Summe Term von (2)

Avatar von 39 k

Hallo ullim,

vielen Dank für deine Antwort. Ich verstehe das fast schon ein bisschen. Allerdings ist mir nicht klar, wie du von \(\Delta x\Delta x^t\) plötzlich auf \(Cov(\Delta x)\) kommst. Die Kovarianz muss doch zwischen 2 Größen bestehen, oder?

Ich muss wohl einfach nochmal drüber nachdenken...

Machen wirs mal für den zweidimensionalen Fall

$$ \delta (f) = f(x,\Delta x , y + \Delta y ) - f(x,y) \approx \frac{\partial f}{\partial x} \Delta x + \frac{\partial f}{\partial y} \Delta y  = \text{grad}(f)^t \begin{pmatrix} \Delta x \\ \Delta y \end{pmatrix} $$ mit $$ \text{grad}(f) = \begin{pmatrix} \frac{\partial f}{\partial x} \\ \frac{\partial f}{\partial y} \end{pmatrix} $$ daraus folgt

$$ \delta (f)^2 = \text{grad}(f)^t \begin{pmatrix} \Delta x \\ \Delta y \end{pmatrix} \left( \text{grad}(f)^t \begin{pmatrix} \Delta x \\ \Delta y \end{pmatrix} \right)^t = \\ \text{grad}(f)^t \begin{pmatrix} \Delta x \\ \Delta y \end{pmatrix} \begin{pmatrix} \Delta x \\ \Delta y \end{pmatrix}^t \text{grad}(f) = \\ \text{grad}(f)^t  \begin{pmatrix} \Delta x^2 & \Delta x \Delta y \\ \Delta x \Delta y & \Delta y^2 \end{pmatrix}  \text{grad}(f) $$ Jetzt den Erwartungswert bilden ergibt

$$ \text{E} \left( \delta (f)^2 \right) = \text{grad}(f)^t \cdot \text{E} \begin{pmatrix} \Delta x^2 & \Delta x \Delta y \\ \Delta x \Delta y & \Delta y^2 \end{pmatrix} \cdot \text{grad}(f) =  \\ \text{grad}(f)^t   \begin{pmatrix} \sigma_x^2 & \sigma_{xy} \\ \sigma_{xy} & \sigma_y^2 \end{pmatrix}  \text{grad}(f)  = \\ \text{grad}(f)^t  \cdot \text{Cov} (\Delta x, \Delta y)  \cdot \text{grad}(f) $$

Und das ausmultipliziert ergibt

$$ (1) \quad \text{E} \left( \delta (f)^2 \right) = \left( \frac{\partial f}{\partial x} \sigma_x \right)^2 + \left( \frac{\partial f}{\partial y} \sigma_y \right)^2 +  2 \frac{\partial f}{\partial x} \frac{\partial f}{\partial y} \sigma_{xy} $$

Das verglichen mit folgendem ergibt

$$  (\delta f)^2=\sum_{i=1}^2 \sum_{j=1}^2 \frac{\partial f}{\partial x_i}\frac{\partial f}{\partial x_j}\delta(x_i,x_j) = \\ f_{x_1} f_{x_1} \delta(x_1, x_1) + f_{x_1} f_{x_2} \delta(x_1, x_2) + f_{x_2} f_{x_1} \delta(x_2, x_1) + f_{x_2} f_{x_2} \delta(x_2, x_2) $$ und das ist das gleiche wie (1) weil gilt  \( \delta(x_1, x_2)  = \delta(x_2, x_1) \) und mit den Abkürzungen \( f_x = \frac{\partial f}{\partial x} \) und \( f_y = \frac{\partial f}{\partial y} \)

So, nun noch der zweite Ausdruck

$$ u^2_y=\sum_{i=1}^2 (\frac{\partial y}{\partial x_i}u_i)^2+2\sum_{i=1}^{2-1}\sum_{k=i+1}^2 \frac{\partial y}{\partial x_i}\frac{\partial y}{\partial x_k}u(x_i,x_k) =  \\ \left( \frac{\partial y}{\partial x_1}u_1 \right)^2 + \left( \frac{\partial y}{\partial x_2}u_2 \right)^2 + 2 \frac{\partial y}{\partial x_1} \frac{\partial y}{\partial x_2} u(x_1, x_2) $$ und das ist ebenfalls das gleiche wie (1) wenn man bedenkt das gilt

$$ u(x_i, x_k) = \delta(x_i,x_k) $$ und $$  \sigma_{xy} = u(x_1,x_2) = \delta(x_1,x_2) $$ sowie $$ \sigma_x^2 = u_1^2 = \delta(x_1,x_1) $$ und $$ \sigma_y^2 = u_2^2 = \delta(x_2,x_2)  $$

Das kann man dann auch noch auf mehrere Variablen erweitern.

\( x \) und \( \Delta x\) waren als Vektoren gemeint.

Danke dir und Daumen hoch für die sehr ausführliche Erklärung.

Ich konnte das jetzt halbwegs nachvollziehen. Mir ist nur noch nicht ganz klar, warum der Erwartungswert der Varianz verwendet wird. Das macht für mich irgendwie keinen Sinn. Aber wichtig ist schon mal, dass die Formeln übereinstimmen. Das habe ich verstanden :)

\( \delta(f)^2 \) ist die mittelwertfreie quadratische stochastische Abweichung und damit ist der Erwartungswert von \( \delta(f)^2 \) die Varianz. Und das kommt daher, weil \( \Delta x \) stochastische Größen und nicht deterministische Größen sind.

Ein anderes Problem?

Stell deine Frage

Willkommen bei der Mathelounge! Stell deine Frage einfach und kostenlos

x
Made by a lovely community