Jeder Punkt auf soll Näherungsweise durch eine Gerade angenähert werden. Das kann aber i.A. nicht exakt passieren, sondern es treten Fehler auf. Das Modell lautet also
ϵi=a0+a1ti−zi und die Summe der quadratischen Anpassungsfehler ϵi soll minimiert werden.
Man hat also ein Problem der folgenden Form zu lösen
∥∥∥∥∥∥∥⎝⎛1⋯1t1⋯tn⎠⎞(a0a1)−⎝⎛z1⋯zn⎠⎞∥∥∥∥∥∥∥2→ Minimieren oder in Matrixschreibweise ∥Ax−z∥2→ Minimieren
Dabei gilt A=⎝⎛1⋯1t1⋯tn⎠⎞, x=(a0a1) und b=⎝⎛z1⋯zn⎠⎞
Die Lösung für x ist x=(ATA)−1ATb
Jetzt muss man die Größen ti und zi bestimmen, also zu welchem Zeitpunkt ist welche Messung gemacht worden und alles einsetzen und ausrechnen.