0 Daumen
906 Aufrufe

f(x)= x·e1/x. Bestimmen Sie eine Fehlerabschätzung für |f(x1) - T2 (x1)|. x1=0,9. Könnte mir jemand einen Ansatz geben für die Aufgabe. Soll ich einfach das Restglied berechnen? In meinem Skript ist einfach nur der Beweis angegeben für f(x)= Tn (x) + Rn (x), jedoch keine Beispiele für das Abschätzen.

Avatar von

Wie ist Tn(x) definiert?

Als das n-te Taylorpolynom von f

Mit Entwicklungsstelle x0 = 1 vermutlich?

Ja x_0 =1. Sry, hab ich vergessen zu erwähnen

Für die Berechnung von T_2 und die Bearbeitung von R_2 wirst Du die 3 ersten Ableitungen von f benötigen. Die könntest Du doch mal hier bereitstellen.

Ist denn die explizite Berechnung von T2 tatsächlich erforderlich?

Nein, aber die Ableitungen braucht man für R_2.

1 Antwort

0 Daumen

Korrektur

R2 bestimmen und max |R2| im Intervall (0.9,1) als Abschätzung

Hallo

einfach R3 bestimmen und für ζ den maximalen Wert in (xo,x1) nehmen

lul

Avatar von 108 k 🚀

Hoffentlich steht in FS's Skript nicht theta statt zeta

Nein. Es geht um R_2, nicht um R_3, und |R_2| muss maximal werden (nicht zeta, theta, oder....).

Danke Nudger, ich hab meine Antwort korrigiert.

lul

Ein anderes Problem?

Stell deine Frage