0 Daumen
873 Aufrufe

Aufgabe:Sei f : ]1, ∞[ → R gegeben durch f(x) := ln(x). Beweisen Sie die folgende Ungleichung
(x − 1 −(x − 1)^2)/2< ln(x) < x − 1, für x ∈ ]1, ∞[.
a) mit Hilfe der Taylorpolynome T1(x) und T2(x) mit Entwicklungspunkt x0 = 1


Problem/Ansatz:

Nach dem ich T1 und R1 aufgestellt hab, weiß ich leider nicht weiter bei der Fehlbestimmung

Kann mir hier jemand helfen?

Avatar von

1 Antwort

0 Daumen

f ist doch wohl für ]0,∞[ definiert, sonst macht das doch keinen Sinn.

T1(x) = f(1) + f ' (1) (x-1) = ln(1) + 1*(x-1) = x-1 .

Und wenn R1(x) das Restglied ist musst du doch nur zeigen R1(x)>0

für alle x ∈ ]1, ∞[. und wegen f(x) = T1(x) + R1(x)

folgt dann  f(x) < T1(x) = x-1.

Damit hast du die eine Hälfte der Ungleichung.

Die andere dann entsprechend mit T2.

Avatar von 288 k 🚀

Ein anderes Problem?

Stell deine Frage

Willkommen bei der Mathelounge! Stell deine Frage einfach und kostenlos

x
Made by a lovely community