0 Daumen
115 Aufrufe

Aufgabe:

Ich benötige bitte Hilfe mit dem Vorgehen! Dankeschön im Voraus.

Text erkannt:

Sei \( f:] 0, \infty[\rightarrow \mathbb{R} \) gegeben durch \( f(x):=\ln (1+x) \). Beweisen Sie die folgende Ungleichung
$$ \left.x-\frac{x^{2}}{2}<\ln (1+x)<x, \text { für } x \in\right] 0, \infty[ $$
a) mit Hilfe der Taylorpolynome \( T_{1}(x) \) und \( T_{2}(x) \) mit Entwicklungspunkt \( x_{0}=0 \).
b) mit Hilfe des Monotoniekriteriums (die linke Ungleichung) und mit Hilfe des Mittelwertsatzes (die rechte Ungleichung).

von

für b) wäre auch schon eine Hilfe, denke ich habe a) mittlerweile raus

Für \(x\ge0\) definiere \(f(x):=\ln(1+x)-x+\tfrac{x^2}2\) und stelle fest, dass \(f(0)=0\) und \(f^\prime(x)=\tfrac{x^2}{1+x}>0\) für alle \(x>0\) ist.

Ein anderes Problem?

Stell deine Frage

Willkommen bei der Mathelounge! Stell deine Frage einfach und kostenlos

x
Made by a lovely community