-->

Reihenentwicklung, Grenzwerte von Quotienten

Näherung einer Funktion durch ganzrationale Funktionen

(Geht teilweise über G8-Stoff hinaus). Ganzrationale Funktionen haben viele angenehme Eigenschaften. Man weiß viel über ihr Verhalten, sie sind leicht auszuwerten, und daher werden sie gerne als lokale Näherung für komplizierte Funktionen benutzt.
Die lineare, lokale (d.h. an einer Stelle $x_0$ ) Näherung von $f$ durch die Tangente, auchTaylorpolynom vom Grad 1, und Linearisierung von $f$ genannt ist definiert durch die affin lineare Funktion $$ T_{1,x_0} (x) = f(x_0) + f'(x_0) (x-x_0) $$ Damit kann man unter anderem Näherungsverfahren für die Nullstellenbestimmung von $f$ konstrieren, Newtonverfahren
Die quadratische, lokale Näherung durch ein quadratisches Polynom (Taylorpolynom vom Grad 2) an einer Stelle $x_0$: $$ T_{2,x_0} (x) = f(x_0) + f'(x_0) (x-x_0) + { 1 \over 2 } f''(x_0)(x-x_0)^2 $$ Falls $f$ n+1 mal stetig differenzierbar ist, gilt folgende Reihenentwicklung (sog. Taylorreihe mit Lagrange-Restglied) $$ f(x) = f(x_0) + f'(x_0) (x-x_0) + { 1 \over 2 } f''(x_0)(x-x_0)^2 + ..... + {1 \over n! } f^{(n)}(x_0) (x-x_0)^n + {1 \over (n+1) } ! f^{(n+1)}(z ) (x-x_0)^{n+1 } $$ wobei für die Zwischenstelle $z$ gelten soll $ z \in (x_0 ; x) \cup (x;x_0) $ .

Das Bild zeigt die Exponentialfunktion (schwarz) und die ersten 3 Taylorpolynome als Näherungen (rot, blau, grün) an der Stelle $x_0= 0$ Man erkennt den guten lokalen (d.h in der Nähe von $x_0=0$) Approximationscharakter der Taylorpolynome.



Diese Reihenentwicklungen sind für viele Funktionen schon tabelliert in Formelsammlungen. Zur Taylorentwicklung siehe auch Taylorreihe. Damit kann man solche hinreichend oft differenzierbaren Funktionen in der Nähe einer Stelle $x_0 \in D(f) $ beliebig genau durch ein Polynom annähern und eventuell den Fehler abschätzen. Genutzt wird dieses zum Beispiel in Digitalrechnern. Diese können sehr schnell addieren und damit multiplizieren (Multiplikation wird ja auf Additionen zurückgeführt) - und damit können Digitalrechner auch schnell Polynome an einer Stelle auswerten, z.B. mit dem Hornerschema. Soll zum Beispiel der Sinuswert eines Winkels $0 \lt x \lt \pi/2 $ ermittelt werden, so läuft ein kleines Programm ab, welches statt des $\sin(x) $ ein hinreichend genaues Taylorpolynom an $x$ und der Stelle $x_0=0$ auswertet. Beachte, dass die geraden Ableitungen alle Null werden. $$ \sin(x) \approx \sin(0) + \cos(0)(x-0) -{\sin(0) \over 2 } (x-0)^2 - {\cos(0) \over 6 } (x-0)^3 .... = x - {1\over 3! } x^3 + {1 \over 5! } x^5 - {1 \over 7! } x^7 + ....... $$ Bereits die Näherung mit einem Polynom vom Grad 5 (dazu nur Auswertung von 3 Potenzen nötig) ist ziemlich genau. Andere Winkel kann man durch Verschiebungen (siehe Trigonometrische Funktionen ) auf Werte im Intervall $(0; \pi/2 ) $ zurückführen. Man kann auch den Näherungsfehler abschätzen -damit weiß der Rechner bzw das Näherungsprogramm auch, wie weit die Taylorentwicklung zu treiben ist. Gehen wir mit der Näherung bis Grad 5, also berechnen mit einem $x \in (0;\pi/2) $ $$ \sin(x) \approx x - {1\over 3! } x^3 + {1 \over 5! } x^5 $$ so ist der Fehler genau $$ \Delta = | \sin(x) - ( x - {1\over 3! } x^3 + {1 \over 5! } x^5) | = |{1 \over 7! } \sin(z) x^7| \quad \mbox{mit } \ 0 \lt z \lt x \lt \pi/2 $$ Der Sinus wächst bekanntlich monoton im Intervall $(0,\pi/2) $ daher kann hier die Abschätzung $ |\sin(z)| \le 1 $ genutzt werden. Für $x=\pi/4 $ würden wir etwa den maximalen Fehler $$ \Delta \le { \pi^7 \over 4^7 \cdot 7! } \approx 0,0000365 .. $$ erhalten. Tatsächlich ist er noch kleiner, denn $sin(\pi/4) \lt 1 $.

Das Bild zeigt die lineare (rot) und die Näherung vom Grad 3 (blau) der Sinusfunktion (schwarz) am Nullpunkt. Für das Auge für kleine Winkel nahe dem Entwicklungspunkt $x_0=0$ bis etwa $\pi/6$ kaum zu unterscheiden. Das Bild zeigt aber auch, dass die Näherung über ein einziges Taylorpolynom global nichts bringt.



Die erste Näherung, also die Linearisierung $$ \sin(x) \approx x \quad |x| \mbox{ klein } $$ wird in der Physik benutzt, um die Pendelschwingung für kleine Ausschläge zu linearisieren und damit explizite Lösungen der genäherten Schwingungsgleichung berechnen zu können. Pendel

Reihenentwicklungen zur Berechnung von Grenzwerten als Alternative zu den Regeln von L'Hospital.

Die Regeln von L'Hospital besagen, dass man den Grenzwert von Quotienten unter bestimmten Voraussetzungen (Zähler und Nenner gehen beide gegen Null oder beide gegen unendlich) auch über den Grenzwert der Ableitungen von Zähler und Nenner berechnen kann, kurz: $$ \mbox{Falls } \lim_{x\to x_0} f(x) = 0 = \lim_{x\to x_0} g(x) \Longrightarrow \lim_{x\to x_0} \frac{f(x)}{g(x) } = \lim_{x\to x_0} \frac{f'(x)}{g'(x) } $$ Die Schreibweise $ x\to x_0\Longrightarrow f(x) \to \pm \infty $ soll bedeuten, $|f(x)|$ wird beliebig groß für $ x \to x_0 $ . Dann gilt analog $$ ( x\to x_0: f(x) \to \pm \infty, g(x) \to \pm \infty ) \Longrightarrow \lim_{x\to x_0} \frac{f(x)}{g(x) } = \lim_{x\to x_0} \frac{f'(x)}{g'(x) } $$ Die typischen Anwendungbeispiele sind Quotienten von Funktionen, die durch Differenzieren einfacher werden. $$ \lim_{x \to 0} \frac{ \sin(x)}{x } = \lim_{x \to 0} \frac{ \cos(x)}{1 } = { 1\over 1 } = 1 $$ $$ \lim_{x \to 0} \frac{ 1-\cos(x)}{x } = \lim_{x \to 0} \frac{ \sin(x)}{1 } =0, \qquad \lim_{x \to 0} \frac{ 1-\cos(x)}{x^2 } = - {1 \over 2 } $$ Gegebenenfalls muss man die Regeln auch mehrfach hintereinander anwenden.


Grenzwerte durch Reihenentwicklungen berechnen

Leider werden verkettete Funktionen durch Differenzieren oft komplizierter. Betrachten wir den Grenzwert des Quotienten $$ \lim_{x\to 0} \frac{ \sin(x^2 + x^3 )}{ 1- \cos(x-7x^5 ) } $$ Mit den Regeln von L'Hospital stößt man da schnell an Grenzen, weil die Ableitungen kompliziert werden, am besten selber testen. Reihenentwicklung hilft hier jedoch weiter.
$$ \sin(x) = x - { x^3 \over 6 } + .... , \qquad \cos(x) = 1 - { x^2 \over 2 } + { x^4 \over 4! } - ..... $$ Für $x\to 0 $ verhält sich der Sinus im Wesentlichen wie $x$ denn der Term $x^3$ konvergiert viel schneller gegen Null als $x$ (der Langsamste bestimmt hier das Tempo). Für $x\to 0 $ verhält sich dagegen $ 1- cos(x) $ im Wesentlichen wie $x^2$, denn der Term $x^4$ konvergiert viel schneller gegen Null als $x^2$ Wenn man die Konvergenzordnung in $x$-Potenzen misst (sog. O-Kalkül) kann man kurz schreiben: $$ x\to 0: \quad O(\sin(x)) = O(x) , \quad O(\cos(x) -1 ) = O(x^2) $$ Genauer definiert bedeutet hier $O(f(x)) = O(x^p) $: Es gibt Konstanten $0 \lt c_1 \le c_2 $, sodass für hinreichend kleines $|x|$ die Ungleichung $$ c_1 |x|^p \le |f(x)| \le c_2 |x|^p $$ gilt. Über die Größe der Konstanten wird nichts ausgesagt, es muss nur solche Konstanten geben. Terme "höherer Ordnung" $ \gt p$ kann man ab einem hinreichend kleinen $|x|$ in die Abschätzung mit "hineinpacken".
Am Beispiel: Für $|x| \le 1 $ gilt z.B. stets $$|x|^4 \le |x|^3 \le |x|^2\le |x| , $$ somit $$ (1 - { 1 \over 6 } ) |x| \le | x - { x^3 \over 6 } | \le (1 + { 1 \over 6 } ) |x| $$ Also: $$ O( x - { x^3 \over 6 }) = O(x) \mbox{ wenn } |x| \mbox{ hinreichend klein } $$ Wir haben nun noch die Polynome als Argument der Sinus bzw Kosinusfunktion zu berücksichtigen. Diese setzen wir einfach in die obige Reihenentwicklung ein: $$ \sin(x^2 + x^3) = (x^2 + x^3 ) - { ( x^2 + x^3 )^3 \over 6 } + ...... $$ $$ 1- \cos( x-7x^5 ) = - ( { -(x-7x^5 )^2 \over 2 } + { (x-7x^5 ) ^4 \over 4! } ) + ... $$ Wir müssen die Klammern nicht alle genau ausrechnen, es genügt jeweils die beiden kleinsten Potenzen zu sehen: $$ \sin(x^2 + x^3) = x^2 + O(x^3) , \qquad 1- \cos( x-7x^5 ) = x^2 + O(x^4) $$ somit $$ \lim_{x\to 0} \frac{ \sin(x^2 + x^3 )}{ 1- \cos(x-7x^5 } = \lim_{x\to 0} \frac{ x^2 + O(x^3 ) }{ x^2 + O(x^4) } = 1 $$ Das Vorgehen wirkt auf den ersten Blick komplizierter als es ist. Reihenentwicklungen haben sich nicht ohne Grund schon seit Jahrhunderten als nützliches Werkzeug zur Funktionsanalyse bewährt. Wenn man den "algebraischen" Blick auf Potenzentwicklungen durch Übung etwas geschärft hat, gestaltet sich diese Grenzwertberechnung immer einfacher.

Noch ein Beispiel mit "gemischter" Technik: Gesucht ist $$ \lim_{x \to 0} { \sin(\exp(x) -1 ) \over \sqrt{ 2x^2 + x^6 } } $$ Die ersten Glieder der Taylorreihe von $\exp(x)$ an $x_0=0$ nach der Definition oben berechnet : $$ \exp(x) = 1 + x + { 1 \over 2 } x^2 + {1 \over 6} x^3 + ..... $$ Es ist also nach dem bisherigen $ \sin(\exp(x) -1 ) = x +O(x^2) .$
Im Nenner entwickeln wir tunlichst nicht, denn hier können wir einfach $x$ ausklammern und mit dem Nenner kürzen $$ { \sin(\exp(x) -1 ) \over \sqrt{ 2x^2 + x^6 } } = { x +O(x^2) \over x \sqrt{ 2 + x^4 } } = { 1 +O(x) \over \sqrt{ 2 + x^4 } } $$ Als Grenzwert für $x \to 0$ erhalten wir somit $ 1/ \sqrt{ 2 } $

Der Fall $ \infty - \infty $ lässt sich oft durch Umformen auch auf Quotienten zurückführen.
$$ f(x) = \sqrt{x+3} -\sqrt{x+1} , \ x>-1 \quad \lim_{x \to \infty } f(x) = ? $$ Bruch erweitern, 3. Binomische Formel: $$ f(x) = \sqrt{x+3} -\sqrt{x+1} = \frac{ ( \sqrt{x+3} -\sqrt{x+1})( \sqrt{x+3} + \sqrt{x+1} ) }{\sqrt{x+3} +\sqrt{x+1}} = \frac{ ( x+3 - (x+1) }{\sqrt{x+3} +\sqrt{x+1}} = \frac{ 2 }{\sqrt{x+3} +\sqrt{x+1}} $$ Also $$ \lim_{x \to \infty } f(x) = 0 $$ Allgemein geht es genau so (erweitern, 3. Binomische Formel ) : $$ \sqrt{ g(x) } - \sqrt{ h(x) } = \frac{g(x)- h(x) } {\sqrt{ g(x) } + \sqrt{h(x)} } $$ Mit diesem Trick kann man direkt auch die Ableitung der Wurzelfunktion $f(x) = \sqrt{x} $ über den Differenzenquotienten bestimmen. $$ d_f(h) = { f(x+h) - f(x) \over h } = \frac{ \sqrt{x+h } -\sqrt{x}}{ h } = \frac{ ( \sqrt{x+h } -\sqrt{x}) (\sqrt{x+h } +\sqrt{x}) }{ h(\sqrt{x+h } +\sqrt{x}) } = \frac{ h } {h (\sqrt{x+h } +\sqrt{x}) } = \frac{ 1 } { \sqrt{x+h } +\sqrt{x} } $$ Somit $$ \lim_{h \to 0 } d_f(h) = \frac{ 1 } { 2 \sqrt{x} } $$ Wer Abschätzungen liebt und ein wenig Algebra üben möchte, der darf sich am nächsthöheren Beispiel $ f(x) = x^{1/3} $ versuchen und direkt über den Differenzenquotienten die Ableitung bestimmen.
Noch einige Aufgaben zum Testen und Üben der Techniken.
Untersuche jeweils ob der Grenzwert $x\to +\infty $ existiert und berechne ihn gegebenenfalls. $$ f(x) = x( \sqrt{ x^2 +2 } - \sqrt{ x^2 -2 }) , \qquad g(x) = { ( \sqrt{ x^2 +2 } - \sqrt{ x +2 }) \over 2x } , \qquad h(x) = { \sqrt{x+2} \over ( \sqrt{ x^2 +2 } - \sqrt{ x +2 }) } $$

Wachstum von Funktionen

Wachstum von Logarithmus und Exponentialfunktion
Der Logarithmus wächst langsamer als jede Potenz
Diese Behauptung lautet mathematisch formuliert: $$ \mbox{ Für jedes } p>0: \quad \lim_{x \to \infty} \frac{ \ln(x) }{ x^p } = 0 $$ Beweis über Regel von L'Hospital weil die Ableitung des $\ln $ mit x-Potenzen verrechnet werden kann. Zähler und Nenner wachsen mit $x\to \infty $ unberschränkt, also Voraussetzung von L'Hospital erfüllt. $$ \lim_{x \to \infty} \frac{ \ln(x) }{ x^p } = \lim_{x \to \infty} \frac{ 1 }{ xp x^{p-1} } = \lim_{x \to \infty} \frac{ 1 }{p x^{p} } = 0$$ Die Reihenentwicklung des $\ln $ hier einzusetzen und mit $x^p$ zu verrechnen, wäre genauso möglich.

Die Exponentialfunktion wächst schneller als jede Potenz
Betrachten wir beipielhaft einmal eine sehr große Potenz im Vergleich zur Exponentialfunkion, also z.B. den Quotienten $ x^{1000} / \exp(x) $. Mit der Regel von L'Hospital müssten wir den Nenner 1000mal differenzieren um den Grenzwert berechnen zu können. $$ \lim_{x \to \infty} \frac{ x^{1000} }{ \exp(x) } = ...... = \lim_{x \to \infty} \frac{1000! }{ \exp(x) } =0. $$ Mit Reihenentwicklung hätten wir ähnlich argumentieren können $$ \lim_{x \to \infty} \frac{ x^{1000} }{ \exp(x) } = \lim_{x \to \infty} \frac{ x^{1000} }{ 1 + x + { 1 \over 2 } x^2 + {1 \over 3!} x^3 + ..... {1 \over (1001)!} x^{1001 } + O(x^{1002 }) } = 0 $$ Diese Reihenentwicklung können wir auch für irgendeinen Exponenten $p \in I\!\!N $ genauso aufschreiben.
Will man den Beweis mit l'Hospital für ein beliebiges $ p\in I\!\!N $ erbringen, so kann man mit vollständiger Induktion argumentieren. Skizze:
1. Zeige, dass der Grenzwert Null ist für ein $ p\in I\!\!N $ (z:B. p=1, einmal L'Hospital )
2. Zeige : Wenn der Grenzwert Null ist für irgendein $ p\in I\!\!N $, dann ist er auch Null für den Nachfolger $p+1$. Rechnung: 1 mal L'Hospital von $p$ zu $p+1$.