Inhaltsverzeichnis Datenschutz Impressum

Limes / Grenzwerte

Der Limes beziehungsweise einfacher ausgedrückt der Grenzwert, ist der erste Schritt in die Infinitesimalrechnung. Das Konzept der Grenzwerte erlaubt eine einfache Defintion der Stetigkeit. Der Grenzwert einer Funktion ein grundlegendes Konzept der Infinitesimalrechnung und der Analysis in Bezug auf das Verhalten der betrachteten Funktion in der Nähe einer bestimmten Stelle. Vereinfacht formuliert weist eine Funktion $f$ jeden $x$ eine Ausgabe $f(x)$ zu. Wir sagen, dass die Funktion bei einem Funktionsargument ($x$-Wert) $a$ einen Grenzwert $L$ hat, wenn $f(x)$ näher und näher an $L$ rückt, wenn $x$ näher und näher an $a$ rückt. Wir bezeichnen den Limes / Grenzwert in der Form: \[\lim_{x \to a} f(x) \] Das heißt: Der Limes / Grenzwert $f$ von $x$, für $x$ gegen $a$.

Wir nennen $L$ den Grenzwert von $f(x)$ bei Annäherung von $x$ an $c$, wenn $f(x)$ sich $L$ annähert, wenn $x$ nahe bei $c$ ist (aber nicht gleich), und wenn es keinen anderen Wert $L'$ mit der gleichen Eigenschaft gibt.
Wenn dies zutrifft, schreiben wir $\lim_{x\to c}f(x)=L$ oder $f(x)\to L\quad\text{für}\quad x\to c$. Man beachte, dass die Definition eines Grenzwertes sich nicht mit dem Wert von $f(x)$ befasst, wenn $x=c$ (der existieren kann oder auch nicht). Es geht nur um die Werte von $f(x)$, wenn $x$ in der Nähe von $c$ liegt, entweder links oder rechts (d. h. kleiner oder größer ist).

Da nicht alle Funktion einen Grenzwert besitzen, müssen wir uns mit der Frage beschäftigen, ob es einen Grenzwert für $f(x)$ bei $a$ gibt, und wenn ja, wie lautet er.

Nehmen wir an, die Funktion, die uns interessiert, sei $f(x)=x^2$ , und wir interessieren uns für ihren Grenzwert, wenn $x$ sich $2$ annähert. Unter Verwendung der obigen Notation können wir den Grenzwert, wie folgt schreiben: \[\lim_{x\to2}x^2\]

Eine Möglichkeit, diesen Grenzwert zu bestimmen, besteht darin, Werte in der Nähe von 2 zu wählen, für jeden $f(x)$ zu berechnen und zu sehen, was passiert, wenn sich die $x$-Werte der 2 annähern. Es gibt zwei Möglichkeiten, sich der 2 zu nähern, zum einen von unten und zum anderen von oben.

Zuerst nähern wir uns der 2 von unten:
$x$1,91,991,999
$f(x)$3,613,96013,996001
Und dann von oben:
$x$2,12,012,001
$f(x)$4,414,04014,004001

Aus den Tabellen können wir ersehen, dass $f(x)$ mit zunehmender Annäherung von $x$ an 2 immer näher an 4 heranzukommen scheint, unabhängig davon, ob sich $x$ von oben oder von unten der 2 nähert. Aus diesem Grund sind wir einigermaßen zuversichtlich, dass der Grenzwert von $x^2$, wenn $x$ sich 2 nähert, 4 ist. In der Schreibweise für Grenzwerte: \[\lim_{x\to2}x^2 = 4 \] Unsere Herangehensweise in diesem Beispiel war, dass wir uns von oben und von unten mit den $x$-Werten der Zahl $2$ genähert haben. Ohne es zu wissen haben wir dabei zuerst den linksseitigen Grenzwert $\lim$ x ↗ a $f(x)$ und dann den rechtsseitigen Grenzwert $\lim$ x ↘ a $f(x)$ bestimmt. Der Grenzwert $\lim_{x \to a} f(x)$ existiert genau dann, wenn die beiden einseitigen Grenzwerte $\lim$ x ↗ a $f(x)$ und $\lim$ x ↘ a $f(x)$ existieren und gleich sind. Daher wird $\lim_{x \to a} f(x)$ auch als beidseitiger Grenzwert bezeichnet. Bei dieser Funktion, d.h. $f(x) = x^2$, hätten wir auch einfach die 2 einsetzen und die Funktion auswerten können, also $f(2) = 2^2 = 4$. Dies funktioniert jedoch nicht bei allen Grenzwerten.

Betrachten wir nun ein anderes Beispiel. Angenommen, wir interessieren uns für das Verhalten der Funktion $f(x) = \frac{1}{x}$, wenn $x$ sich $0$ nähert. \[\lim_{x\to 0} \frac{1}{x}\] Auch hier werden wir uns sowohl von unten als auch von oben der $0$ nähern. Zuerst nähern wir uns der $0$ von unten:

$x$-1-0,1-0,01-0,001
$f(x)$-1-10-100-1000
Und dann von oben:
$x$10,10,010,001
$f(x)$1101001000

In diesem Fall scheint sich die Funktion nicht einem einzigen Wert zu nähern, wenn $x$ sich $0$ annähert, sondern wird stattdessen zu einer extrem großen positiven oder negativen Zahl. Je nach Richtung der Annäherung $\lim$ x ↗ 0 $f(x) = -\infty $ und $\lim$ x ↘ 0 $f(x) = \infty $. In diesem Fall existiert der beidseitige Grenzwert nicht.

Grenzwerte finden

Wir können die Grenze bei $c$ eines Polynoms oder einer rationalen Funktion finden, solange diese rationale Funktion bei $c$ definiert ist (wir dividieren also nicht durch 0). Das heißt, $c$ muss sich in der Definitionsmenge der Funktion befinden. Dann gilt, wenn $f$ ein Polynom oder eine rationale Funktion ist, die bei $c$ definiert ist, dann ist $\lim_{x\to c}f(x)=f(c)$

Der Einschnürungssatz wird verwendet, um die Grenze einer Funktion durch Vergleich mit zwei anderen Funktionen zu ermitteln, deren Grenzen bekannt sind. Angenommen, $g(x)\leq f(x)\leq h(x)$ gilt für alle $x$ in einem offenen Intervall, das $c$ enthält. Wenn $\lim_{x\to c}g(x)=\lim_{x\to c}h(x)=L$, dann $\lim_{x\to c}f(x)=L$.

Wenn die Funktion $f(x)$ aus rationalen, trigonometrische, logarithmische oder exponentielle Funktionen aufgebaut werden kann, und die Zahl $c$ im Definitionsbereich der Funktion $f(x)$ liegt, dann ist die Grenze bei $c$ einfach der Wert der Funktion bei $c$. Es gilt: $\lim_{x \to c} f(x)=f(c)$

Beispiele:

Wenn $c$ nicht im Definitionsbereich der Funktion liegt, dann umfasst in vielen Fällen (wie bei rationalen Funktionen) der Definitionsbereich der Funktion alle Punkte in der Nähe von $c$ , aber nicht $c$ selbst. Ein Beispiel wäre, wenn wir $\lim_{x\to0}\frac{x}{x}$ , wobei der Definitionsbereich alle Zahlen außer 0 enthält.

Grenzwert existiert

Der formale Weg, um festzustellen, ob ein Grenzwert existiert, besteht darin, herauszufinden, ob der Wert des Grenzwertes bei Annäherung von unten und oben gleich ist. Die Notation für den Grenzwert, der sich von unten nähert, ist $\lim_{x\to c^-}f(x)$, beachte das negative Vorzeichen der Konstanten $c$. Die Notation für den Grenzwert, der sich von oben nähert, ist $\lim_{x\to c^+}f(x)$, beachte das positive Vorzeichen der Konstanten $c$.

Nehmen wir das Beispiel von vorhin $f(x)=\frac{1}{x}$ , wenn $x$ sich in beiden Richtungen $0$ nähert. Mit anderen Worten, finde $\lim_{x\to 0^-}\frac{1}{x}$ und $\lim_{x\to 0^+}\frac{1}{x}$.

Wir hatten festgestellt, dass sich die Funktion negativ Unendlich nähert, wenn sich $x$ von unten der $0$ nähert. Mathematisch ausgedrückt: $\lim_{x\to 0^-}\frac{1}{x}=-\infty$ Und für die andere Seite: $\lim_{x\to 0^+}\frac{1}{x}=\infty$

Wenn der linksseitige Grenzwert dem rechtsseitigem entspricht $\lim_{x\to c^-}f(x)=\lim_{x\to c^+}f(x)=L$, dann existiert der Grenzwert $\lim_{x\to c}f(x)=L$. Wenn der linksseitige und rechtsseitige Grenzwert unterschiedlich sind $\lim_{x\to c^-}f(x)\ne\lim_{x\to c^+}f(x)=L$ dann existiert der Grenzwert nicht.

Nehmen wir das gleiche Beispiel $\lim_{x\to 0}\frac{1}{x}$. Da wir bereits festgestellt haben, dass $\lim_{x\to 0^-}\frac{1}{x}=-\infty$ und $\lim_{x\to 0^+}\frac{1}{x}=\infty$ und offensichtlich, $\lim_{x\to 0^-}\frac{1}{x}\ne\lim_{x\to 0^+}\frac{1}{x}$ ist können wir sagen, dass $\lim_{x\to 0}\frac{1}{x}$ nicht existiert.

Die Methode, festzustellen, ob Grenzen existieren, ist relativ intuitiv. Es erfordert nur etwas Übung, um mit dem Prozess vertraut zu sein.

Grenzwert existiert nicht

Wie wir bereits gesehen haben kann es sein, dass der Grenzwert gar nicht existiert. Es gibt eine Reihe von Möglichkeiten, warum dies der Fall ist.

Lücke Es gibt eine Lücke (nicht nur einen einzelnen Punkt), in der die Funktion nicht definiert ist. Zum Beispiel $f(x)=\sqrt{x^2-16}$ für $-4 \le c \le 4$ existiert $\lim_{x \to c} f(x)$ nicht.

Sprung Wenn die Funktion plötzlich auf eine andere Ebene springt, dann gibt es an der Stelle des Sprungs keine Begrenzung. Zum Beispiel $f(x) = \begin{cases} x^{2} & \text{ für } x < 1\\ 0 & \text{ für } x = 1\\ 2 - (x - 1)^{2} & \text{ für } x > 1\\ \end{cases}$ die Funktion hat an der Stelle $x = 1 $ eine Sprungstelle.

Vertikale Asymptote Für $f(x)=\frac{1}{x^2}$ wird der Graph beliebig hoch, wenn sich $x$ der 0 nähert, es gibt also keine Begrenzung. In diesem Fall sagen wir manchmal, dass die Grenze unendlich ist.

Unendliche Oszillation Schwingenden Funktionen wie die trigonometrischen Funktionen. Ein Beispiel für eine trigonometrische Funktion, die keine Grenze hat, wenn $x$ sich 0 nähert, ist $f(x)=\sin\left(\tfrac{1}{x}\right)$. Wenn $x$ näher an 0 kommt, schwingt die Funktion zwischen $-1$ und $1$. Für $x \to 0$ existiert der Grenzwert nicht.

Unendlich als Grenzwert

Betrachten Sie nun die Funktion $g(x)=\frac{1}{x^2}$. Was ist die Grenze, wenn $x$ sich Null nähert? Der Wert von $g(0)$ existiert nicht; er ist nicht definiert.Wir können $g(x)$ so groß machen, wie wir möchten, indem wir ein kleines $x$ wählen, solange $x\ne0$ ist. Um beispielsweise $g(x)$ gleich $10^{12}$ zu machen, wählen wir $x$ als $10^{-6}$ . Somit existiert $\lim_{x\to0}\frac{1}{x^2}$ nicht. Wir wissen jedoch etwas darüber, was mit $g(x)$ passiert, wenn $x$ nahe an 0 kommt, ohne es zu erreichen. Wir möchten sagen, dass wir $g(x)$ beliebig groß machen können (so groß wie wir möchten), indem wir $x$ so nah an 0 , aber ungleich 0 . Wir drücken dies symbolisch wie folgt aus: \[\lim_{x\to0}g(x)=\lim_{x\to0}\frac{1}{x^2}=\infty\] Es bleibt aber zu beachten, dass die Grenze bei ${\displaystyle 0}$ nicht existiert für einen Grenzwert ist ${\displaystyle \infty }$ eine besondere Art von Nichtexistenz.

Der Grenzwert von $f(x)$, wenn $x$ sich $c$ nähert, ist unendlich, wenn $f(x)$ sehr groß wird (so groß wie wir wollen), wenn $x$ nahe an $c$ aber nicht gleich ist. In diesem Fall schreiben wir $ \lim_{x\to c}f(x)=\infty$ oder $f(x)\to\infty\quad\text{für}\quad x\to c$. In ähnlicher Weise sagen wir, dass der Grenzwert von $f(x)$, wenn $x$ sich $c$ nähert, negative Unendlich ist, wenn $f(x)$ sehr klein wird, wenn $x$ nahe an $c$ aber nicht gleich ist. In diesem Fall schreiben wir $\lim_{x\to c}f(x)=-\infty$ oder $f(x)\to-\infty\quad\mbox{für}\quad x\to c$.

Grenzwerte für x gegen ± ∞

Bei einer anderen Art von Grenzwert betrachtet man, was mit $f(x)$ passiert, wenn $x$ sehr groß wird. Betrachten wir zum Beispiel die Funktion $f(x)=\frac{1}{x}$ . Wenn $x$ sehr groß wird, wird $\frac{1}{x}$ sehr klein. Tatsächlich geht $\frac{1}{x}$ immer näher an 0 heran, je größer $x$ wird. Ohne Grenzwerte ist es sehr schwierig, über diese Tatsache zu sprechen, weil $x$ immer größer werden kann und $\frac{1}{x}$ nie wirklich bei 0 ankommt; aber die Sprache der Grenzwerte ist genau dafür da, dass wir über das Verhalten einer Funktion sprechen können, während sie sich etwas nähert - ohne uns um die Tatsache zu kümmern, dass sie nie ankommt. In diesem Fall haben wir jedoch das gleiche Problem wie zuvor: Wie groß muss $x$ sein, um sicher zu sein, dass $f(x)$ wirklich gegen 0 geht?

In diesem Fall wollen wir sagen, dass $f(x)$ für $x$, das groß genug ist, garantiert gegen 0 geht, egal wie nahe wir $f(x)$ an 0 heranführen wollen. Wir haben also noch eine weitere Definition. Wir nennen $L$ den Grenzwert von $f(x)$ bei Annäherung von $x$ an Unendlich, wenn $f(x)$ beliebig nahe zu $L$ wird, wann immer $x$ hinreichend groß ist. Wenn dies zutrifft, schreiben wir $\lim_{x\to\infty}f(x)=L$ oder $f(x)\to L\quad\mbox{für}\quad x\to\infty$. In ähnlicher Weise nennen wir $L$ den Grenzwert von $f(x)$ bei Annäherung von $x$ an negative Unendlich, wenn $f(x)$ beliebig nahe an $L$ wird, wenn $x$ hinreichend klein ist. Wenn dies zutrifft, schreiben wir $\lim_{x\to-\infty}f(x)=L$ oder $f(x)\to L\quad\mbox{für}\quad x\to-\infty$.
In diesem Fall ($f(x) = \frac{1}{x}$) schreiben wir also $\lim_{x\to\infty}\frac{1}{x}=0$ und sagen: Der Grenzwert für $x$ gegen Unendlich ist $0$. Beachte jedoch, dass Unendlich keine Zahl ist; es ist nur eine Abkürzung für egal wie groß.

Grenzen bei Unendlich von rationalen Funktionen

Ein Spezialfall, der häufig auftritt, ist, wenn man den Grenzwert bei $\infty$ (oder $-\infty$) einer rationalen Funktion finden will. Eine rationale Funktion ist eine Funktion, die durch die Division zweier Polynome durcheinander entsteht. Zum Beispiel ist $f(x)=\frac{x^3+x-6}{x^2-4x+3}$ eine rationale Funktion. Da die $1$ ein Polynom ist, wenn auch nur ein sehr einfaches können wir die Funktion $f(x)=x^2-3$ auch als Quotienten zweier Polynome in dieser Form $f(x)=\frac{x^2-3}{1}$ schreiben.

Betrachten wir den Zähler einer rationalen Funktion, bei der wir die Variable sehr groß werden lassen (entweder im positiven oder im negativen Sinne). Der Term mit dem höchsten Exponenten der Variablen wird den Zähler dominieren, und die anderen Terme werden im Vergleich zum dominierenden Term immer unbedeutender. Das Gleiche gilt für den Nenner. Im Grenzwert werden die anderen Terme vernachlässigbar, und wir müssen nur noch den dominierenden Term im Zähler und Nenner untersuchen. Es gibt eine einfache Regel, um den Grenzwert einer rationalen Funktion zu bestimmen, wenn sich die Variable dem Unendlichen nähert. Suchen Sie nach dem Term mit dem höchsten Exponenten der Variablen im Zähler und im Nenner. Ist der Zähler oder der Nenner eine Konstante (einschließlich 1, wie oben), so ist dies dasselbe wie $x^0$ .

Definition der Stetigkeit

Stark vereinfacht kann man sagen, dass eine Funktion stetig ist, wenn man ihren Graphen zeichnen kann, ohne den Stift absetzen zu müssen. Aber manchmal trifft dies nur auf einige Teile eines Graphen zu, aber nicht auf alle. Deshalb wollen wir zunächst definieren, was es bedeutet, dass eine Funktion in einem Punkt stetig ist. Wenn $f(x)$ auf einem offenen Intervall definiert ist, das $c$ enthält, dann heißt $f(x)$ stetig bei $c$, wenn und nur wenn $\lim_{x\to c}f(x)=f(c)$ .

Das bedeutet, dass die folgenden drei Bedingungen erfüllt werden müssen:

  1. dass $f$ bei $c$ definiert ist, also $f(c)$ existiert,
  2. der Grenzwert, wenn $x$ sich $c$ nähert, existiert, und
  3. der Grenzwert und $f(c)$ sind gleich.
Wenn eine dieser Bedingungen nicht erfüllt ist, dann ist $f$ bei $c$ nicht stetig.

Der Gedanke hinter dieser Definition ist, dass der Punkt des Graphen, der $c$ entspricht, nahe bei den Punkten des Graphen liegt, die den nahe gelegenen $x$-Werten entsprechen. Nun können wir definieren, was es bedeutet, dass eine Funktion im Allgemeinen und nicht nur an einem Punkt stetig ist. Eine Funktion heißt stetig auf $(a,b)$, wenn sie in jedem Punkt des Intervalls $(a,b)$ stetig ist. Oft wird die Formulierung die Funktion ist stetig verwendet, um zu sagen, dass die Funktion für jede reellen Zahl stetig ist. Das wäre dasselbe, als würde man sagen, die Funktion sei stetig auf $(-\infty,\infty)$ , aber es ist etwas bequemer, einfach stetig zu sagen.

Wie wir bereits wissen, erfüllen rationalen, exponentiellen, trigonometrischen oder logarithmischen Funktion die drei Bedingungen, wenn $c$ in ihrer Definitionsmenge ist, daher sind all diese Funktionen stetig.

Unstetigkeitsstelle

Eine Unstetigkeitsstelle ist ein Punkt, an dem eine Funktion nicht stetig ist. Es gibt natürlich viele Möglichkeiten, wie dies geschehen kann. Hier werden wir nur zwei einfache Möglichkeiten diskutieren.

Hebbare Unstetigkeit

Die Funktion $f(x)=\frac{x^2-9}{x-3}$ ist bei $x=3$ nicht stetig. Sie ist an diesem Punkt unstetig, weil der Bruch dann zu $\frac{0}{0}$ wird, was undefiniert ist. Die Funktion erfüllt also die erste unserer drei Bedingungen für Stetigkeit an der Stelle 3 nicht.

Wir sagen jedoch, dass diese Unstetigkeit entfernbar/hebbar ist. Denn wenn wir die Funktion an diesem Punkt ändern, können wir die Unstetigkeit beseitigen und die Funktion kontinuierlich machen. Um zu sehen, wie man die Funktion $f(x)$ stetig macht, müssen wir $f(x)$ vereinfachen und erhalten $f(x)=\frac{x^2-9}{x-3}=\frac{(x+3)(x-3)}{(x-3)}=\frac{x+3}{1}\cdot\frac{x-3}{x-3}$ . Wir können eine neue Funktion $g(x)$ definieren, wobei $g(x)=x+3$ . Man beachte, dass die Funktion $g(x)$ nicht mit der ursprünglichen Funktion $f(x)$ identisch ist, denn $g(x)$ ist bei $x=3$ definiert, $f(x)$ dagegen nicht. Somit ist $g(x)$ stetig bei $x=3$ , da $\lim_{x\to3}(x+3)=6=g(3)$. Immer wenn $x\ne 3$ ist, ist $f(x)=g(x)$, wir haben die Definition von $f$ nur so verändert, dass wir bei $x = 3$ statt $f$ $g$ erhalten.

In der Tat ist diese Art der Vereinfachung bei einer Unstetigkeit in einer rationalen Funktion oft möglich. Wir können den Zähler und den Nenner durch einen gemeinsamen Faktor teilen (in unserem Beispiel $x-3$), um eine Funktion zu erhalten, die dieselbe ist, außer wenn dieser gemeinsame Faktor 0 ist (in unserem Beispiel bei $x=3$). Diese neue Funktion ist identisch mit der alten, mit der Ausnahme, dass sie an neuen Punkten definiert ist, wo es vorher eine Division durch 0 gab.

Dies ist jedoch nicht in jedem Fall möglich. Zum Beispiel hat die Funktion $f(x)=\frac{x-3}{x^2-6x+9}$ sowohl im Zähler als auch im Nenner einen gemeinsamen Faktor von $x-3$, aber wenn man vereinfacht, bleibt $g(x)=\frac{1}{x-3}$ übrig, das ist immer noch nicht bei $x=3$ definiert. In diesem Fall sind der Bereich von $f(x)$ und $g(x)$ gleich, und sie sind überall, wo sie definiert sind, gleich, also sind sie tatsächlich die gleiche Funktion. Der Grund dafür, dass $g(x)$ sich von $f(x)$ im ersten Beispiel unterscheidet, liegt darin, dass wir davon asugehen können, das es einen größeren Definitionsbereich hat, und nicht einfach darin, dass die Formeln, die $f(x)$ und $g(x)$ definieren, unterschiedlich sind.

Sprungstellen

Nicht alle Unstetigkeiten können aus einer Funktion entfernt werden. Man betrachte diese Funktion: $k(x)=\begin{cases}1&\text{if }x>0\\-1&\text{if }x\le0\end{cases}$

Da $\lim_{x\to0}k(x)$ nicht existiert, gibt es keine Möglichkeit, $k$ an einem Punkt so umzudefinieren, dass es bei 0 stetig wird. Diese Art von Unstetigkeiten nennt man nicht hebbare Unstetigkeiten.

Man beachte jedoch, dass es die beiden einseitigen Grenzwerte gibt: $\lim_{x\to0^-}k(x)=-1$ und $\lim_{x\to0^+}k(x)=1$ . Das Problem ist, dass sie nicht gleich sind, so dass der Graph von einer Seite der $0$ zur anderen springt. In diesem Fall spricht man von einer Sprungstelle.

Einseitige Stetigkeit

Genauso wie eine Funktion einen einseitigen Grenzwert haben kann, kann eine Funktion von einer bestimmten Seite aus stetig sein. Damit eine Funktion in einem Punkt von einer bestimmten Seite aus stetig ist, müssen die folgenden drei Bedingungen erfüllt sein:

  1. die Funktion ist in dem Punkt definiert.
  2. Die Funktion hat an diesem Punkt einen Grenzwert von dieser Seite aus.
  3. der einseitige Grenzwert ist gleich dem Wert der Funktion in dem Punkt.

Eine Funktion ist in einem Punkt dann und nur dann stetig, wenn sie in diesem Punkt von beiden Seiten stetig ist. Jetzt können wir definieren, was es bedeutet, dass eine Funktion auf einem geschlossenen Intervall stetig ist. Eine Funktion heißt stetig auf $[a,b]$, wenn und nur wenn

  1. sie auf $(a,b)$ stetig ist.
  2. sie von rechts auf $a$ stetig ist.
  3. sie ist stetig von links bei $b$ .

Eigenschaften stetiger Funktionen

Wenn eine Funktion stetig ist, dann ist sie auf jedem geschlossenen Intervall, das in ihrem Bereich enthalten ist, stetig. Für Funktionen die auf einem geschlossen Intervall stetig sind gelten

Formale Definition des Grenzwertes

Bisher hatten wir den Grenzwert $\lim_{x \to c} f(x) = L$ so definiert, dass wir $L$ den Grenzwert von $f(x)$ bei Annäherung von $x$ an $c$, wenn $f(x)$ sich $L$ annähert, wenn $x$ nahe $c$ (aber nicht gleich) ist. Die Ausdrücke Annäherung und annähert sind nun aber im mathematischen Sinne unpräzise. Das Problem liegt in den vagen Begriffen. Wir haben bereits erörtert, dass diese Begriffe bedeuteten, dass die Funktion um so näher an den Grenzwert herankommen muss, je näher $x$ an den angegebenen Wert $c$ herankommt, so dass wir, egal wie nah wir die Funktion am Grenzwert haben wollen, wir dies erreichen können, indem wir $x$ hinreichend nahe an $c$ bringen. Wir können diese Anforderung technisch wie folgt ausdrücken. Sei $f(x)$ eine Funktion, die auf einem offenen Intervall definiert ist, das $c$ enthält, außer vielleicht bei $x=c$ . Dann sagen wir, dass $\lim_{x\to c}f(x)=L$ der Grenzwert der Funktion $f$ von $x$ für $x$ gegen $c$ ist, wenn es für jedes $\varepsilon>0$ ein $\delta>0$ gibt, so dass wenn $0<|x-c|<\delta$ dann $\Big|f(x)-L\Big|<\varepsilon$ für $x\in D$ haben.

Ebenso müssen wir die anderen Definitionen anpassen. Der Grenzwert einer Funktion für x gegen ± ∞ lä sst sich so definieren, wir nennen $L$ den Grenzwert von $f(x)$ bei Annäherung von $x$ an $\infty$, wenn für jedes $\varepsilon>0$ ein $\delta$ existiert, so dass wann immer $x>\delta$ gilt $\Big|f(x)-L\Big|<\varepsilon$. Wenn dies zutrifft, schreiben wir $\lim_{x\to\infty}f(x)=L$ oder $f(x)\to L$ für $x\to\infty$. In ähnlicher Weise nennen wir $L$ den Grenzwert von $f(x)$ bei der Annäherung von $x$ an $-\infty$, wenn für jedes $\varepsilon>0$ eine Zahl $\delta$ existiert, dass für $x<\delta$ gilt $\Big|f(x)-L\Big|<\varepsilon$. Wenn dies zutrifft, schreiben wir $\lim_{x\to-\infty}f(x)=L$ oder $f(x)\to L$ für $x\to-\infty$. Man beachte den Unterschied zwischen diesen beiden Definitionen. Für den Grenzwert von $f(x)$ bei der Annäherung von $x$ an $\infty$ interessieren wir uns für diejenigen $x$, bei denen $x>\delta$ ist. Für den Grenzwert von $f(x)$ bei der Annäherung von $x$ an $-\infty$ interessieren wir uns für diejenigen $x$, bei denen $x<\delta$ ist.

Die neue Definition für einen Grenzwert bei unendlich, sei $f(x)$ eine Funktion, die auf einem offenen Intervall $D$ definiert ist, das $c$ enthält, außer vielleicht bei $x=c$ . Dann sagen wir, dass $\lim_{x\to c}f(x)=\infty$ wenn es für jedes $\varepsilon$ ein $\delta>0$ gibt, so dass für alle $x\in D$ mit $0<|x-c|<\delta$ wir $f(x)>\varepsilon$ haben. Wenn dies zutrifft, schreiben wir $\lim_{x\to c}f(x)=\infty$ oder $f(x)\to\infty$ für $x\to c$ In ähnlicher Weise sagen wir, dass $\lim_{x\to c}f(x)=-\infty$ wenn es für jedes $\varepsilon$ ein $\delta>0$ gibt, so dass für alle $x\in D$ mit $0<|x-c|<\delta$ wir $f(x)<\varepsilon$ haben. Wenn dies zutrifft, schreiben wir $\lim_{x\to c}f(x)=-\infty$ oder $f(x)\to-\infty$ als $x\to c$ .

Regeln

Konstante Funktion Wenn eine Funktion $f(x)$ für alle $x$ den gleichen Funktionswert hat, zum Beispiel $f(x) = b$ und $b$ ist eine Konstante, dann ist der Grenzwert, wenn $x$ sich $c$ nähert, gleich $b$. Wenn $b$ und $c$ Konstanten sind, dann ist $\lim_{x\to c}b=b$.

Identität Wenn eine Funktion $f(x)$ für alle $x$ als Funktionwert $x$ hat, zum Beispiel $f(x)=x$, dann ist der Grenzwert von $f$ wenn $x$ sich $c$ nähert gleich $c$. Wenn $c$ eine Konstante ist, dann $\lim_{x\to c}x=c$.

Rechnen mit Grenzwerten
Angenommen, $\lim_{x\to c}f(x)=L$ und $\lim_{x\to c}g(x)=M$ und $k$ ist konstant. Dann
Potenzregel
$\lim_{x\to c}f(x)^n=\left(\lim_{x\to c}f(x)\right)^n=L^n$ für eine positive ganze Zahl $n$.

Regel von L'Hospital
Um den Grenzwert bei einem Bruch zu bestimmen kann unter bestimmten Bedingungen die Regel von L'Hospital verwendet werden: \[ \lim_{x \to a} = \frac{f(x)}{g(x)} = \lim_{x \to a} \frac{f^{\prime} (x)}{g^{\prime} (x)} \] diese besagt, dass der Grenzwert des Bruchs dem Grenzwert des Bruchs der Ableitungen der Funktionen entspricht.
Damit diese Regel angewendet werden kann müssen diese zwei Bedingungen erfüllt sein:

Übungen A

Berechnen Sie die Grenzwerte für:

(1) $\lim_{n \to \infty} \frac{3n^{2} -n -1}{4n^{2} +3}$

(2)$\lim_{n \to \infty} (n^{2} - n) $

(3)$\lim_{n \to \infty} \frac{n^{2} -2}{n^{3}}$

(4) $\lim_{n \to \infty} \frac{n^{3}}{n^{2} -2}$

(5) $ \lim_{n \to \infty} \frac{(n+1)^{2} - (n -1)^{2}}{n} $

(6) $\lim_{x \to 0} \frac{a^{x} - 1}{x}$, für $a > 0 $

Für die folgenden Grenzwerte wird die Regel von de L'Hospital verwendet.

(7) $\lim_{n \to 0} \frac{n}{\tan n} $

(8)$\lim_{n \to 0} \frac{\cos^{2} n -1}{n^{2}} $

(9) $\lim_{n \to 0} \frac{\sin n}{n^{2}} $

(10) $ \lim_{n \to 0} \frac{\sin^{2} n}{n} $

(11) $ \lim_{n \to \infty} n\cdot (e^{\frac{1}{n}} -1) $

(12)$\lim_{x \to 0} \frac{3^{x} - 4^{x}}{x} $

(13)$\lim_{x \to \infty} \frac{\log(x)}{x^{a}} $

(14)$\lim_{x \to \infty} \frac{\sinh(x)}{\cosh(x)} $

Antworten

(1) Durch das Kürzen des Bruchs mit $n^{2} (n \neq 0) $ ergibt sich : $\lim_{n \to \infty} \frac{3n^{2} -n -1}{4n^{2} +3} = \lim_{n \to \infty} \frac{3 - \frac{1}{n} - \frac{1}{n^{2}}}{4 + \frac{3}{n^{2}}} = \frac{3}{4} $ Der Grenzwert existiert und ist gleich $\lim_{n \to \infty} \frac{3n^{2} -n -1}{4n^{2} +3} = \frac{3}{4} $

(2) Durch umformen ergibt sich: $ \lim_{n \to \infty} (n^{2} - n) = \lim_{n \to \infty} n(n-1) = \infty \cdot \infty = \infty $ Der Grenzwert existiert nicht.

(3) Durch das Kürzen des Bruchs mit $n^{3} ( n \neq 0)$ ergibt sich: $\lim_{n \to \infty} \frac{n^{2} -2}{n^{3}} = \lim_{n \to \infty} \frac{\frac{1}{n} - \frac{2}{n^{3}}}{1} = \frac{0 - 0}{1} = 0$ Der Grenzwert existiert und ist gleich 0.

(4) Durch Kürzen des Bruchs mit $ n^{2} (n \neq 0)$ ergibt sich : $\lim_{n \to \infty} \frac{n^{3}}{n^{2} -2} = \lim_{n \to \infty} \frac{n}{1 - \frac{2}{n^{2}}} = \frac{\infty}{1 -0} = \infty$ Der Grenzwert existiert nicht.

(5) Durch umformen ergibt sich: $ \lim_{n \to \infty} \frac{(n+1)^{2} - (n-1)^{2}}{n} = \lim_{n \to \infty} \frac{ n^{2} + 2n + 1 - (n^{2} -2n + 1)}{n} = \lim_{n \to \infty} \frac{4n}{n} = 4 $ Der Grenzwert existiert und ist gleich $ \lim_{n \to \infty} \frac{(n+1)^{2} - (n-1)^{2}}{n} = 4$.

(6) Durch umformen ergibt sich: $ \lim_{x \to 0} \frac{a^{x} -1}{x} = \lim_{x \to 0} \frac{a^{x} \cdot \log a}{1} = \lim_{x \to 0} a^{x} \cdot \log a = \log a $ Der Grenzwert existiert und ist gleich $ \lim_{x \to 0} \frac{a^{x} -1}{x} = \log a $.

(7) $\lim_{n \to 0} \frac{n}{\tan n} = \lim_{n \to 0} \frac{1}{\frac{1}{\cos^{2}n}} = \lim_{n \to 0} \cos^{2}n = 1 $ Der Grenzwert existiert und ist gleich 1.

(8) $\lim_{n \to 0} \frac{\cos^{2} n -1}{n^{2}} = \lim_{n \to 0} \frac{-2 \cos n \sin n }{2n} = \frac{2 \sin^{2} n -2\cos^{2}n}{2} = -1 $ Der Grenzwert existiert und ist gleich -1.

(9) $\lim_{n \to 0} \frac{\sin n}{n^{2}} = \frac{\cos n}{2n} = $$\frac{1}{0}$ $ = \infty$ Der Grenzwert existiert nicht.

(10) $ \lim_{n \to 0} \frac{\sin^{2} n}{n} = \lim_{n \to 0} \frac{2 \sin n \cos n}{1} = 0 $ Der Grenzwert existiert und ist gleich 0.

(11) Durch die Umformen von $\lim_{n \to \infty} x\cdot (e^{\frac{1}{n}} -1) = \lim_{n \to \infty} \frac{e^{\frac{1}{n}} -1}{\frac{1}{n}} $ ergibt sich eine $\frac{0}{0}$ Situation für $n \to \infty$, auf die L'Hospital anwendbar ist.
$\lim_{n \to \infty} \frac{e^{\frac{1}{n}} -1}{\frac{1}{n}} = \lim_{n \to \infty} \frac{f^{'}(x)}{g^{'}(x)} = \lim_{n \to \infty} \frac{\frac{-e^{\frac{1}{n}}}{n^{2}}}{\frac{-1}{n^{2}}} = \lim_{n \to \infty} e^{\frac{1}{n}} = e^{\lim_{n \to \infty} \frac{1}{n}} = e^{0} = 1$ Der Grenzwert existiert und ist gleich 1.

(12) $\lim_{x \to 0} \frac{3^{x} - 4^{x}}{x} $ mit $ a^{x} = e^{x \ln a}$ und $\ln a - \ln b = \ln \frac{a}{b}$ lässt sich folgende Umformung durchführen: $\frac{3^{x} - 4^{x}}{x} = \frac{e^{x \ln 3} - e^{x \ln 4}}{x}$
Sei $f(x) = e^{x \ln 3} - e^{x \ln 4} $ und $g(x) = x$ dann $\lim_{x \to 0}\frac{f^{'}}{g^{'}} = \lim_{x \to 0} \frac{\ln 3 \cdot e^{0} - \ln 4 \cdot e^{0}}{1}$ = $\frac{\ln 3 - \ln 4}{1} = \ln \frac{3}{4} $
Der Grenzwert existiert und ist $\lim_{x \to 0} \frac{3^{x} - 4^{x}}{x} = \ln \frac{3}{4} $.

(13) $\lim_{x \to \infty} \frac{\log(x)}{x^{\alpha}}$
Sei $f(x) = \log(x) $ und $g(x) = x^{\alpha} $ dann ist $f^{'}(x) = \frac{1}{x} $ und $g^{'}(x) = \alpha x^{\alpha -1} $
$\frac{f^{'}(x)}{g^{'}(x)} = \frac{\frac{1}{x}}{\alpha x^{\alpha -1}} $ = $\frac{1}{x \alpha x^{\alpha -1}} = \frac{1}{\alpha x^{\alpha}} $ $\lim_{x \to \infty} \frac{1}{\alpha x^{\alpha}} = 0 $
Der Grenzwert existiert und ist $\lim_{x \to \infty} \frac{\log(x)}{x^{\alpha}} = 0 $.

(14) $\lim_{x \to \infty} \frac{\sinh(x)}{\cosh(x)} $
Sei $f(x) = \sinh(x) $ und $g(x) = \cosh(x) $ dann ist $f^{'}(x) = \cosh(x) $ und $g^{'}(x) = \sinh(x) $ beziehungsweise $f^{''}(x) = \sinh(x) $ und $g^{''}(x) = \cosh(x) $
Man sieht, dass das mehrfache Anwenden der Regel von L' Hospital zu einer Schleife führt.
$\frac{\sinh(x)}{\cosh(x)} = \frac{\frac{e^{x} - e^{-x}}{2}}{\frac{e^{x} + e^{-x}}{2}} = \frac{e^{x} - e^{-x}}{2} \cdot \frac{2}{e^{x} + e^{-x}} = \frac{e^{x} - e^{-x}}{e^{x} + e^{-x}} $
Der Bruch wird mit $ \frac{e^{-x}}{e^{-x}} $ zu $ \frac{e^{x} - e^{-x}}{e^{x} + e^{-x}} \cdot \frac{e^{-x}}{e^{-x}} $ erweitert zu $\frac{e^{x} \cdot e^{-x} -e^{-x}\cdot e^{-x}}{e^{x}\cdot e^{-x} + e^{-x}\cdot e^{-x}}$ = $\frac{e^{0} - e^{-2x}}{e^{0} + e^{-2x}} = \frac{1 - e^{-2x}}{1 + e^{-2x}}$
$\lim_{x \to \infty} \frac{1 - e^{-2x}}{1 + e^{-2x}} = \frac{1}{1} = 1$
Der Grenzwert existiert und ist $\lim_{x \to \infty} \frac{\sinh(x)}{\cosh(x)} = 1 $.

Folgen

Wir können uns eine Folge als geordnete Sammlung von Objekten vorstellen in der Wiederholungen erlaubt sind. Die Anzahl der Objekte in einer Folge nennt man die Länge der Folge. Bei den Folgen die wir hier betrachten werden handelt es sich um Zahlenfolgen da die Objekte die diese Folgen enthalten Zahlen. Im Prinzip sind auch andere Typen von Objekten möglich, aber wir beschränken uns auf die Folgen mit Zahlen. Die Folgen lassen sich grob in zwei Varianten unterscheiden zum einen in endliche Folgen und zu anderen in unendliche Folgen. Eine unendliche Folge ist eine Folge mit einer unendlichen Anzahl von Elementen.

Eine endliche Folge lässt sich auch schreiben $(a_{i})_{i = 1,\ldots,n}$ dabei steht $a_{i}$ für ein beliebiges Folgenglied, der Ausdruck $i = 1,\ldots,n$ stellt den Laufbereich des Index dar und die runden Klammern () fassen die Folge zusammen, also $(a_{i})_{i = 1,\ldots,n} = (a_{1}, a_{2}, \ldots, a_{n})$. Die Schreibweise für eine unendlich Folge ist der einer endlichen Folge ähnlich $(a_{i})_{i \in \mathbb{N}} = (a_{1}, a_{2}, \ldots)$ der Unterschied ist der Laufbereich des Index, hier in diesem Fall die natürlichen Zahlen ($\mathbb{N}$).

Bei einer endlichen Folge ist es unter Umständen noch möglich alle Folgeglieder aufzulisten. Bei einer unendlichen Folge ist das nicht mehr möglich, sodass anstelle der Folgeglieder das Bildungsgesetz der Folge angegeben wird. Vereinfacht ausgedrückt ist das Bildungsgesetz einer Folge eine Anleitung zum erstellen der Folge.

Eine Funktionsvorschrift ist ein mögliches Bildungsgesetz für eine Folge. Dabei wird eine eine geschlossene Gleichung angeben mit deren Hilfe sich die Folgeglieder der Folge berechnen lassen. Nehmen wir zum Beispiel die Folge der ungeraden Zahlen $1,3,5,\ldots$ diese lässt sich über die Funktionsvorschrift $a_{i} = 2i + 1 $ erstellen.

Bildungsgesetze wie die rekursive Funktionen oder rekursive Formeln sind Formeln, in denen $a_{n}$ in Form von $a_{n-1}$ definiert ist. Um einen beliebigen Term in einer rekursiv definierten Folge zu kennen, muss man alle Terme vor ihm kennen, d. h. man muss den ersten Term kennen, der manchmal als $a_{0}$ oder $a_{1}$ bezeichnet wird. Bei manchen Folgen muss man auch den zweiten Wert kennen. Der erste Term muss definiert sein, um eine richtige rekursive Folge zu haben; es kann nicht angenommen werden, dass der erste Term 1 ist.

Die wohl bekannteste Folge die durch eine Rekursion berechnet wird ist die Fibonacci Folge $0,1,1,2,3,5,8,\ldots$. Bei dieser müssen die beiden ersten Werte bekannt sein. In diesem Fall ist $a_{0} = 0$ und $a_{1} = 1$ und als Rekursionsvorschrift haben wir $a_{i} = a_{i-2} + a_{i-1}$.

i$a_{i-2}$$a_{i-1}$$a_{i} = a_{i-2} + a_{i-1}$
20$a_{i-1}$$a_{i} = a_{i-2} + a_{i-1}$
201$a_{i} = a_{i-2} + a_{i-1}$
201$a_{i} = 0 + 1 = 1$
311$a_{i} = 1 + 1 = 2$
412$a_{i} = 1 + 2 = 3$
523$a_{i} = 2 + 3 = 5$
635$a_{i} = 3 + 5 = 8$
............

Monotonie und Beschränktheit

Die Begriffe Monotonie und Beschränktheit werden dazu verwendet eine Folge zu charakterisieren.

Monotonie

Der Begriff Monotonie bezieht sich auf die Entwicklung des Wertes der Folgeglieder also, ob die Folgeglieder steigen, gleichbleiben oder fallen. Dabei gibt es mehrere mögliche Kombinationen.

$a_{i} \leq a_{i+1}$monoton steigend
$a_{i} < a_{i+1}$streng monoton steigend
$a_{i} \geq a_{i+1}$monoton fallend
$a_{i} > a_{i+1}$streng monoton fallend
$a_{i} = a_{i+1}$konstante Folge

Beschränktheit

Der Begriff der Beschränktheit einer Folge bezieht sich darauf, ob es eine Schranke gibt, die von keinem Folgeglied überschritten beziehungsweise von keinem Folgeglied unterschritten wird, je nachdem welcher der Fälle vorliegt, ist die Folge nach oben beziehungsweise nach unten beschränkt. Etwas formaller formuliert, eine Folge reeller Zahlen heißt nach oben beschränkt, wenn sie eine obere Schranke $S$ besitzt, sodass für alle $i$ aus $\mathbb{N}$ gilt: $a_{i} \leq S$. Die kleinste obere Schranke einer Folge wird als ihr Supremum $(\sup)$ bezeichnet. Eine Folge reeller Zahlen heißt nach unten beschränkt, wenn sie eine untere Schranke $I$ besitzt, sodass für alle $i$ aus $\mathbb{N}$ gilt: $a_{i} \leq I$. Die größte untere Schranke einer Folge wird als ihr Infimum $(\inf)$ bezeichnet. Ist eine Folge sowohl nach oben wie auch nach unten beschränkt, heißt sie beschränkt.

Grenzwert / Konvergenz

Mit dem sogenannten Monotoniekriterium für Folgen kann anhand der Eigenschaften der Folge, Monotonie und Beschränktheit, die Frage beantwortet werden, ob die Folge einen Grenzwert hat. Eine nach oben beschränkte monoton wachsende Folge hat einen Grenzwert. Und der Grenzwert ist kleiner gleich dem Supremum der Folge. Und entsprechend. Eine nach unten beschränkte monoton fallende Folge hat einen Grenzwert. Und der Grenzwert ist mindestens zu groß wie das Infimum der Folge. Im Fall von Folgen und Reihen wird anstelle von einem Grenzwert auch von der Konvergenz gesprochen, daher können wir auch sagen, eine monoton wachsende Folge konvergiert genau dann, wenn sie nach oben beschränkt ist beziehungsweise eine monoton fallende Folge konvergiert genau dann, wenn sie nach unten beschränkt ist. Für Reihen gilt, eine Reihe mit nichtnegativen reellen Summanden konvergiert genau dann gegen einen Grenzwert, wenn ihre Partialsummen nach oben beschränkt sind und entsprechend eine Reihe mit nichtpositiven reellen Summanden konvergiert genau dann gegen einen Grenzwert, wenn ihre Partialsummen nach unten beschränkt sind. Reihen die das Monotoniekriterium erfüllen sind nicht nur konvergent sondern absolut konvergent.

Nullfolgen

Folgen, die den Wert Null als Grenzwert haben, nennt man Nullfolgen.

Bekannte Folgen

harmonische Folge

Betrachten wir die sogenannte harmonische Folge, bei dieser Folge handelt es sich um die Folge der Kehrwerte der positiven ganzen Zahlen, also $ 1, \dfrac{1}{2}, \dfrac{1}{3}, \dfrac{1}{4}, \dfrac{1}{5}, \ldots$ das sich so schreiben $(a_{n})_{n \in \mathbb{N}} = \left( \dfrac{1}{n} \right)_{n \in \mathbb{N}} = \left( 1, \dfrac{1}{2}, \dfrac{1}{3}, \dfrac{1}{4}, \dfrac{1}{5}, \ldots \right)$ lässt. Im ersten Schritt wollen wir die Monotonie der Folge überprüfen, also schauen ob die Folge wächst, abnimmt oder gleichbleit. Dazu vergleichen wir $a_{i}$ und $a_{i+1}$ miteinander. Offensichtlich ist $a_{i} > a_{i+1}$ da $\dfrac{1}{n} > \dfrac{1}{n +1}$ ist. Die harmonische Folge ist streng monoton fallend. Im nächsten Schritt untersuchen wird die Beschränktheit der Folge. Wir wissen, dass mit größer werdendem $n$ der Ausdruck $\frac{1}{n}$ immer kleiner wird da die Folge streng monoton fällt.

Wertetabelle harmonische Folge
$n$110100100010000
$\frac{1}{n}$10,10,010,0010,0001

In der Wertetabelle sieht man für ausgewählte $n$ den Wert des entsprechenden Folgeglieds. Der Ausdruck $\frac{1}{n}$ ist für alle $n$ aus $\mathbb{N}$ positiv. Daher kann die untere Grenze keine negative Zahl sein. Auch kann der Ausdruck $\frac{1}{n}$ nicht $0$ werden, da es kein $n$ aus gibt, sodass $\frac{1}{n} = 0$ ist. Damit ist untere Grenze gefunden es ist die $0$.
Da die harmonische Folge streng momoton fällt und nach unten beschränkt ist, folgt daraus das sie konvergiert beziehungsweise sie einen Grenzwert besitzt und es gilt $\lim_{n \to \infty} \frac{1}{n} = 0$. Die harmonische Folge ist also eine Nullfolge.

Eigenschaften der harmonische Folge

arithmetische Folge

Eine Folge heißt arithmetisch, wenn die Differenz für zweier aufeinander folgender Glieder stets konstant ist. Zum Beispiel die Folge der natürlichen Zahlen $1,2,3,4,\ldots$, die Folge der geraden Zahlen $2,4,6,8\ldots$ und die Folge der ungeraden Zahlen $1,3,5,7\ldots$. Bei der Folge der natürlichen Zahlen ist die Differenz zwischen zwei aufeinanderfolgenden Glieder gerade 1. Bei den beiden anderen Folgen ist diese Differenz jeweil 2.
Eingenschaften der arithmetischen Folgen

geometrische Folge

Eine Folge heißt geometrisch, wenn der Quotient für zweier aufeinander folgender Glieder stets konstant ist.

Durch das Aufsummieren aller Glieder einer geometrischen Folge erhält man die entsprechende geometrischen Reihe. Der Wert einer geometrischen Reihe lässt sich wie folgt berechnen \[ s_{n} = \sum_{i = 1}^{n} a_{i} \cdot q^{i -1} = a_{1} \cdot \frac{q^{n} - 1}{q - 1} \]

Übungen B

Untersuchen Sie die Folgen $(a_{n}) $ auf Konvergenz und berechnen Sie gegebenfalls den Grenzwert:

  1. $a_{n}:= \frac{(n + 2)^{2} - n^{2}}{n} $
  2. $a_{n}:= \frac{2n + \sqrt{n+1}}{n} $
  3. $a_{n}:= (\frac{n}{n+1})^{n} $
  4. $a_{n}:= n\cdot \arctan\frac{1}{n} $
  1. $ a_{n} = \frac{n^{2} + 4n + 4 -n^{2}}{n} = 4 + \frac{4}{n}$ und $\lim\limits_{n \to \infty} 4 + \frac{4}{n} = 4 $
  2. $a_{n} = 2 +\frac{\sqrt{n+1}}{n} = 2 + \sqrt{\frac{n+1}{n^{2}}} = 2 + \sqrt{\frac{1}{n} + \frac{1}{n^{2}}} $ und $\lim\limits_{n \to \infty} 2 + \sqrt{\frac{1}{n} + \frac{1}{n^{2}}} = 2$
  3. $\frac{1}{a_{n}} = (\frac{n+1}{n})^{n} = (1 + \frac{1}{n})^{n} \to e \text{ für } n \to \infty $ Daraus folgt $\lim\limits_{n \to \infty} a_{n} = \frac{1}{e} $
  4. $\lim_{n \to \infty} \frac{ \arctan \frac{1}{n}}{\frac{1}{n}} = \lim_{x \to 0} \frac{ \arctan x}{x} =^{\text{Bernoulli, de l'Hopital}} \lim_{x \to 0} \frac{ \frac{1}{1 + x^{2}}}{1} = 1 $

Untersuchen Sie die Folgen $(a_{n}) $ auf Beschränktheit und Konvergenz:

  1. $a_{n} = \frac{n^{2} + 3n - 7}{3n + 5}$
  2. $a_{n} = \frac{n \sin (\frac{\pi}{2} + n^{2} \pi)}{n + \cos(n^{2}\pi)} \quad (\ \textrm{mit}\ n \geq 2) $
  1. Nein, die Folge ist nicht beschränkt, denn $a_{n} = \frac{n + 3 + 7/n}{3 + 5/n} \geq \frac{n}{8}$ und $\lim\limits_{n \to \infty} \frac{n}{8} = \infty $. Da die Folge nicht beschränkt ist, ist die Folge auch nicht konvergent.
  2. Ja, die Folge ist beschränkt zwischen -1 und 1. Denn $a_{2k} = \frac{1}{1 + 1/2k}$ geht gegen $1$ und $ a_{2k+1} = \frac{-1}{1 - 1/(2k + 1)}$ geht gegen $- 1$. Da Supremum und Infimum nicht gleich sind ist Folge nicht konvergent.

Reihen

Folgen können auch als Reihe dargestellt werden. Die Summe der Folgenglieder wird als Reihe bezeichnet. Dabei wird die Summe $s_{n}$ der Glieder $a_{n}$ einer Folge $(a_{n})$ mit Hilfe des Summensymbols $\Sigma$ dargestellt \[s_{n} = \sum_{i = 1}^{n} a_{i} = a_{1} + a_{2} + \ldots + a_{n} \] Unterhalb des Summenzeichens wird der Startwert beziehungsweise die Untergrenze und über dem Summenzeichens wird Endwert beziehungsweise die Obergrenze des Index $i$ angegeben. Beachten Sie, dass die Grenzen jeweils ganze Zahlen. Im gezeigten Beispiel werden alle Folgeglieder $a_{i}$ von $i = 1$ bis $i = n$ aufsummiert. Wenn man nur eine Teilfolge addiert, spricht man von einer Teilsumme (Partialsumme).

Beispiele
\[\sum_{k=0}^{n} c = nc \text{ wenn } c \text{ eine Konstante ist.}\] \[\sum_{k=0}^{n} k = \frac{n(n+1)}{2} \text{ Der kleine Gauss oder Summe der natürlichen Zahlen.}\] \[\sum_{k=0}^{n} k^{2} = \frac{n(n+1) (2n +1)}{6} \] \[\sum_{k=0}^{n} k^{3} = \frac{n^{2}(n +1)^{2}}{4} \] \[\sum_{k=1}^{n} (2k + 1) = n^{2} \text{ Summe der ungeraden Zahlen }\] Eigenschaften
\[\sum_{k}^{n} s_{k} + \sum_{n}^{m} s_{k} = \sum_{k}^{m} s_{k} \text{ Addition von Summen.}\] \[ j \sum_{k}^{n} s_{k} = \sum_{k}^{n} js_{k} \text{ Distributivgesetz}\]

Einleitung

Eine Reihe ist die Summe einer Folge von Termen. Eine unendliche Reihe ist die Summe einer unendlichen Anzahl von Termen die eigentliche Summe der Reihe muss nicht unendlich sein, wie wir weiter unten sehen werden.

arithmetischen Reihe

Durch das Aufsummieren aller Glieder einer aritmetischen Folge erhält man die entsprechende arithmetische Reihe. Der Wert einer arithmetischen Reihe lässt sich wie folgt berechnen \[ s_{n} = \sum_{i = 1}^{n} a_{i} = \sum_{i =1}^{n} (a_{1} + (i - 1) \cdot d) = n \cdot a_{1} + \dfrac{n \cdot (n - 1)}{2} \cdot d \]

Im Fall der der Folge der natürlichen Zahlen ergibt sich mit $a_{1} = 1 $ und $d = 1$ eingesetzt in die obige Formel dann $ n \cdot 1 + \dfrac{n \cdot (n - 1)}{2} \cdot 1 = \dfrac{2n + n^{2} - n}{n} = \dfrac{n + n^{2}}{2} = \dfrac{n (n + 1)}{2}$. \[ s_{n} = \sum_{i = 1}^{n} i = \dfrac{n \cdot (n + 1)}{2} \] diese Formel wird auch als kleiner Gauss bezeichent.

geometrische Reihe

Eine geometrische Reihe ist die Summe von Termen mit einem gemeinsamen Verhältnis. Eine interessante Reihe, die in vielen praktischen Problemen in Wissenschaft, Technik und Mathematik vorkommt, ist zum Beispiel die geometrische Reihe $ r+r^{2}+r^{3}+r^{4}+\cdots$, wobei die $\cdots$ anzeigen, dass die Reihe unendlich weitergeht. Eine gängige Methode zur Untersuchung einer bestimmten Reihe (in Anlehnung an Cauchy) besteht darin, eine Folge zu definieren, die aus der Summe der ersten $n$ Terme besteht. Zum Beispiel können wir zur Untersuchung der geometrischen Reihe die Folge betrachten, die die ersten n Terme addiert: \[S_{n} (r) = \sum_{i=1}^{n} r^{i} \] Im Allgemeinen können wir durch die Untersuchung der Folge von Teilsummen das Verhalten der gesamten unendlichen Reihe verstehen. Zwei der wichtigsten Fragen zu einer Reihe sind: Konvergiert sie? Und wenn ja, zu was konvergiert sie? Es ist zum Beispiel recht einfach zu erkennen, dass die geometrische Reihe $ S_{n}(r)$ für $ r>1$ nicht zu einer endlichen Zahl konvergiert (d. h. sie divergiert ins Unendliche). Um dies zu sehen, beachten Sie, dass jedes Mal, wenn wir die Anzahl der Terme in der Reihe erhöhen, $ S_{n}(r) $ um $r^{n+1}$ zunimmt, da $r^{n+1}>1 $ für alle $r>1$ (und so haben wir $r$ definiert), muss $S_{n}(r)$ für jeden Term um eine Zahl größer als eins steigen. Wenn man die Summe für jeden Term um mehr als eins erhöht, wird sie divergieren. Eine vielleicht noch überraschendere und interessantere Tatsache ist, dass für $|r|<1$, $S_{n}(r)$ gegen einen endlichen Wert konvergiert. Insbesondere ist es möglich zu zeigen, dass \[\lim_{n \to \infty} S_{n} (r) = \frac{r}{1 - r} \text{ ist.}\] Betrachten Sie den folgenden Ausdruck \[(1 -r) S_{n} (r) = (1-r) \sum_{i=1}^{n} r^{i} = \sum_{i=1}^{n} r^{i} - \sum_{i=2}^{n+1} r^{i} = r - r^{n+1} \] Da $r^{n+1}\to 0$ wenn $ n\to \infty$ für $ |r|<1$, zeigt dies, dass $(1-r)S_{n}(r)\to r $ wenn $ n\to \infty$ geht. Die Ausdruck $1-r$ ist ungleich Null und hängt nicht von $n$ ab, so dass wir durch sie dividieren können und die gewünschte Formel erhalten. Wir würden gerne ähnliche Schlussfolgerungen für jede beliebige Reihe ziehen können.

Leider gibt es keine einfache Möglichkeit, eine Reihe zu summieren. In den meisten Fällen können wir lediglich feststellen, ob sie konvergiert. Die arithmetische Reihe, geometrische Reihe und die Teleskopreihe sind die einzigen Reihen, deren Summe wir leicht ermitteln können.

Konvergenz

Es ist offensichtlich, dass die $a_{n}$ gegen Null tendieren muss, damit eine Reihe konvergiert denn die Summe einer unendlichen Anzahl von Termen, die alle größer als eine bestimmte positive Zahl sind, ist unendlich, aber selbst wenn der Grenzwert der Folge 0 ist, reicht das nicht aus, um zu sagen, das die Reihe konvergiert. Formal ausgedrückt wird dies als Nullfolgenkriterium für Reihen bezeichnet, das besagt wenn die Folge keine Nullfolge ist, dann ist die entsprechende Reihe nicht konvergent, mit anderen Worten die Reihe divergiert. Aber es reicht für Konvergenz einer Reihe nicht aus, dass die entsprechende Folge eine Nullfolge ist, wie das nachfolgende Beispiel mit der harmonischen Reihe zeigt. Von der harmonischen Folge wissen wir, dass es scih bei dieser Folge um eine Nullfolge handelt. Betrachten wir nun die harmonische Reihe, die Summe von $\frac{1}{n}$, wobei wir die einzelnen Summanden in Gruppen zusammen und abschätzen. \[\begin{array}{rcccccccccccc} \sum\limits_{n=1}^{2^{m}} \frac{1}{n} &=& 1 &+& \frac{1}{2} &+& \frac{1}{3}+\frac{1}{4} &+& \frac{1}{5} + \frac{1}{6} + \frac{1}{7} + \frac{1}{8} &+& \ldots &+& \sum_{p=1 + 2^{n-1}}^{2^{n}} \frac{1}{p} \\ &>& 1 &+& \frac{1}{2} &+& \frac{2}{4} & + & \frac{4}{8} &+& \ldots &+& \frac{2^{n-1}}{2^{n}} \\ &=& 1 &+& \frac{1}{2} &+& \frac{1}{2} & + & \frac{1}{2} &+& \ldots &+& \frac{1}{2} \\ \end{array}\]

Die erste Zeile zeigt dabei die Summanden der Reihe wie sie in Gruppen zusammen gefasst werden. Von dem ersten Term, der 1, abgesehen wird erst ein Summand, dann zwei, dann vier, dann acht und so weiter zusammengefasst, wenn dies mit Zahlen beschrieben $(1,2,4,8,\ldots)$ sieht man dass die Anzahl der Summanden die zusammen gefasst werden eine Zweierpotenz ($2^{n}$) ist.

In der Zweiten Zeile wird der Wert dieser Summanden Gruppen durch einen Term, der abgesehen von den ersten zwei Positionen, die 1 und $\frac{1}{2}$, kleiner als der Wert der Summanden Gruppe ist abgeschätzt. Im Fall der ersten zwei Position ist er gleich groß. Daher ist diese Abschätzung ab der Position 3 echter kleiner als die harmonische Reihe.

In der dritten und letzten Zeile, wurden die Brüche (mit Ausnahne der ersten zwei Positionen) gekürzt, das Ergebnis ist immer $\frac{1}{2}$. Wenn wir nun die Summe der Terme der letzten Zeile berechnen sieht man, dass mit steigender Anzahl der Terme die Summe immer weiter wächst. Mit anderen Worten wenn die Anzahl m an Termen gegen unendlich geht, geht auch die Summe gegen unendlich . Da nun diese Summe, die kleiner ist wie die Summe der harmonischen Reihe, gegen unendlich geht, ist klar das die Reihe divergiert.

Aritmetische Reihen sind im Allgemeinen divergent!

Tests auf Kovergenz

Es gibt viele Tests für Konvergenz und Divergenz, von denen wir die wichtigsten im Folgenden beschreiben.

Wurzelkriterium

Sei $S = \sum_{n=0}^\infty a_n$ eine unendliche Reihe mit Summanden $a_n$ gegeben. Falls es einen Limes superior kleiner 1 gibt $\limsup\limits_{n\to\infty}\sqrt[n]{|a_{n}|}<1 $ oder $\sqrt[n]{|a_{n}|}\le C$ für ein $C < 1$ und für fast alle $n$, so ist die Reihe $S$ absolut konvergent. Das heißt nicht nur die Reihe $S$ selbst, sondern auch die Reihe $\sum_{n=0}^\infty |a_n|$ konvergiert.

Quotientenkriterium

Quotientenkriterium, für eine Reihe mit Termen $a_{n} \neq 0$ bedeutet das, wenn \[\lim_{n \to \infty} \mid \dfrac{a_{n+1}}{a_{n}}\mid = r \] dann gilt

Integralkriterium

Integralkriterium, sei $f$ eine monoton fallende Funktion, die auf dem Intervall $[p,\infty)$ mit einer ganze Zahl $p$ definiert ist und nur nichtnegative Werte annimmt. Dann konvergiert die Reihe $\textstyle \sum_{n=p}^\infty f(n) $ genau dann, wenn das Integral $\textstyle \int_p^\infty f(x) \,\mathrm dx $ existiert, das heißt, wenn es einen endlichen Wert annimmt.
Für die harmonische Reihe wäre das dann \[ \int_{1}^{M} \frac{1}{n} \ dx = \ln n \Bigl|_{1}^{M} = \ln M \to \infty \text{ für } M \to \infty \] also die Reihe divergiert.

Grenzwertkriterium

Grenzwertkriterium, seien $\sum_k a_k$ und $\sum_k b_k$ zwei unendliche Reihen mit positiven Summanden (das heißt, $a_k > 0$ und $b_k > 0$ für alle $k \in \mathbb{N}$) für die \[\lim_{n \to \infty} \frac{a_{n}}{b_{n}} = L \] gilt, wobei $L$ positiv und endlich seinen muss, dann konvergieren beide Reihen entweder oder beide divergieren, das heißt

Leibniz-Kriterium

Leibniz-Kriterium, dabei handelt es sich um Konvergenzkriterium für alternierende Reihe. Bei einer alternierenden Reihe wechselt das Vorzeichen zwischen zwei benachbarten Summanden. Bei der nachfolgenden Reihe handelt es sich zum Beispiel um eine alternierende Reihe \[ \sum_{n=1}^{\infty} (-1)^{n} a_{n} \] Das Leibnitzkriterium besagt nun, dass wenn $a_{n}$ eine Nullfoge ist, also $\lim\limits_{n \to \infty} a_{n} = 0$ ist und $a_{n}$ monoton fallend ist, also $a_{n+1} \leq a_{n}$ gilt. Dabei müssen diese Bedingungen nicht für alle $n$ erfüllt sein, es reicht aus wenn es ein $n_{0}$ ab dem die Bedingungen für alle $n \geq n_{0}$ erfüllt sind.
Alternierende harmonische Reihe
Die alternierende harmonische Reihe $\sum_{n=1}^{\infty} \frac{(-1)^{n+1}}{n}$ kann mit Hilfe des Leibnitzkriteriums auf Konvergenz untersucht werden. Dazu wird

  1. Die Folge $a_{n}$ bestimmt
  2. Der Grenzwert der Folge $a_{n}$ bestimmt
  3. Die Monotonie der Folge $a_{n}$ bestimmt
  1. Die Folge $a_{n}$ ist hier $a_{n} = \dfrac{1}{n}$ vereinfacht formuliert alles was in der Reihe steht und nichts mit $(-1)^{n+1}$ zu tun hat.
  2. Die Folge $a_{n} = \dfrac{1}{n}$ ist harmonische Folge und wir wissen bereits, dass der Grenzwert der harmonische Folge 0 ist, da $\lim\limits_{n \to \infty} \dfrac{1}{n} = 0$.
  3. Jetzt muss noch die Monotonie der Folge $a_{n}$ bestimmt werden beziehungsweise es muss gezeigt werden, dass die Folge $a_{n}$ monoton fällt also das $a_{n} \geq a_{n+1}$ ist. \[ \begin{array}{crcl} & a_{n} &\geq& a_{n+1} \\ \iff & \dfrac{1}{n} \geq \dfrac{1}{n+1} \\ \iff & \dfrac{1 \cdot (n+1) }{n} \geq \dfrac{1 \cdot (n+1)}{n+1} \\ \iff & \dfrac{n+1}{n} \geq \dfrac{n+1}{n+1} \\ \iff & \dfrac{n}{n} +\dfrac{1}{n} \geq 1 \\ \iff & 1 +\dfrac{1}{n} \geq 1 \\ \iff & \dfrac{1}{n} \geq 0 \\ \end{array} \] Die letzte Zeile stimmt für alle n, da auf der linke Seite irgendeine positiver Bruch steht und der ist immer größer als 0 und damit ist $a_{n} monoton fallend.
Damit sind die Bedingungen für das Leibniz-Kriterium erfüllt und daraus folgt, dass die alterniernde harmonische Reihe konvergiert.

Geometrische Reihen Die geometrische Reihe kann auch in den folgen Formen auftauch \[\sum_{n=0}^{\infty} ar^{n} \text{ oder } \sum_{n=1}^{\infty} ar^{n-1} \] Wie wir bereits gesehen haben ist die Summe der geometrischen Reihe \[s = \lim_{n \to \infty} S_{n} = \lim_{n \to \infty} \dfrac{a(1 - r^{n})}{1 - r} = \dfrac{a}{1 - r} \text{ für } \mid r \mid < 1 .\]

Teleskopsumme Trick Angenommen wir haben eine Reihe der Form \[ \sum_{n=0}^{\infty} (b_{n} - b_{n+1}) \] dann können wir folgendes Verfahren anwenden, \[ \sum_{n=0}^{k} (b_{n} - b_{n+1}) = (b_{0} - b_{1}) + (b_{1} - b_{2}) + (b_{2} - b_{3}) + \ldots + (b_{k-1} - b_{k}) \] wenn wir jetzt die Klammern neu ordnen, erhalten wir \[ \sum_{n=0}^{k} (b_{n} - b_{n+1}) = b_{0} ( - b_{1} + b_{1}) + (- b_{2}) + b_{2}) + (- b_{3} + B_{3}) + \ldots + (- b_{k-1} - b_{k-1}) - b_{k} \] man sieht sofort, dass der Inhalt jeder Klammer null ist, und der Ausdruck verkürzt sich zu \[ \sum_{n=0}^{k} (b_{n} - b_{n+1}) = b_{0} - b_{k} \] Daher \[ \sum_{n=0}^{\infty} (b_{n} - b_{n+1}) = \lim_{k \to \infty} \sum_{n=0}^{k} (b_{n} - b_{n+1}) = \lim_{k \to \infty} b_{0} - b_{k} = b_{0} - \lim_{k \to \infty} b_{k} \] jetzt muss nur noch der Grenzwert bestimmt werden.

Test auf Divergenz

Ein Test auf Divergenz ist das sogenannte Nullfolgenkriterium. Das ist auf Basis des Grenzwertes der zugrundliegenden Folge. Der Grenzwerttest sagt uns im Wesentlichen, ob die Reihe ein Kandidat für Konvergenz ist oder nicht. Er lautet wie folgt:

Wenn eine Reihe $S = \sum\limits_{n}^{\infty} s_{n} $ und wenn $\lim\limits_{n \to \infty} s_{n} \neq 0 $ ist (d.h. der Grenzwert der entsprechenden Folge) muss die Reihe divergent sein. Wenn der Grenzwert Null ist, ist der Test nicht schlüssig beziehungsweise nicht eindeutig und weitere Analysen sind erforderlich.

Wenn der Summand sich nicht der Null nähert, wird, wenn $n$ sehr groß wird, und $s_{n}$ in der Nähe des von Null verschiedenen $L$ liegt, wird sich die Reihe wie eine arithmetische Reihe verhalten; denken Sie daran, dass arithmetische Reihen niemals konvergieren.

Dies ist ein Test auf Divergenz und nicht auf Konvergenz. Eine Reihe besteht diesen Test nicht, wenn der Grenzwert des Summanden gleich Null ist, und nicht, wenn er ein von Null verschiedenes $L$ ist. Wenn der Grenzwert Null ist, müssen Sie andere Tests durchführen, um festzustellen, ob die Reihe divergent oder konvergent ist.

Mit anderen Worten formuliert, es reicht nicht aus, dass die Folge eine Nullfolge ist, um zu zeigen, dass die Reihe konvergiert. Das klassische Gegenbeispiel ist die harmonische Folgen, die eine Nullfolge ist, und die harmonische Reihe die divergent ist.

Majorantenkriterium

Ein erster echter Test für Konvergenz ist das Majorantenkriterium beziehungsweise der Vergleichstest da es auch das Minorantenkriterium gibt. Dieser Test ist sehr einfach und intuitiv. Vergleich für Konvergenz und Divergenz
Angenommen wir haben zwei Reihen $S$ und $Z$ für die folgendes gilt: \[ S = \sum_{n = j}^{\infty} s_{n} \text{ und } Z = \sum_{n=j}^{\infty} z_{n} \text{ und wenn } 0 \leq z_{n} \leq s_{n} \text{ist im Interval } [j,\infty) \text{, dann gilt}\]
  1. Wenn $Z$ divergent ist, ist auch $S$ divergent
  2. Wenn $S$ konvergent ist, ist auch $Z$ konvergent.

Zunächst ein paar Worte zu diesem Test. Beachten Sie, dass dieser Test auch dann gilt, wenn die Summanden der beiden Reihen gleich sind. Denn wenn die Summanden gleich sind, bedeutet dies, dass auch die Reihen gleich sein müssen. Wenn also eine der Reihen aufgrund der Gleichheitseigenschaft konvergiert oder divergiert, müssen sie beide konvergieren oder divergieren. Wenn jedoch der Ausgangspunkt $j$ von Reihe zu Reihe unterschiedlich ist, dann konvergieren sie nicht zum gleichen Wert, d. h. $Z\neq S$, aber dieser Test gilt trotzdem.

Der Test selbst folgt aus der Tatsache, dass, wenn wir wissen, dass $S$ gegen eine endlichen Zahl konvergiert, und wir wissen, dass $z_{n}$ kleiner (oder gleich) $s_{n}$ für alle $n$ ist, dann folgt daraus, dass $Z$ auch gegen eine endlichen Zahl größer als Null konvergieren wird, d.h., wenn es eine Summe $1+2+3+4$ und eine Summe $ 2+3+4+5$ gibt, dann wissen wir, dass die erste Summe kleiner sein wird, weil sie kleinere Zahlen enthält; das Einzige, was kleiner als eine endliche Zahl ist, ist eine andere endliche Zahl. Das Gleiche gilt für den Divergenzteil dieses Tests. Wenn $Z$ divergiert und $z_{n}$ ist kleiner oder gleich $s_{n}$ für alle $n$, dann wird $S$ im Wesentlichen aus demselben Grund divergieren: Der Summand ist größer, und die Summe einer Menge von Zahlen, die größer ist als die Summe von Zahlen, die unendlich ist, muss ebenfalls unendlich sein, da es keine endliche Zahl gibt, die größer ist als eine unendliche Zahl.

Als letzter wichtiger Hinweis für diesen Test, beachten Sie das alle Terme $z_{n}$ und $s_{n}$ größer als Null sein müssen, damit dieser Test schlüssig ist. Die Reihe $\sum _{n=1}^{\infty} \frac{(-1)^{n}}{n}$ kann nicht mit dem Vergleichstest geprüft werden, weil sie alternierend ist und die Hälfte der Terme kleiner als Null sind.

Übungen C

Untersuchen Sie folgende Reihen auf Konvergenz.
  1. $\sum_{k=1}^{\infty} \frac{3^{k}}{k!} $
  2. $\sum_{k=1}^{\infty} (\frac{k}{2k + 5})^{k} $
  3. $\sum_{k=1}^{\infty} \frac{1}{7^{k}} + \frac{1}{k^{2}} $
  4. $\sum_{k=1}^{\infty} \frac{\cos(k \pi)}{k} $
  5. $\sum_{n=1}^{\infty} \frac{2 + (-1)^{n}}{2^{n}} $
  6. $\sum_{n=1}^{\infty} (-1)^{n} \frac{n}{n^{2} + 1} $
  7. $\sum_{n=1}^{\infty} \frac{n}{n^{2} + 1} $
  8. $\sum_{n=1}^{\infty} \frac{n!}{(2n)^{n}} $
  9. $\sum_{n=1}^{\infty} \frac{n^{2}}{n^{3} + 1}$
  10. $\sum_{n=1}^{\infty}(-1)^{n} \frac{n + 1}{n^{2} + 1} $
Lösungen

  1. $\sum_{k=1}^{\infty} \frac{3^{k}}{k!} = e^{3} \Rightarrow $ Konvergent. Alternativ mit Quotientenkriterium : \\ $ | \frac{a_{k+1}}{a_{k}}| = \frac{3}{k+1} \to 0 ( k \to \infty) $ also ist die Reihe konvergent.
  2. Wurzelkrieterium : $\sqrt[k]{|a_{k}|} = \frac{k}{2k + 5} = \frac{1}{2 + \frac{5}{k}} \to (k \to \infty) \frac{1}{2} < 1 $ die Reihe ist also konvergent.
  3. Geometrische Reihe, sowohl $\sum_{k=0}^{\infty} \frac{1}{7^{k}} $ ist konvergent als auch $\sum_{k=1}^{\infty} \frac{1}{k^{2}} $. Da beiden Reihen konvergieren, konvergiert auch $\sum_{k=1}^{\infty} ( \frac{1}{7^{k}} + \frac{1}{k^{2}}) $
  4. $\cos(k\pi) = (-1)^{k} $ \quad $\sum_{k=1}^{\infty} \frac{\cos(k\pi)}{k} = \sum_{k=1}^{\infty} \frac{(-1)^{k}}{k} $ alternierende harmonische Reihe. Diese ist nach dem Leibnitzkrieterium konvergent.
  5. Die Reihe $\sum_{n=1}^{\infty} \frac{2+(-1)^{n}}{2^{n}}$ konvergiert, denn: $\frac{2+(-1)^{n}}{2^{n}} \leq \frac{2 + 1}{2^{n}} = \frac{3}{2^{n}} $ und weil die Reihe $\sum_{n=1}^{\infty} \frac{3}{2^{n}} $ konvergiert (geometrische Reihe) haben wir eine konvergente Majorante, folglich konvergiert die Reihe.
  6. Die Reihe $\sum_{n=1}^{\infty}(-1)^{n} \frac{n}{n^{2} + 1} $ konvergiert, denn: wegen $\begin{array}{rclc} n + 1 &\leq& 2n &\iff \\ n^{3} + n^{2} + n + 1 &\leq& n^{3} + n^{2} + 2n& \iff \\ n^{3} + n^{2} + n + 1 &\leq& n^{3} + 2n^{2} + 2n& \iff \\ (n+1)(n^{2} +1) &\leq& n((n+1)^{2} +1) &\iff \\ \frac{n+1}{(n+1)^{2} +1} &\leq& \frac{n}{n^{2} + 1}&\\ \end{array}$
    haben wir eine monoton fallende Nullfolge. Aus dem Leibniz-Krieterium folgt die Konvergenz.
  7. Die Reihe $\sum_{n=1}^{\infty} \frac{n}{n^{2} +1} $ ist divergent. Denn: $\frac{n}{n^{2} +1} \geq \frac{n}{n^{2} + n} = \frac{1}{n+1} $. Da die Reihe $\sum \frac{1}{n+1} $ divergent ist, haben wir also eine divergente Minorante, folglich ist auch unsere Reihe divergent.
  8. Die Reihe $\sum_{n=1}^{\infty} \frac{n!}{(2n)^{n}} $ ist konvergent. $\frac{n!}{(2n)^{n}} \leq \frac{n^{n}}{(2n)^{n}} = \frac{1}{2^{n}} $ und die Reihe $\sum \frac{1}{2^{n}}$ ist konvergent, folglich haben wir eine konvergente Majorante.
  9. Die Reihe $\sum_{n=1}^{\infty} \frac{n^{2}}{n^{3}+1}$ ist divergent. Denn: $\frac{n^{2}}{n^{3} + 1} \geq \frac{n^{2}}{2n^{3}} = \frac{1}{2n} $. Es gibt also eine divergente Minorante.
  10. Die Reihe $\sum_{n=1}^{\infty} (-1)^{n} \frac{n+1}{n^{2} +1} $ ist konvergent, weil $\frac{n+1}{n^{2} +1} $eine monoton fallende Nullfolge ist. Zunächst gilt $\frac{1+1}{1^{2} +1} = 1 > \frac{3}{5} = \frac{2 +1}{2^{2}+1}$ und weiter haben wir: $\begin{array}{crcl} &n &\geq& 2 \\ \iff& 2n &\geq& n + 2 \\ \iff& n^{3} + 2n^{2} + 2n &\geq& n^{3} + 2n^{2} + n + 2 \\ \iff& n(n^{2} + 2n + 2) &\geq& (n+2)(n^{2} + 1) \\ \iff& \frac{n}{n^{2} + 1} &\geq& \frac{n+2}{n^{2} + 2n + 2} \\ & &=& \frac{n+2}{(n+1)^{2} +1} \\ \end{array}$
    Also ist die Monotonie klar, die Folge ist außerdem eine Nullfolge wegen $0 \leq \frac{n+1}{n^{2} +1} \leq \frac{2n}{n^{2}} = \frac{2}{n} \to 0 $