2
0
Fork 0
mirror of https://github.com/MartinThoma/LaTeX-examples.git synced 2025-04-18 19:18:21 +02:00
LaTeX-examples/documents/Analysis II/Analysis-II.tex
Martin Thoma 7740f0147f Remove trailing spaces
The commands

find . -type f -name '*.md' -exec sed --in-place 's/[[:space:]]\+$//' {} \+

and

find . -type f -name '*.tex' -exec sed --in-place 's/[[:space:]]\+$//' {} \+

were used to do so.
2015-10-14 14:25:34 +02:00

4018 lines
197 KiB
TeX

% Original Source: http://mitschriebwiki.nomeata.de/data/SS10/Ana2Bachelor.tex
\documentclass[a4paper,oneside,DIV15,BCOR12mm]{scrbook}
\usepackage{mathe}
\usepackage{saetze-schmoeger}
\lecturer{Dr. C. Schmoeger}
\semester{Sommersemester 2010 und 2012}
\scriptstate{complete}
\author{Die Mitarbeiter von \href{http://mitschriebwiki.nomeata.de/}{mitschriebwiki.nomeata.de} und \href{https://github.com/MartinThoma/LaTeX-examples/tree/master/documents}{GitHub}}
\title{Analysis II}
\makeindex
\hypersetup{
pdfauthor = {Die Mitarbeiter von mitschriebwiki.nomeata.de und GitHub},
pdfkeywords = {Analysis},
pdftitle = {Analysis II}
}
\begin{document}
\maketitle
\renewcommand{\thechapter}{\Roman{chapter}}
%\chapter{Inhaltsverzeichnis}
\addcontentsline{toc}{chapter}{Inhaltsverzeichnis}
\tableofcontents
\chapter*{Vorwort}
\section*{Über dieses Skriptum}
Dies ist ein erweiterter Mitschrieb der Vorlesung "`Analysis II"' von Herrn Schmoeger im
Sommersemester 2005 (bis einschließlich §14) und im Sommersemester 2010 (ab §15) an der Universität
Karlsruhe (KIT). Die Mitschriebe der Vorlesung werden mit ausdrücklicher Genehmigung
von Herrn Schmoeger hier veröffentlicht, Herr Schmoeger ist für den Inhalt nicht
verantwortlich.
\section*{Wer}
Gestartet wurde das Projekt von Joachim Breitner. Beteiligt am
Mitschrieb (von 2005) sind außer Joachim
noch Pascal Maillard, Wenzel Jakob und andere.
Beteiligt am Mitschrieb (von 2010) sind Rebecca Schwerdt, Philipp Ost und Manuel Kaiser.
Im September 2012 wurde das Skript mit der Revisionsnummer 7255 von
\href{http://svn.nomeata.de/wsvn/mitschriebwiki/SS10/Ana2Bachelor.tex?op=log&}{mitschriebwiki}
auf \href{https://github.com/MartinThoma/LaTeX-examples/blob/master/documents/Analysis%20II}{GitHub} hochgeladen.
\section*{Wo}
Alle Kapitel inklusive \LaTeX-Quellen können unter
\href{http://mitschriebwiki.nomeata.de}{mitschriebwiki.nomeata.de}
abgerufen werden.
Dort ist ein \emph{Wiki} eingerichtet und von Joachim Breitner um die
\LaTeX-Funktionen erweitert.
Das heißt, jeder kann Fehler nachbessern und sich an der Entwicklung
beteiligen. Auf Wunsch ist auch ein Zugang über \emph{Subversion} möglich.
Oder man geht auf \href{https://github.com/MartinThoma/LaTeX-examples/blob/master/documents/Analysis%20II/}{github},
erstellt einen Fork und kann direkt Änderungen umsetzen.
\renewcommand{\thechapter}{\arabic{chapter}}
\renewcommand{\chaptername}{§}
\setcounter{chapter}{0}
\chapter{Der Raum $\MdR^n$}
Sei $n\in\MdN$. $\MdR^n=\{(x_1, \ldots, x_n) : x_1,\ldots, x_n \in \MdR\}$ ist mit der üblichen Addition und Skalarmultiplikation ein reeller Vektorraum.\\
$e_1 := (1,0,\ldots,0),\ e_2:=(0,1,0,\ldots, 0),\ \ldots,\ e_n:=(0,\ldots,0,1) \in \MdR^n$.
\begin{definition}
Seien $x=(x_1, \ldots, x_n), y=(y_1, \ldots, y_n) \in \MdR^n$
\begin{enumerate}
\item $x\cdot y := xy := x_1y_1+\cdots+x_ny_n$ heißt das \textbf{Skalar}\indexlabel{Skalarprodukt}- oder \begriff{Innenprodukt} von $x$ und $y$.
\item $\|x\|=(x\cdot x)^\frac{1}{2} = (x_1^2 + \cdots + x_n^2)^\frac{1}{2}$ heißt die \begriff{Norm} oder \begriff{Länge} von $x$.
\item \indexlabel{Abstand!zwischen zwei Vektoren}$\|x-y\|$ heißt der \textbf{Abstand} von $x$ und $y$.
\end{enumerate}
\end{definition}
\begin{beispiele}
\item $\|e_j\|=1\ (j=1,\dots,n)$
\item $n=3: \|(1,2,3)\|=(1+4+9)^{\frac{1}{2}}=\sqrt{14}$
\end{beispiele}
\textbf{Beachte: }
\begin{enumerate}
\item $x \cdot y \in \MdR$
\item $\|x\|^2=x \cdot x$
\end{enumerate}
\begin{satz}[Rechenregeln zur Norm]
Seien $x,y,z \in \MdR^n,\ \alpha, \beta \in \MdR,\ x=(x_1, \ldots, x_n),\ y=(y_1, \ldots, y_n)$
\begin{enumerate}
\index{Cauchy-!Schwarzsche Ungleichung}
\item $(\alpha x + \beta y)\cdot z=\alpha(x\cdot z)+\beta(y \cdot z),\ x(\alpha y + \beta z)=\alpha(xy)+\beta(xz)$
\item $\|x\|\ge 0; \|x\|=0\equizu x=0$
\item $\|\alpha x\|=|\alpha|\|x\|$
\item $|x \cdot y|\le\|x\| \|y\|$ \textbf{Cauchy-Schwarzsche Ungleichung} (\begriff{CSU})
\item $\|x+y\|\le\|x\|+\|y\|$
\item ${\left|\|x\|-\|y\|\right|}\le \|x-y\|$
\item $|x_j|\le\|x\|\le |x_1|+|x_2|+\ldots+|x_n|\ (j=1,\ldots,n)$
\end{enumerate}
\end{satz}
\begin{beweise}
\item[(1)], (2), (3)\ nachrechnen.
\item[(6)] Übung.
\item[(4)] O.B.d.A: $y\ne0$ also $\|y\|>0$. $a:=x\cdot x=\|x\|^2,\ b:=xy,\ c:=\|y\|^2=y\cdot y,\ \alpha:=\frac{b}{c}.\ 0\le\sum_{j=1}^n(x_j-\alpha y_j)^2=\sum_{j=1}^n(x_j^2-2\alpha x_jy_j+\alpha^2y_j^2)=a-2\alpha b + \alpha^2 c=a-2\frac{b}{c}b+\frac{b^2}{c^2}c=a-\frac{b^2}{c}\folgt0\le ac-b^2\folgt b^2\le ac\folgt(xy)^2\le\|x\|^2\|y\|^2$.
\item[(5)] $\|x+y\|^2=(x+y)(x+y)\gleichnach{(1)}x\cdot x + 2xy+y \cdot y=\|x\|^2+2xy+\|y\|^2\le\|x\|^2+2|xy|+\|y\|^2\overset{\text{(4)}}{\le}\|x\|^2+2\|x\|\|y\|+\|y\|^2=(\|x\|+\|y\|)^2$.
\item[(7)] $|x_j|^2=x_j^2\le x_1^2 + \ldots + x_n^2 = \|x\|^2\folgt$ 1. Ungleichung; $x=x_1e_1+\ldots+x_ne_n\folgt\|x\|=\|x_1e_1+\ldots+x_ne_n\|\overset{(5)}{\le}\|x_1e_1\|+\ldots+\|x_ne_n\|=|x_1|+\ldots+|x_n|$
\end{beweise}
Seien $p,q,l \in \MdN$. Es sei $A$ eine reelle $p${\tiny x}$q$-Matrix.
\[
A = \begin{pmatrix}
\alpha_{11} & \cdots & \alpha_{1q}\\
\vdots & & \vdots\\
\alpha_{p1} & \cdots & \alpha_{pq}
\end{pmatrix}\qquad \|A\|:=\left(\sum_{j=1}^p\sum_{k=1}^q\alpha^2_{jk}\right)^\frac{1}{2} \text{\textbf{Norm} von A}
\]
Sei $B$ eine reelle $q${\tiny x}$l$-Matrix ($\folgt AB$ existiert). \textbf{Übung}: $\|AB\|\le\|A\|\|B\|$\\
Sei $x=(x_1,\ldots,x_q) \in \MdR^q$. $Ax:=A\begin{pmatrix}x_1\\ \vdots \\ x_q\end{pmatrix}$ (\begriff{Matrix-Vektorprodukt}). \\
Es folgt: \[\|Ax\|\le\|A\|\|x\|\]
\begin{definition}
Sei $x_0 \in \MdR^n$, $\delta > 0$, $A, U\subseteq \MdR^n$.
\begin{enumerate}
\item $U_\delta(x_0) := \{ x \in \MdR^n: \|x-x_0\|<\delta\}$ heißt $\delta$-Umgebung von $x_0$ oder \begriff{offene Kugel} um $x_0$ mit Radius $\delta$.
\item $U$ ist eine \begriff{Umgebung} von $x_0$ $:\equizu$ $\exists \delta > 0 : U_\delta(x_0) \subseteq U$.
\item \indexlabel{Beschränktheit!einer Menge}$A$ heißt \textbf{beschränkt} $:\equizu$ $\exists c \ge 0: \|a\|\le c \forall a\in A$.
\item $x_0\in A$ heißt ein \begriff{innerer Punkt} von A $:\equizu$ $\exists \delta>0: U_\delta(x_0) \subseteq A$. \\
$A^\circ:=\{ x\in A: x \text{ ist innerer Punkt von }A\}$ heißt das \indexlabel{Inneres einer Menge}\textbf{Innere} von A. Klar: $A^\circ\subseteq A.$
\item $A$ heißt offen $:\equizu$ $A=A^\circ$. Zur Übung: $A^\circ$ ist offen.
\end{enumerate}
\end{definition}
\begin{beispiele}
\item offene Kugeln sind offen, $\MdR^n$ ist offen, $\emptyset$ ist offen.
\item $A=\{x\in\MdR^n: \|x-x_0\|\le \delta\}$, $A^\circ = U_\delta(x_0)$
\item $n=2$: $A=\{(x_1,x_2)\in\MdR^n: x_2 = x_1^2\}$, $A^\circ=\emptyset$
\end{beispiele}
\begin{definition}
$A\subseteq \MdR^n$
\begin{enumerate}
\item $x_0\in \MdR^n$ heißt ein \begriff{Häufungspunkt} (HP) von $A$ $:\equizu$ $\forall \delta > 0: (U_\delta(x_0) \backslash \{x_0\}) \cap A \ne \emptyset$. $\H(A) := \{ x\in\MdR^n: x \text{ ist Häufungspunkt von } A\}$.
\item $x_0\in\MdR^n$ heißt ein \begriff{Berührungspunkt} (BP) von $A$ $:\equizu$ $\forall\delta>0: U_\delta(x_0) \cap A \ne \emptyset$. $\bar{A}:=\{x\in\MdR^n: x \text{ ist ein Berührungspunkt von } A\}$ heißt der \begriff{Abschluss} von $A$.\\
Klar: $A\subseteq\bar{A}$. Zur Übung: $\bar{A} = A \cup \H(A)$.
\item \indexlabel{abgeschlossen!Menge}$A$ heißt \textbf{abgeschlossen} $:\equizu$ $A=\bar{A}$. Zur Übung: $\bar{A}$ ist abgeschlossen.
\item $x_0\in\MdR^n$ heißt ein \begriff{Randpunkt} von $A$ $:\equizu$ $\forall\delta>0: U_\delta(x_0) \cap A \ne \emptyset$ und $U_\delta(x_0) \cap (\MdR^n\backslash A) \ne \emptyset$. $\partial A := \{x\in\MdR^n: x \text{ ist ein Randpunkt von } A \}$ heißt der \begriff{Rand} von $A$. Zur Übung: $\partial A = \bar{A}\backslash A^\circ$.
\end{enumerate}
\end{definition}
\begin{beispiele}
\index{abgeschlossen!Kugel}
\item $\MdR^n$ ist abgeschlossen, $\emptyset$ ist abgeschlossen; \\
$\bar{A}=\overline{U_\delta(x_0)} = \{x\in\MdR^n: \|x-x_0\| \le \delta\}$ (\textbf{abgeschlossene Kugel} um $x_0$ mit Radius $\delta$)
\item $\partial U_\delta(x_0) = \{x\in\MdR^n: \|x-x_0\|=\delta\} = \partial \overline{U_\delta(x_0)}$
\item $A = \{(x_1,x_2)\in\MdR^2; x_2 = x_1^2\}$. $A=\bar{A}=\partial A$
\end{beispiele}
\begin{satz}[Offene und abgeschlossene Mengen]
\begin{enumerate}
\item Sei $A\subseteq\MdR^n$. $A$ ist abgeschlossen $:\equizu$ $\MdR^n\backslash A$ ist offen.
\item Die Vereinigung offener Mengen ist offen.
\item Der Durchschnitt abgeschlossener Mengen ist abgeschlossen.
\item Sind $A_1,\ldots,A_n\subseteq\MdR^n$ offen $\folgt$ $\bigcap_{j=1}^nA_j$ ist offen
\item Sind $A_1,\ldots,A_n\subseteq\MdR^n$ abgeschlossen $\folgt$ $\bigcup_{j=1}^nA_j$ ist abgeschlossen
\end{enumerate}
\end{satz}
\begin{beispiel}
$(n=1)$. $A_t := (0,1+t)\ (t>0)$. Jedes $A_t$ ist offen. $\bigcap_{t>0}A_t = (0,1]$ ist nicht offen.
\end{beispiel}
\begin{beweise}
\item "`\folgt"': Sei $x_0\in\MdR^n\backslash A$. Annahme: $\forall \delta>0: U_\delta(x_0) \nsubseteq \MdR^n\backslash A\folgt\forall\delta>0: U_\delta(x_0)\cap A\ne\emptyset \folgt x_0\in\bar{A} \gleichnach{Vor.} A$, Widerspruch \\
"`$\impliedby$"': Annahme: $\subset\bar{A} \folgt \ \exists x_0\in\bar{A}: x_0\notin A$; also $x_0\in\MdR^n\backslash A$. Voraussetzung $\folgt \ \exists \delta > 0: U_\delta(x_0) \subseteq \MdR^n\backslash A \folgt U_\delta(x_0) \cap A = \emptyset \folgt x_0 \notin \bar{A}$, Widerspruch!
\item Sei $(A_\lambda)_{\lambda\in M}$ eine Familie offener Mengen und $V := \bigcup_{\lambda\in M} A_\lambda$. Sei $x_0\in V \folgt \exists\lambda_0\in M: x_0 \in A_{\lambda_0}$. $A_{\lambda_0}$ offen $\folgt \ \exists \delta > 0: U_\delta(x_0) \subseteq A_{\lambda_0} \subseteq V$
\item folgt aus (1) und (2) (Komplemente!)
\item $D:=\bigcap_{j=1}^mA_j$. Sei $x_0\in D$. $\forall j\in\{1,\ldots,m\}: x_0\in A_j$, also eixistiert $\delta_j>0: U_\delta(x_0)\subseteq A_j$. $\delta := \min\{\delta_j,\ldots,\delta_m\} \folgt U_\delta(x_0) \subseteq D$
\item folgt aus (1) und (4)
\end{beweise}
\chapter{Konvergenz im $\MdR^n$}
Sei $(a^{(k)})$ eine Folge in $\MdR^n$, also $(a^{(k)}) = ( a^{(1)}, a^{(2)}, \ldots ) $ mit $a^{(k)} = (a_1^{(k)}, \ldots a_n^{(k)}) \in \MdR^n$. Die Begriffe \begriff{Teilfolge} und \begriff{Umordnung} definiert man wie in Analysis I. $(a^{(k)})$ heißt beschränkt $:\equizu$ $\exists c\ge0: \|a^{(k)}\| \le c \ \forall k\in\MdN$.
\begin{definition*}[Grenzwert und Beschränktheit]
\indexlabel{Konvergenz}$(a^{(k)})$ heißt \textbf{konvergent}
$:\equizu$ $\exists a\in\MdR^n: \|a^{(k)} - a\| \to 0 \ (k\to\infty)$ ($\equizu\ \exists a\in\MdR^n: \forall \ep>0\exists k_0 \in\MdN: \|a^{(k)} - a\|<\ep \ \forall k\ge k_0$).
In diesem Fall heißt $a$ der \begriff{Grenzwert} (GW) oder \begriff{Limes} von $(a^{(k)})$ und man schreibt:
$a=\lim_{k\to\infty}a^{(k)}$ oder $a^{(k)} \to a \ (k\to\infty)$
\end{definition*}
\begin{beispiel}
$(n=2)$: $a^{(k)} = (\frac{1}{k}, 1+\frac{1}{k^2})$ (Erinnerung: $\frac{1}{n}$ konvergiert gegen 0); $a := (0,1)$; $\|a^{(k)} - a \| = \|(\frac{1}{k} , \frac{1}{k^2})\| = (\frac{1}{k^2} + \frac{1}{k^4})^\frac{1}{2} \to 0 \folgt a^{(k)} \to (0,1)$
\end{beispiel}
%satz 2.1
\begin{satz}[Konvergenz]
Sei $(a^{(k)})$ eine Folge in $\MdR^n$.
\begin{enumerate}
\item Sei $a^{(k)} = (a_1^{(k)}, \ldots, a_n^{(k)})$ und
$a = (a_1,\ldots,a_n)\in\MdR^n$. Dann:
\[ a^{(k)} \to a \ (k\to\infty) \equizu a_1^{(k)} \to a_1, \ldots, a_n^{(k)} \to a_n \ (k\to\infty) \]
\item Der Grenzwert einer konvergenten Folge ist eindeutig bestimmt.
\item Ist $(a^{(k)})$ konvergent $\folgt \ a^{(k)}$ ist beschränkt
und jede Teilfolge und jede Umordnung von $(a^{(k)})$ konvergiert gegen $\lim a^{(k)}$.
\item Sei $(b^{(k)})$ eine weitere Folge, $a,b\in\MdR^n$ und $\alpha\in\MdR$.
Es gelte $a^{(k)}\to a$, $b^{(k)} \to b$ Dann:
\begin{align*}
\|a^{(k)}\| &\to \|a\|\\
a^{(k)} + b ^{(k)} &\to a+b\\
\alpha a^{(k)} &\to \alpha a\\
a^{(k)}\cdot b^{(k)}&\to a\cdot b
\end{align*}
\item \begriff{Bolzano-Weierstraß}: Ist $(a^{(k)})$ beschränkt, so enthält $(a^{(k)})$ eine konvergente Teilfolge.
\item \indexlabel{Cauchy!-Kriterium}\textbf{Cauchy-Kriterium}:
$(a^{(k)})$ konvergent $\equizu \ \forall\ep>0\ \exists k_0\in\MdN: \|a^{(k)} - a^{(l)}\| <\ep \ \forall k,l \ge k_0$
\end{enumerate}
\end{satz}
\begin{beweise}
\item 1.1(7) $\folgt |a_j^{(k)} - a_j| \le \|a^{(k)}-a\| \le \sum_{i=1}^n|a_j^{(k)} - a_j| \folgt $ Behauptung.
\item und
\item wie in Analysis I.
\item folgt aus (1)
\item Sei $(a^{(k)})$ beschränkt. O.B.d.A: $n=2$. Also $a^{(k)}=(a_1^{(k)},a_2^{(k)})$ 1.1(7) $\folgt |a_1^{(k)}|,|a_2^{(k)}|\le\|a^{(k)}\|\ \forall k\in\MdN \folgt (a_1^{(k)},a_2^{(k)})$ sind beschränkte Folgen in $\MdR$. Analysis 1 $\folgt (a_1^{(k)})$ enthält eine konvergente Teilfolge $(a_1^{(k_j)})$. $(a_2^{(k_j)})$ enthält eine konvergente Teilfolge$ (a_2^{(k_{j_l})})$. Analysis 1 $\folgt (a_1^{(k_{j_l})})$ ist konvergent $\overset{(1)}{\folgt} (a^{(k_{j_l})})$ konvergiert.
\item "`$\folgt$"': wie in Analysis 1. "`$\impliedby$"': 1.1(7) $\folgt |a_j^{(k)}-a_j^{(l)}| \le \|a^{(k)}-a^{(l)}\|\ (j=1,\ldots,n)\ \folgt$ jede Folge $(a_j^{(k)})$ ist eine Cauchyfolge in $\MdR$, also konvergent $\overset{(1)}{\folgt} (a^{(k)})$ konvergiert.
\end{beweise}
\begin{satz}[Häufungswerte und konvergente Folgen]
Sei $A\subseteq\MdR^n$
\begin{enumerate}
\item $x_0 \in \H(A)\equizu\ \exists$ Folge $(x^{(k)})$ in $A\ \backslash\ \{x_0\}$ mit $x^{(k)}\to x_0$.
\item $x_0 \in \bar A\equizu\ \exists$ Folge $(x^{(k)})$ in $A$ mit $x^{(k)}\to x_0$.
\item $A$ ist abgeschlossen $\equizu$ der Grenzwert jeder konvergenten Folge in $A$ gehört zu $A$.
\item Die folgenden Aussagen sind äquivalent:
\begin{enumerate}
\item $A$ ist beschränkt und abgeschlossen
\item Jede Folge in $A$ enthält eine konvergente Teilfolge, deren Grenzwert zu $A$ gehört.
\item A ist kompakt
\end{enumerate}
\end{enumerate}
\end{satz}
\begin{beweise}
\item Wie in Analysis 1
\item Fast wörtlich wie bei (1)
\item[(4)] Wörtlich wie in Analysis 1
\item[(3)] "`$\folgt$"': Sei $(a^{(k)})$ eine konvergente Folge in $A$ und $x_0:=\lim a^{(k)} \overset{(2)}{\folgt} x_0 \in \bar A \overset{\text{Vor.}}{=}A$. "`$\impliedby$"': z.z: $\bar A \subseteq A$. Sei $x_0 \in \bar A \overset{(2)}{\folgt}x_0 \in A$. Also: $A=\bar A$.
\end{beweise}
\begin{satz}[Überdeckungen]
$A \subseteq \MdR^n$ sei abgeschlossen und beschränkt
\begin{enumerate}
\item Ist $\ep>0\folgt\ \exists a^{(1)},\ldots,a^{(m)} \in A: A\subseteq \displaystyle\bigcup_{j=1}^m U_\ep(a^{(j)})$
\item $\exists$ abzählbare Teilmenge $B$ von $A: \bar B=A$.
\item \begriff{Überdeckungssatz von Heine-Borel}: Ist $(G_\lambda)_{\lambda \in M}$ eine Familie offener Mengen mit $A \subseteq \displaystyle\bigcup_{\lambda \in M} G_\lambda$, dann existieren $\lambda_1, \ldots, \lambda_m \in M: A\subseteq \displaystyle\bigcup_{j=1}^m G_{\lambda_j}$.
\end{enumerate}
\end{satz}
\begin{beweise}
\item Sei $\ep>0$. Annahme: Die Behauptung ist falsch. Sei $a^{(1)}\in A$. Dann: $A\nsubseteq U_{\ep}(a^{(1)})\folgt\exists a^{(2)}\in A: a^{(2)}\notin U_\ep(a^{(1)})\folgt\|a^{(2)}-a^{(1)}\|\ge\ep$. $A\nsubseteq U_\ep(a^{(1)})\cup U_\ep(a^{(2)})\folgt\exists a^{(3)} \in A: \|a^{(3)}-a^{(2)}\|\ge\ep,\ \|a^{(3)}-a^{(1)}\|\ge\ep$ etc.. Wir erhalten so eine Folge $(a^{(k)})$ in A: $\|a^{(k)}-a^{(l)}\|\ge\ep$ für $k\ne l$. 2.2(4) $\folgt (a^{(k)})$ enthält eine konvergente Teilfolge $\folgtnach{2.1(6)}\ \exists j_0 \in\MdN:\ \|a^{(k_j)}-a^{(k_l)}\|<\ep\ \forall j,l\ge j_0$, Widerspruch!
\item Sei $j\in\MdN$. $\ep:=\frac{1}{j}$. (1) $\folgt\exists$ endl. Teilmenge $B_j$ von $A$ mit $(*)\ A\subseteq \displaystyle\bigcup_{x \in B_j}U_{\frac{1}{j}}(x)$. $B:=\displaystyle\bigcup_{j\in\MdN}B_j\folgt B\subseteq A$ und $B$ ist abzählbar. Dann: $\bar B\subseteq\bar A\gleichnach{Vor.}A$. Noch zu zeigen: $A\subseteq\bar B$. Sei $x_0\in A$ und $\delta>0$: zu zeigen: $U_\delta(x_0)\cap B\ne\emptyset$. Wähle $j\in\MdN$ so, dass $\frac{1}{j}<\delta\ (*)\folgt\exists x \in B_j\subseteq B:\ x_0\in U_{\frac{1}{j}}(x)\folgt \|x_0-x\|<\frac{1}{j}<\delta\folgt x\in U_\delta(x_0)\folgt x\in U_\delta(x_0)\cap B$.
\item Teil 1: Behauptung: $\exists \ep>0:\ \forall a \in A\ \exists\lambda\in M: U_\ep(a)\subseteq G_\lambda$. Beweis: Annahme: Die Behauptung ist falsch. $\forall k\in\MdN\ \exists a^{(k)}\in A:\ (**) U_{\frac{1}{k}}(a^{(k)})\nsubseteq G_\lambda\ \forall \lambda\in M$. 2.2(4) $\folgt (a^{(k)})$ enthält eine konvergente Teilfolge $(a^{(k_j)})$ und $x_0:=\displaystyle\lim_{j\to\infty}a^{k_j}\in A\folgt\exists \lambda_0\in M: x_0 \in G_{\lambda_0};\ G_{\lambda_0}$ offen $\folgt\exists \delta>0: U_\delta(x_0)\subseteq G_{\lambda_0}.\ a^{(k_j)}\to x_0\ (j\to\infty)\folgt\exists m_0\in\MdN: a^{(m_0)}\in U_{\frac{\delta}{2}}(x_0)$ und $m_0\ge\frac{2}{\delta}$. Sei $x\in U_{\frac{1}{m_0}}(a^{(m_0)})\folgt \|x-x_0\|=\|x-a^{(m_0)}+a^{(m_0)}-x_0\|\le\|x-a^{(m_0)}\|+\|a^{(m_0)}-x_0\|\le\frac{1}{m_0}+\frac{\delta}{2}\le\frac{\delta}{2}+\frac{\delta}{2}=\delta\folgt x\in U_\delta(x_0)\folgt x \in G_{\lambda_0}$. Also: $U_{\frac{1}{m_0}}(a^{(m_0)})\subseteq G_{\lambda_0}$, Widerspruch zu $(**)$!\\
Teil 2: Sei $\ep>0$ wie in Teil 1. (1) $\folgt\exists a^{(1)},\ldots,a^{(m)}\in A: A\subseteq\displaystyle\bigcup_{j=1}^mU_\ep(a^{(j)})$. Teil 1 $\folgt\exists \lambda_j\in M: U_\ep(a^{(j)})\subseteq G_{\lambda_j}\ (j=1,\ldots,m)\folgt A\subseteq \displaystyle\bigcup_{j=1}^m G_{\lambda_j}$
\end{beweise}
\chapter{Grenzwerte bei Funktionen, Stetigkeit}
\begin{vereinbarung}
\indexlabel{vektorwertige Funktion}Stets in dem Paragraphen: Sei $\emptyset \ne D \subseteq \MdR^n$ und $f: D\to\MdR^m$ eine (\textbf{vektorwertige}) Funktion. Für Punkte $(x_1, x_2) \in \MdR^2$ schreiben wir auch $(x,y)$. Für Punkte $(x_1, x_2, x_3) \in\MdR^3$ schreiben wir auch $(x, y, z)$. Mit $x=(x_1,\ldots,x_n)\in D$ hat $f$ die Form $f(x)=f(x_1,\ldots,x_n)=(f_1(x_1,\ldots,x_n),\ldots,f_m(x_1,\ldots,x_n))$, wobei $f_j:D\to\MdR\ (j=1,\ldots,m)$. Kurz: $f=(f_1,\ldots,f_m)$.
\end{vereinbarung}
\begin{beispiele}
\item $n=2,m=3$. $f(x,y)=(x+y,xy,xe^y);\ f_1(x,y)=x+y, f_2(x,y)=xy, f_3(x,y)=xe^y$.
\item $n=3,m=1$. $f(x,y,z)=1+x^2+y^2+z^2$
\end{beispiele}
\begin{definition*}
Sei $x_0\in \H(D)$.
\begin{enumerate}
\item Sei $y_0 \in \MdR^m$. $\displaystyle\lim_{x\to x_0}f(x)=y_0 :\equizu$ für \textbf{jede} Folge $(x^{(k)})$ in $D\ \backslash\ \{x_0\}$ mit $x^{(k)}\to x_0$ gilt: $f(x^{(k)})\to y_0$. In diesem Fall schreibt man: $f(x)\to y_0(x\to x_0)$.
\item $\displaystyle\lim_{x\to x_0}f(x)$ existiert $:\equizu\ \exists y_0 \in \MdR^m: \displaystyle\lim_{x\to x_0}f(x)=y_0$.
\end{enumerate}
\end{definition*}
\begin{beispiele}
\item $f(x,y)=(x+y,xy,xe^y); \displaystyle\lim_{(x,y)\to(1,1)}f(x,y)=(2,1,e)$, denn: ist $((x_k, y_n))$ eine Folge mit $(x_k,y_k)\to(1,1)\folgtnach{2.1}x_k\to 1, y_k\to 1 \folgt x_k+y_k\to 2, x_ky_k\to 1, x_ke^{y_k}\to e\folgtnach{2.1}(x_k,y_k)\to(2,1,e)$.
\item $f(x,y)=\begin{cases}
\frac{xy}{x^2+y^2}&\text{, falls }(x,y)\ne(0,0)\\
0&\text{, falls }(x,y)=(0,0)
\end{cases}$\\
$f(\frac{1}{k},0)=0\to 0\ (k\to \infty), (\frac{1}{k},0)\to(0,0), f(\frac{1}{k},\frac{1}{k})=\frac{1}{2}\to\frac{1}{2}\ (k\to \infty), (\frac{1}{k},\frac{1}{k})\to(0,0)$, d.h $\displaystyle\lim_{(x,y)\to(0,0)}f(x,y)$ existiert nicht! \textbf{Aber}: $\displaystyle\lim_{x\to 0}(\displaystyle\lim_{y\to 0} f(x,y))=0=\displaystyle\lim_{y\to 0}(\displaystyle\lim_{x\to 0} f(x,y))$.
\end{beispiele}
\begin{satz}[Grenzwerte vektorwertiger Funktionen]
\begin{enumerate}
\item Ist $f = (f_1,\ldots,f_m)$ und $y_0 = (y_1,\ldots,y_m) \in \MdR^m$, so gilt: $f(x) \to y_0\ (x \to x_0) \equizu f_j(x) \to y_j\ (x \to x_0)\ (j=1,\ldots,m)$
\item Die Aussagen des Satzes Ana I, 16.1 und die Aussagen (1) und (2) des Satzes Ana I, 16.2 gelten sinngemäß für Funktionen von mehreren Variablen.
\end{enumerate}
\end{satz}
\begin{beweise}
\item folgt aus 2.1
\item wie in Ana I
\end{beweise}
\begin{definition*}[Stetigkeit vektorwertiger Funktionen]
\begin{enumerate}
\item \indexlabel{Stetigkeit}Sei $x_0 \in D$. $f$ heißt \textbf{stetig} in $x_0$ gdw. für jede Folge $(x^{(k)})$ in $D$ mit $(x^{(k)}) \to x_0$ gilt: $f(x^{(k)}) \to f(x_0)$. Wie in Ana I: Ist $x_0 \in D \cap \H(D)$, so gilt: $f$ ist stetig in $x_0 \equizu \displaystyle{\lim_{x \to x_0}} f(x) = f(x_0)$.
\item \indexlabel{Stetigkeit!auf einem Intervall}$f$ heißt auf $D$ stetig gdw. $f$ in jedem $x \in D$ stetig ist. In diesem Fall schreibt man: $f \in C(D,\MdR^m)\ (C(D) = C(D,\MdR)).$
\item \indexlabel{Stetigkeit!gleichmäßige}$f$ heißt auf $D$ \textbf{gleichmäßig} (glm) stetig gdw. gilt:\\
$\forall \ep>0\ \exists \delta>0: \|f(x)-f(y)\| < \ep\ \forall x,y \in D: \|x-y\| < \delta$
\item \indexlabel{Stetigkeit!Lipschitz-}$f$ heißt auf $D$ \textbf{Lipschitzstetig} gdw. gilt:\\
$\exists L\ge0: \|f(x)-f(y)\| \le L\|x-y\|\ \forall x,y \in D.$
\end{enumerate}
\end{definition*}
\begin{satz}[Stetigkeit vektorwertiger Funktionen]
\begin{enumerate}
\item Sei $x_0 \in D$ und $f = (f_1,\ldots,f_m).$ Dann ist $f$ stetig in $x_0$ gdw. alle $f_j$ stetig in $x_0$ sind. Entsprechendes gilt für "`stetig auf $D$"', "`glm stetig auf $D$"', "`Lipschitzstetig auf $D$"'.
\item Die Aussagen des Satzes Ana I, 17.1 gelten sinngemäß für Funktionen von mehreren Variablen.
\item Sei $x_0 \in D$. $f$ ist stetig in $x_0$ gdw. zu jeder Umgebung $V$ von $f(x_0)$ eine Umgebung $U$ von $x_0$ existiert mit $f(U \cap D) \subseteq V$.
\item Sei $\emptyset \ne E \subseteq \MdR^m$, $f(D) \subseteq E$, $g: E \to \MdR^p$ eine Funktion, $f$ stetig in $x_0 \in D$ und $g$ stetig in $f(x_0)$. Dann ist $g \circ f: D \to \MdR^p$ stetig in $x_0$.
\end{enumerate}
\end{satz}
\begin{beweise}
\item folgt aus 2.1
\item wie in Ana 1
\item Übung
\item wie in Ana 1
\end{beweise}
\begin{beispiele}
\item $f(x,y) := \begin{cases}
\frac{xy}{x^2+y^2}, & (x,y) \ne (0,0)\\
0, & (x,y) = (0,0)
\end{cases}\quad(D = \MdR^2)$
$f(\frac{1}{k},\frac{1}{k}) = \frac{1}{2} \to \frac{1}{2} \ne 0 = f(0,0) \folgt f$ ist in $(0,0)$ \emph{nicht} stetig.
\item $f(x,y) := \begin{cases}
\frac{1}{y} \sin(xy), & y \ne 0\\
x, & y = 0
\end{cases}$
Für $y \ne 0: |f(x,y) - f(0,0)| = \frac{1}{|y|}|\sin(xy)| \le \frac{1}{|y|}|xy| = |x|.$
Also gilt: $|f(x,y) - f(0,0)| \le |x|\ \forall (x,y) \in \MdR^2 \folgt f(x,y) \to f(0,0)\ ((x,y) \to (0,0)) \folgt f$ ist stetig in $(0,0)$.
\item Sei $\Phi \in C^1(\MdR),\ \Phi(0) = 0,\ \Phi'(0) = 2$ und $a \in \MdR$.
$f(x,y) := \begin{cases}
\frac{\Phi(a(x^2+y^2))}{x^2+y^2}, & (x,y) \ne (0,0)\\
\frac{1}{2}, & (x,y) = (0,0)
\end{cases}$
Für welche $a \in \MdR$ ist $f$ stetig in $(0,0)$?
Fall 1: $a = 0$
$f(x,y) = 0\ \forall(x,y) \in \MdR^2\backslash\{(0,0)\} \folgt f$ ist in $(0,0)$ nicht stetig.
Fall 2: $a \ne 0$
$r := x^2 + y^2.\ (x,y) \to (0,0) \equizu \|(x,y)\| \to 0 \equizu r \to 0$, Sei $(x,y) \ne (0,0)$. Dann gilt:
$f(x,y) = \frac{\Phi(ar)}{r} = \frac{\Phi(ar) - \Phi(0)}{r - 0} = a \frac{\Phi(ar) - \Phi(0)}{ar - 0} \overset{r \to 0}{\to} a \Phi'(0) = 2a$. Das heißt: $f(x,y) \to 2a\ ((x,y)\to(0,0))$.
Daher gilt: $f$ ist stetig in $(0,0) \equizu 2a = \frac{1}{2} \equizu a = \frac{1}{4}$.
\end{beispiele}
\begin{definition*}[Beschränktheit einer Funktion]
\indexlabel{Beschränktheit!einer Funktion}
$f:D \to \MdR^m$ heißt \textbf{beschränkt} (auf $D$) gdw. $f(D)$ beschränkt ist $(\equizu \exists c \ge 0: \|f(x)\| \le c\ \forall x \in D)$.
\end{definition*}
\begin{satz}[Funktionen auf beschränkten und abgeschlossenen Intervallen]
$D$ sei beschränkt und abgeschlossen und es sei $f \in C(D,\MdR^m)$.
\begin{enumerate}
\item $f(D)$ ist beschränkt und abgeschlossen.
\item $f$ ist auf $D$ gleichmäßig stetig.
\item Ist $f$ injektiv auf $D$, so gilt: $f^{-1} \in C(f(D),\MdR^n)$.
\item Ist $m = 1$, so gilt: $\exists a,b \in D: f(a) \le f(x) \le f(b)\ \forall x \in D$.
\end{enumerate}
\end{satz}
\begin{beweis}
wie in Ana I.
\end{beweis}
\begin{satz}[Fortsetzungssatz von Tietze]
Sei $D$ abgeschlossen und $f \in C(D,\MdR^m) \folgt \exists F \in C(\MdR^n,\MdR^m): F=f$ auf $D$.
\end{satz}
\begin{satz}[Lineare Funktionen und Untervektorräume von $\MdR^n$]
\begin{enumerate}
\item Ist $f:\MdR^n \to \MdR^m$ und \emph{linear}, so gilt: $f$ ist Lipschitzstetig auf $\MdR^n$, insbesondere gilt: $f \in C(\MdR^n,\MdR^m)$.
\item Ist $U$ ein Untervektorraum von $\MdR^n$, so ist $U$ abgeschlossen.
\end{enumerate}
\end{satz}
\begin{beweise}
\item Aus der Linearen Algebra ist bekannt: Es gibt eine $(m \times n)$-Matrix $A$ mit $f(x) = Ax$. Für $x,y \in \MdR^n$ gilt: $\|f(x)-f(y)\| = \|Ax - Ay\| = \|A(x-y)\| \le \|A\|\cdot \|x-y\|$
\item Aus der Linearen Algebra ist bekannt: Es gibt einen UVR $V$ von $\MdR^n$ mit: $\MdR^n = U \oplus V$. Definiere $P: \MdR^n \to \MdR^n$ wie folgt: zu $x \in \MdR^n$ existieren eindeutig bestimmte $u \in U,\ v \in V$ mit: $x = u+v;\ P(x) := u$.
Nachrechnen: $P$ ist linear.
$P(\MdR^n) = U$ (Kern $P = V,\ P^2 = P$). Sei $(u^{(k)})$ eine konvergente Folge in $U$ und $x_0 := \lim u^{(k)}$, z.z.: $x_0 \in U$.
Aus (1) folgt: $P$ ist stetig $\folgt P(u^{(k)}) \to P(x_0) \folgt x_0 = \lim u^{(k)} = \lim P(u^{(k)}) = P(x_0) \in P(\MdR^n) = U$.
\end{beweise}
\begin{definition*}[Abstand eines Vektor zu einer Menge]
\indexlabel{Abstand!zwischen Vektor und Menge}
Sei $\emptyset \ne A \subseteq \MdR^n,\ x \in \MdR^n.\ d(x,A) := \inf\{\|x-a\|:a \in A\}$ heißt der \textbf{Abstand} von $x$ und $A$.
Klar: $d(a,A) = 0\ \forall a \in A$.
\end{definition*}
\begin{satz}[Eigenschaften des Abstands zwischen Vektor und Menge]
\begin{enumerate}
\item $|d(x,A) - d(y,A)| \le \|x-y\|\ \forall x,y \in \MdR^n$.
\item $d(x,A) = 0 \equizu x \in \overline{A}$.
\end{enumerate}
\end{satz}
\begin{beweise}
\item Seien $x,y \in \MdR^n$. Sei $a \in A$. $d(x,A) \le \|x-a\| = \|x-y+y-a\| \le \|x-y\|+\|y-a\|\\
\folgt d(x,A)-\|x-y\| \le \|y-a\|\ \forall a \in A\\
\folgt d(x,A) - \|x-y\| \le d(y,A)\\
\folgt d(x,A) - d(y,A) \le \|x-y\|$
Genauso: $d(y,A) - d(x,A) \le \|y-x\| = \|x-y\| \folgt$ Beh.
\item Der Beweis erfolgt duch Implikation in beiden Richtungen:
\begin{itemize}
\item["`$\impliedby$"':] Sei $x \in \overline{A} \folgtnach{2.2} \exists$ Folge $(a^{(k)})$ in $A: a^{(k)} \to x \folgtnach{(1)} d(a^{(k)},A) \to d(x,A) \folgt d(x,A) = 0$.
\item["`$\implies$"':] Sei $d(x,A) = 0.\ \forall k \in \MdN\ \exists a^{(k)} \in A: \|a^{(k)} - x\| < \frac{1}{k} \folgt a^{(k)} \to x \folgtnach{2.2} x \in \overline{A}$.
\end{itemize}
\end{beweise}
\chapter{Partielle Ableitungen}
Stets in diesem Paragraphen: $\emptyset\ne D\subseteq \MdR^n$, $D$ sei offen und $f:D\to\MdR$ eine reellwertige Funktion. $x_0 = (x_1^{(0)}, \ldots, x_n^{(0)}) \in D$. Sei $j\in\{1,\ldots,n\}$ (fest).
Die Gerade durch $x_0$ mit der Richtung $e_j$ ist gegeben durch folgende Menge: $\{x_0+te_j:t\in\MdR\}$. $D$ offen $\folgt$ $\exists\delta>0: U_\delta(x_0)\subseteq D$. $\|x_0+te_j - x_0\| = \|te_j\| = |t| \folgt x_0+e_j \in D $ für $t\in(-\delta,\delta)$. $g(t) := f(x_0+te_j)$ $(t\in(-\delta,\delta))$
Es ist $g(t) = f(x_1^{(0)}, \ldots, x_{j-1}^{(0)}, x_j^{(0)} + t, x_{j+1}^{(0)}, \ldots, x_n^{(0)} )$
\begin{definition}
$f$ heißt in $x_0$ \textbf{partiell differenzierbar} nach $x_j$ :\equizu es exisitert
der Grenzwert
\[\lim_{t\to0}\frac{f(x_0+te_j) - f(x_0)}t\]
und ist $\in\MdR$. In diesem Fall heißt obiger Grenzwert die \textbf{partielle Ableitung
von $f$ in $x_0$} nach $x_j$ und man schreibt für diesen Grenzwert:
\[f_{x_j}(x_0) \text{ oder }\frac{\partial f}{\partial x_j}(x_0)\]
Im Falle $n=2$ oder $n=3$ schreibt man $f_x$, $f_y$, $f_z$ bzw. $\frac{\partial f}{\partial x}$, $\frac{\partial f}{\partial y}$, $\frac{\partial f}{\partial z}$
\end{definition}
\begin{beispiele}
\item $f(x,y,z) = xy+z^2+e^{x+y}$; $f_x(x,y,z) = y + e^{x+y} = \frac{\partial f}{\partial x}(x,y,z)$. $f_x(1,1,2)=1+e^2$. $f_y(x,y,z) = x+e^{x+y}$. $f_z(x,y,z) = 2z = \frac{\partial f}{\partial z}(x,y,z)$.
\item $f(x) = f(x_1,\ldots, x_n) = \|x\| = \sqrt{x_1^2 + \cdots + x_n^2}$.
Sei $x\ne0$: $f_{x_j}(x) = \frac{1}{2\sqrt{x_1^2 + \cdots + x_n^2}}2x_j = \frac{x_j}{\|x\|} $
Sei $x=0$: $\frac{f(t,0,\ldots,0) - f(0,0,\ldots,0)}{t} = \frac{|t|}{t} = \begin{cases} 1, &t>0\\-1,&t<0\end{cases} \folgt f$ ist in $(0,\ldots,0)$ nicht partiell differenzierbar nach $x_1$. Analog: $f$ ist in $(0,\ldots,0)$ nicht partiell differenzierbar nach $x_2,\ldots,x_n$
\item $f(x,y) = \begin{cases} \frac{xy}{x^2+y^2}, &(x,y)\ne(0,0)\\0,&(x,y) = (0,0) \end{cases}$
$\frac{f(t,0) - f(0,0)}{t} = 0 \to 0 \ (t\to0) \folgt f$ ist in $(0,0)$ partiell differenzierbar nach $x$ und $f_x(0,0) = 0$. Analog: $f$ ist in $(0,0)$ partiell differenzierbar nach $y$ und $f_y(0,0) = 0$. Aber: $f$ ist in $(0,0)$ nicht stetig.
\end{beispiele}
\def\grad{\mathop{\rm grad}\nolimits}
\begin{definition}
\indexlabel{partiell!Differenzierbarkeit}
\indexlabel{partiell!Ableitung}
\indexlabel{Differenzierbarkeit!partielle}
\indexlabel{Ableitung!partielle}
\begin{enumerate}
\item $f$ heißt in $x_0$ \textbf{partiell differenzierbar} $:\equizu$ $f$ ist in $x_0$
partiell differenzierbar nach allen Variablen $x_1,\ldots, x_n$. In diesem Fall heißt
$\grad f(x_0) := \nabla f(x_0) := (f_{x_1}(x_0),\ldots, f_{x_n}(x_0))$ der \textbf{Gradient} von
$f$ in $x_0$. \indexlabel{Gradient}
\item $f$ ist auf $D$ \textbf{partiell differenzierbar} nach $x_j$ oder $f_{x_j}$ ist auf $D$ vorhanden :\equizu $f$ ist in jedem $x\in D$ partiell differenzierbar nach $x_j$. In diesem Fall wird durch $x\mapsto f_{x_j}(x)$ eine Funktion $f_{x_j}: D\to \MdR$ definiert die \textbf{partielle Ableitung} von $f$ auf $D$ nach $x_j$.
\item $f$ heißt \textbf{partiell differenzierbar} auf $D$ :\equizu $f_{x_1},\ldots,f_{x_n}$ sind auf $D$ vorhanden.
\item $f$ heißt auf $D$ \textbf{stetig partiell differenzierbar} :\equizu $f$ ist auf $D$ partiell differenzierbar und $f_{x_1},\ldots,f_{x_n}$ sind auf $D$ stetig. In diesem Fall schreibt man $f\in C^1(D,\MdR)$.
\end{enumerate}
\end{definition}
\begin{beispiele}
\item Sei $f$ wie in obigem Beispiel (3). $f$ ist in $(0,0)$ partiell differenzierbar und $\grad f(0,0) = (0,0)$
\item Sei $f$ wie in obigem Beispiel (2). $f$ ist auf $\MdR^n\backslash\{0\}$ partiell differenzierbar und $\grad f(x) = (\frac{x_1}{\|x_n\|},\ldots,\frac{x_n}{\|x_n\|}) = \frac{1}{\|x\|} x \ (x\ne 0)$
\end{beispiele}
\begin{definition}
Seien $j,k\in\{1,\ldots,n\}$ und $f_{x_j}$ sei auf $D$ vorhanden. Ist $f_{x_j}$ in
$x_0\in D$ partiell differenzierbar nach $x_k$, so heißt
\[f_{x_jx_k}(x_0) := \frac{\partial^2 f}{\partial x_j\partial x_k}(x_0) := \left(f_{x_j}\right)_{x_k}(x_0)\]
die \textbf{partielle Ableitung zweiter Ordnung} von $f$ in $x_0$
nach $x_j$ und $x_k$. Ist $k=j$, so schreibt man:
\[\frac{\partial^2 f}{\partial x_j^2}(x_0) = \frac{\partial^2 f}{\partial x_j\partial x_j}(x_0) \]
Entsprechend definiert man partielle Ableitungen höherer Ordnung (soweit vorhanden).
\end{definition}
\begin{schreibweisen}
$\ds f_{xxyzz} = \frac{\partial^5 f}{\partial x^2\partial y\partial z^2}$, vergleiche: $\ds\frac{\partial^{180} f}{\partial x^{179}\partial y}$
\end{schreibweisen}
\begin{beispiele}
\item $f(x,y) = xy + y^2$, $f_x(x,y)=y$, $f_{xx} = 0$, $f_y = x + 2y$, $f_{yy} = 2$, $f_{xy}=1$, $f_{yx} = 1$.
\item $f(x,y,z) = xy + z^2e^x$, $f_x = y+z^2e^x$, $f_{xy} = 1$, $f_{xyz} = 0$. $f_z=2ze^x$, $f_{zy}=0$, $f_{zyx} = 0$.
\item $f(x,y) = \begin{cases} \frac{xy(x^2-y^2)}{x^2+y^2}, & (x,y) \ne (0,0) \\ 0, &(x,y)=(0,0)\end{cases}$
Übungsblatt: $f_{xy}(0,0)$, $f_{yx}(0,0)$ existieren, aber $f_{xy}(0,0) \ne f_{yx}(0,0)$
\end{beispiele}
\begin{definition}
Sei $m\in\MdN$. $f$ heißt auf $D$ \textbf{$m$-mal stetig partiell differenzierbar} :\equizu alle partiellen Ableitungen von $f$ der Ordnung $\le m$ sind auf $D$ vorhanden und auf $D$ stetig. In diesem Fall schreibt man: $f\in C^m(D,\MdR)$
\[C^0(D, \MdR) := C(D,\MdR),\qquad C^\infty(D,\MdR) := \bigcap_{k\in\MdN_0}C^{k}(D,\MdR)\]
\end{definition}
\begin{satz}[Satz von Schwarz]
Es sei $f\in C^2(D,\MdR)$, $x_0\in D$ und $j,k\in\{1,\ldots,n\}$. Dann: $f_{x_jx_k}(x_0) = f_{x_kx_j}(x_0)$
\end{satz}
\begin{satz}[Folgerung]
Ist $f\in C^m(D,\MdR)$, so sind die partiellen Ableitungen von $f$
der Ordnung $\le m$ unabhängig von der Reihenfolge der Differentation.
\end{satz}
\begin{beweis}
O.B.d.A: $n=2$ und $x_0=(0,0)$. Zu zeigen: $f_{xy}(0,0)=f_{yx}(0,0)$. $D$
offen $\folgt\exists\delta>0: U_\delta(0,0)\subseteq D$. Sei $(x,y) \in U_\delta(0,0)$ und $x\ne 0\ne y$.
\[\nabla:=f(x,y)-f(x,0)-(f(0,y)-f(0,0)),\quad\varphi(t):=f(t,y)-f(t,0)\]
für $t$ zwischen $0$ und $x$. $\varphi$ ist differenzierbar und
$\varphi'(t)=f_x(t,y)-f_x(t,0)$. $\varphi(x)-\varphi(0)=\nabla$.
MWS, Analysis I $\folgt\exists\xi=\xi(x,y)$ zwischen $0$ und $x$:
$\nabla=x\varphi'(\xi)=x(f_x(\xi,y)-f_x(\xi,0))$. $g(s):=f_x(\xi,s)$
für s zwischen $0$ und $y$; $g$ ist differenzierbar und
$g'(s)=f_{xy}(\xi,s)$. Es ist $\nabla=x(g(y)-g(0))\gleichnach{MWS}xyg'(\eta),\ \eta=\eta(x,y)$
zwischen $0$ und $y$. $\folgt \nabla=xyf_{xy}(\xi,\eta).$ (1)\\
$\psi(t):=f(x,t)-f(0,t)$, $t$ zwischen $0$ und $y$.
$\psi'(t)=f_y(x,t)-f_y(0,t)$. $\nabla=\psi(y)-\psi(0)$.
Analog: $\exists \bar\eta=\bar\eta(x,y)$ und $\bar\xi=\bar\xi(x,y)$, $\bar\eta$
zwischen $0$ und $y$, $\bar\xi$ zwischen $0$ und $x$. $\nabla=xyf_{yx}(\bar\xi,\bar\eta).$ (2)\\
Aus (1), (2) und $xy\ne0$ folgt $f_{xy}(\xi,\eta)=f_{yx}(\bar\xi,\bar\eta)$.
$(x,y)\to(0,0)\folgt\xi,\bar\xi,\eta,\bar\eta\to 0\folgtwegen{f\in C^2}f_{xy}(0,0)=f_{yx}(0,0)$
\end{beweis}
\chapter{Differentiation}
\def\grad{\mathop{\rm grad}\nolimits}
\begin{vereinbarung}
Stets in dem Paragraphen: $\emptyset\ne D\subseteq\MdR^n$, $D$ offen und $f:D\to\MdR^m$ eine Funktion, also $f=(f_1,\ldots,f_m)$
\end{vereinbarung}
\begin{definition*}
\begin{enumerate}
\item Sei $k\in\MdN$. $f\in C^k(D,\MdR^m) :\equizu f_j\in C^k(D,\MdR)\ (j=1,\ldots,m)$
\item Sei $x_0\in D$. $f$ heißt \textbf{partiell differenzierbar} in
$x_0 :\equizu$ jedes $f_j$ ist in $x_0$ partiell differenzierbar.
In diesem Fall heißt
\[\frac{\partial f}{\partial x}(x_0):=\frac{\partial(f_1,\ldots,f_m)}{\partial(x_1,\ldots,x_n)}:=J_f(x_0):=
\begin{pmatrix}
\frac{\partial f_1}{\partial x_1}(x_0) & \cdots & \frac{\partial f_1}{\partial x_n}(x_0) \\
\vdots & & \vdots \\
\frac{\partial f_m}{\partial x_1}(x_0) & \cdots & \frac{\partial f_m}{\partial x_n}(x_0)
\end{pmatrix}\]
\indexlabel{Jacobi-Matrix}
\indexlabel{Funktionalmatrix}
die \textbf{Jacobi-} oder \textbf{Funktionalmatrix} von $f$ in $x_0$.
\end{enumerate}
\textbf{Beachte:}
\begin{enumerate}
\item $J_f(x_0)$ ist eine $(m \times n)$-Matrix.
\item Ist $m=1$ folgt $J_f(x_0)=\grad f(x_0)$.
\end{enumerate}
\end{definition*}
\begin{erinnerung}
Sei $I\subseteq\MdR$ ein Intervall, $\varphi:I\to\MdR$ eine Funktion, $x_0\in I$. $\varphi$ ist in $x_0$ differenzierbar
\[
\overset{\text{ANA 1}}{\equizu}\exists a \in\MdR: \ds\lim_{h\to 0}\frac{\varphi(x_0+h)-\varphi(x_0)}{h}=a
\equizu\exists a\in\MdR:\ds\lim_{h\to 0}\frac{\varphi(x_0+h)-\varphi(x_0)-ah}{h}=0
\equizu\exists a\in\MdR: \ds\lim_{h\to 0}\frac{\varphi(x_0+h)-\varphi(x_0)-ah}{|h|}=0
\]
\end{erinnerung}
\begin{definition*}
\begin{enumerate}
\index{Differenzierbarkeit}
\item Sei $x_0\in D$. $f$ heißt \textbf{differenzierbar} (db) in
$x_0 :\equizu \exists (m \times n)$-Matrix $A$, sodass gilt:
\begin{align*}
\ds\lim_{h\to 0}\frac{f(x_0+h)-f(x_0)-Ah}{\|h\|}=0\ \tag{$*$}
\end{align*}
\item $f$ heißt differenzierbar auf $D\ :\equizu f$ ist in
jedem $x\in D$ differenzierbar.
\end{enumerate}
\end{definition*}
\begin{bemerkungen}
\item $f$ ist differenzierbar in
$x_0\equizu\exists (m \times n)$-Matrix $A$:
\[ \ds\lim_{x\to x_0}\frac{f(x)-f(x_0)-A(x-x_0)}{\|x-x_0\|}=0 \]
\item Ist $m=1$, so gilt: $f$ ist differenzierbar in $x_0$
\begin{align*}
\equizu \exists a \in\MdR^n:
\ds\lim_{h\to 0}\frac{f(x_0+h)-f(x_0)-ah}{\|h\|}=0\ \tag{$**$}
\end{align*}
\item Aus 2.1 folgt: $f$ ist differenzierbar in $x_0\equizu$ jedes
$f_j$ ist differenzierbar in $x_0$.
\end{bemerkungen}
\begin{satz}[Differenzierbarkeit und Stetigkeit]
$f$ sei in $x_0\in D$ differenzierbar
\begin{enumerate}
\item $f$ ist in $x_0$ stetig
\item $f$ ist in $x_0$ partiell differenzierbar und die Matrix A in
$(*)$ ist eindeutig bestimmt: \\
$A=J_f(x_0)$. $f'(x_0):=A=J_f(x_0)$ (\begriff{Ableitung} von $f$ in $x_0$).
\item Ist $m=1$, so ist $f'(x_0) = a$ (aus $(**)$), also $f'(x_0) = \grad(f(x_0))$
\end{enumerate}
\end{satz}
\begin{beweis}
Sei A wie in $(*)$, $A=(a_{jk})$, $\varrho(h):=\frac{f(x_0+h)-f(x_0)-Ah}{\|h\|}$,
also: $\varrho(h)\to0\ (h\to 0)$. Sei $\varrho=(\varrho_1,\ldots,\varrho_m)$.
2.1 $\folgt \varrho_j(h)\to 0\ (h\to 0)\ (j=1,\ldots,m)$
\begin{enumerate}
\item $f(x_0+h)=f(x_0)+\underbrace{Ah}_{\overset{\text{3.5}}{\to}0}+\underbrace{\|h\|\varrho(h)}_{\to 0\ (h\to 0)}\to f(x_0)\ (h\to 0)$
\item Sei $j\in\{1,\ldots,m\}$ und $k\in\{1,\ldots,n\}$.
Zu zeigen: $f_j$ ist partiell differenzierbar und
$\frac{\partial f_j}{\partial x_k}(x_0)=a_{jk}$.
$\varrho_j(h)=\frac{1}{\|h\|}(f_j(x_0+h)-f_j(x_0)-(a_{j1},\ldots,a_{jn})\cdot h)\to 0\ (h \to 0)$.
Für $t\in\MdR$ sei $h=te_k\folgt\varrho(h)=\frac{1}{|t|}(f(x_0+te_k)-a_{jk}t)\to 0\ (t\to 0)\folgt\left|\frac{f(x_0+te_k)-f(x_0)}{t}-a_{jk}\right|\to 0\ (t\to 0)\folgt f_j$ ist in $x_0$ partiell differenzierbar und $\frac{\partial f_j}{\partial x_k}(x_0)=a_{jk}$.
\end{enumerate}
\end{beweis}
\begin{beispiele}
\item $$f(x,y)=\begin{cases}
\frac{xy}{x^2+y^2}&\text{, falls } (x,y)\ne(0,0)\\
0&\text{, falls } (x,y)=(0,0)
\end{cases}$$
Bekannt: $f$ ist in $(0,0)$ \textbf{nicht} stetig, aber partiell
differenzierbar und $\grad f(0,0)=(0,0)$ 5.1 $\folgt f$ ist in
$(0,0)$ \textbf{nicht} differenzierbar.
\item \[
f(x,y)=
\begin{cases}
(x^2+y^2) \underbrace{\sin\frac{1}{\sqrt{x^2+y^2}}}_\text{beschränkt}&\text{, falls } (x,y)\ne(0,0)\\
0&\text{, falls }(x,y)=(0,0)
\end{cases}
\]
Für $(x,y)\ne(0,0): \left|f(x,y)\right|=(x^2+y^2)\left|\sin\frac{1}{\sqrt{x^2+y^2}}\right|
\le x^2+y^2\overset{(x,y)\to(0,0)}{\to}0 \folgt f$ ist in $(0,0)$ stetig.
$\frac{f(t,0)-f(0,0)}{t}=\frac{1}{t}t^2\sin\frac{1}{|t|}=t\sin\frac{1}{|t|}\to 0\ (t\to 0)\folgt f$
ist in $(0,0)$ partiell differenzierbar nach $x$ und $f_x(0,0)=0$.
Analog: $f$ ist in $(0,0)$ partiell differenzierbar nach $y$ und
$f_y(0,0)=0$. $\varrho(h)=\frac{1}{\|h\|}f(h)\gleichwegen{h=(h_1,h_2)}\frac{1}{\sqrt{h_1^2+h_2^2}}(h_1^2+h_2^2)\sin\frac{1}{h_1^2+h_2^2}=\sqrt{h_1^2+h_2^2}\underbrace{\sin\frac{1}{\sqrt{h_1^2+h_2^2}}}_{\text{beschränkt}}\to 0\ (h\to 0)\folgt f$
ist differenzierbar in $(0,0)$ und $f'(0,0)=\grad f(0,0)=(0,0)$
\item $$f(x,y) := \begin{cases}
\frac{x^3}{x^2+y^2}&\text{, falls} (x,y) \ne (0,0)\\
0&\text{, falls} (x,y) = (0,0)\end{cases}$$
Übung: $f$ ist in $(0,0)$ stetig.
$\frac{f(t,0) - f(0,0)}{t} = \frac{1}{t} \frac{t^3}{t^2} = 1 \to 1\ (t \to 0).\ \frac{f(0,t) - f(0,0)}{t} = 0 \to 0\ (t \to 0)$.
$\folgt f$ ist in $(0,0)$ partiell db und $\grad f(0,0) = (1,0)$.
Für $h = (h_1,h_2) \ne (0,0): \rho(h) = \frac{1}{\|h\|}(f(h) - f(0,0) - \grad f(0,0)\cdot h) = \frac{1}{\|h\|} (\frac{h_1^3}{h_1^2+h_2^2} - h_1) = \frac{1}{\|h\|} \frac{-h_1 h_2^2}{h_1^2 + h_2^2} = \frac{-h_1 h_2^2}{(h_1^2 + h_2^2)^{3/2}}.$
Für $h_2 = h_1 > 0: \rho(h) = \frac{-h_1^3}{(\sqrt{2})^3 h_1^3} = - \frac{1}{(\sqrt{2})^3} \folgt \rho(h) \nrightarrow 0\ (h \to 0) \folgt f$ ist in $(0,0)$ \emph{nicht} db.
\end{beispiele}
\begin{satz}[Stetigkeit aller partiellen Ableitungen]
Sei $x_0 \in D$ und \emph{alle} partiellen Ableitungen
$\frac{\partial f_j}{\partial x_k}$ seien auf $D$ vorhanden und in
$x_0$ stetig $(j=1,\ldots,m,\ k=1,\ldots,n)$. Dann ist $f$ in $x_0$
db.
\end{satz}
\begin{beweis}
O.B.d.A: $m=1$ und $x_0=0$. Der Übersicht wegen sei $n=2$.
Für $h = (h_1,h_2) \ne (0,0):$ $$\rho(h) := \frac{1}{\|h\|}(f(h) - f(0,0) - (\underbrace{h_1 f_x(0,0) + h_2 f_y(0,0)}_{= \grad f(0,0)\cdot h}))$$
$f(h) - f(0) = f(h_1,h_2) - f(0,0) = \underbrace{f(h_1,h_2) - f(0,h_2)}_{=:\Delta_1} + \underbrace{f(0,h_2) - f(0,0)}_{=:\Delta_2}$
$\varphi(t) := f(t,h_2),\ t$ zwischen $0$ und $h_1 \folgt \Delta_1 = \varphi(h_1) - \varphi(0),\ \varphi'(t) = f_x(t,h_2)$
Aus dem Mittelwertsatz aus Analysis I folgt:
$\exists \xi = \xi(h)$ mit $0 \leq \xi \leq h_1: \Delta_1 = h_1\varphi(\xi) = h_1 f_x(\xi,h_2)\\
\exists \eta = \eta(h)$ zw. $0$ und $h_2: \Delta_2 = h_2\varphi(\eta) = h_2 f_x(\eta,h_2)$
$\folgt \rho(h) := \frac{1}{\|h\|}(h_1 f_x(\xi,h_2) - h_2 f_y(0,\eta) - (h_1 f_x(0,0) + h_2 f_y(0,0)))\\
= \frac{1}{\|h\|} h(\underbrace{f_x(\xi,h_2) - f_x(0,0),\ f_y(0,\eta) - f_y(0,0)}_{=:v(h)})
= \frac{1}{\|h\|} h\cdot v(h)$
$\folgt |\rho(h)| = \frac{1}{\|h\|} |h\cdot v(h)| \overset{\text{CSU}}{\le} \frac{1}{\|h\|} \|h\| \|v(h)\| = \|v(h)\|$
$f_x,f_y$ sind stetig in $(0,0) \folgt v(h) \to 0\ (h \to 0) \folgt \rho(h) \to 0\ (h \to 0)$
\end{beweis}
\begin{folgerung}
Ist $f \in C^1(D,\MdR^m) \folgt f$ ist auf $D$ db.
\end{folgerung}
\begin{definition*}
Sei $k \in \MdN$ und $f \in C^k(D,\MdR^m)$.
Dann heißt $f$ \textbf{auf $D$ $k$-mal stetig db}.
\end{definition*}
\begin{beispiele}
\item $f(x,y,z) = (x^2+y, xyz).\ J_f(x,y,z) = \begin{pmatrix}
2x & 1 & 0\\
yz & xz & xy\end{pmatrix} \folgt f \in C^1(\MdR^3,\MdR^2)$
$\folgtnach{5.3} f$ ist auf $\MdR^3$ db und $f'(x,y,z) = J_f(x,y,z)\ \forall (x,y,z) \in \MdR^3.$
\item Sei $f:\MdR^n \to \MdR^m$ \emph{linear}, es ex. also eine $(m \times n)$-Matrix $A:f(x) = Ax\ (x \in \MdR^n).$
Für $x_0 \in \MdR^n$ und $h \in \MdR^n \backslash\{0\}$ gilt:\\
$\rho(h) = \frac{1}{\|h\|}(f(x_0+h) - f(x_0) - Ah) = \frac{1}{\|h\|}(f(x_0) + f(h) - f(x_0) - f(h)) = 0.$
Also: $f$ ist auf $\MdR^n$ db und $f'(x) = A\ \forall x \in \MdR^n$. Insbesondere ist $f \in C^1(\MdR^n,\MdR^m).$
\item[(2.1)] $n = m$ und $f(x) = x = Ix$ ($I = (m \times n)$-Einheitsmatrix). Dann: $f'(x) = I\ \forall x \in \MdR^n$.
\item[(2.2)] $m = 1:\ \exists a \in \MdR^n: f(x) = ax\ (x \in \MdR^n)$ (Linearform). $f'(x) = a\ \forall x \in \MdR^n$.
\item $$f(x,y) = \begin{cases}
(x^2+y^2) \sin \frac{1}{\sqrt{x^2+y^2}} & \text{, falls} (x,y) \ne (0,0)\\
0 & \text{, falls} (x,y) = (0,0)\end{cases}$$
Bekannt: $f$ ist in $(0,0)$ db. Übungsblatt: $f_x,f_y$ sind in
$(0,0)$ \emph{nicht} stetig.
\item Sei $I \subseteq \MdR$ ein Intervall und
$g = (g_1,\ldots,g_m): I \to \MdR^m;\ g_1,\ldots,g_m: I \to \MdR.$
$g$ ist in $t_0 \in I$ db $\equizu g_1,\ldots,g_m$ sind in $t_0 \in I$ db. In diesem Fall gilt: $g'(t_0) = (g_1'(t_0),\ldots,g_m'(t_0)).$
\item[(4.1)] $m = 2: g(t) = (\cos t,\sin t),\ t \in [0,2\pi].\ g'(t) = (-\sin t,\cos t).$
\item[(4.2)] Seien $a,b \in \MdR^m,\ g(t) = a+t(b-a),\ t \in [0,1],\ g'(t) = b-a$.
\end{beispiele}
\begin{satz}[Kettenregel]
$f$ sei in $x_0 \in D$ db, $\emptyset \ne E \subseteq \MdR^m,\ E$ sei offen, $f(D) \subseteq E$ und $g:E \to \MdR^p$ sei db in $y_0 := f(x_0)$. Dann ist $g \circ f: D \to \MdR^p$ db in $x_0$ und $$(g \circ f)'(x_0) = g'(f(x_0))\cdot f'(x_0)\text{ (Matrizenprodukt)}$$
\end{satz}
\begin{beweis}
$A := f'(x_0),\ B := g'(y_0) = g'(f(x_0)),\ h := g \circ f.$
$$\tilde{g}(y) = \begin{cases}
\frac{g(y)-g(y_0)-B(y-y_0)}{\|y-y_0\|} & \text{, falls } y \in E\backslash\{y_0\} \\
0 & \text{, falls } y = y_0
\end{cases}$$
$g$ ist db in $y_0 \folgt \tilde{g}(y) \to 0\ (y \to y_0).$ Aus Satz 5.1 folgt, dass $f$ stetig ist in $x_0 \folgt f(x) \to f(x_0) = y_0\ (x \to x_0) \folgt \tilde{g}(f(x)) \to 0\ (x \to x_0)$
Es ist $g(y) - g(y_0) = \|y-y_0\| \tilde{g}(y) = B(y-y_0)\ \forall y \in E.$
$\ds{\frac{h(x)-h(x_0)-BA(x-x_0)}{\|x-x_0\|} = \frac{1}{\|x-x_0\|}(g(f(x))-g(f(x_0))-BA(x-x_0))}$\\
$\ds{= \frac{1}{\|x-x_0\|} (\|f(x)-f(x_0)\| \tilde{g}(f(x)) + B(f(x)-f(x_0))-BA(x-x_0))}$\\
$\ds{= \underbrace{\frac{\|f(x)-f(x_0)\|}{\|x-x_0\|}}_{=:D(x)} \underbrace{\tilde{g}(f(x))}_{\to 0} + \underbrace{B(\underbrace{\frac{f(x)-f(x_0)-A(x-x_0)}{\|x-x_0\|}}_{\overset{f\text{ db}}{\to} 0\ (x \to x_0)})}_{\overset{\text{3.5}}{\to} 0\ (x \to x_0)}}$
Noch zu zeigen: $D(x)$ bleibt in der "`Nähe"' von $x_0$ beschränkt.
$0 \le D(x) = \ds{\frac{\|f(x)-f(x_0)-A(x-x_0)+A(x-x_0)\|}{\|x-x_0\|}}$\\
$\ds{= \underbrace{\frac{\|f(x)-f(x_0)-A(x-x_0)\|}{\|x-x_0\|}}_{\to 0\ (x \to x_0)} + \underbrace{\frac{\|A(x-x_0)\|}{\|x-x_0\|}}_{\le \|A\|}}.$
\end{beweis}
\paragraph{Wichtigster Fall}
$g = g(x_1,\ldots,x_m)$ reellwertig,
\begin{align*}
h(x) &= h(x_1,\ldots,x_n) \\
&= g(f_1(x_1,\ldots,x_n),f_2(x_1,\ldots,x_n),\ldots,f_m(x_1,\ldots,x_n)) \\
&= (g \circ f)(x)
\end{align*}
$h_{x_j}(x) = g_{x_1}(f(x))\frac{\partial f_1}{\partial x_j}(x)+g_{x_2}(f(x))\frac{\partial f_2}{\partial x_j}(x)+\cdots+g_{x_m}(f(x))\frac{\partial f_m}{\partial x_j}(x)$
\begin{beispiel}
$g = g(x,y,z),\ h(x,y) = g(xy,x^2+y,x \sin y) = g(f(x,y)).$
$h_x(x,y) = g_x(f(x,y))y + g_y(f(x,y))2x + g_z(f(x,y))\sin y.$\\
$h_y(x,y) = g_x(f(x,y))x + g_y(f(x,y))1 + g_z(f(x,y))x \cos y.$
\end{beispiel}
\begin{hilfssatz}
Es sei $A$ eine $(m \times n)$-Matrix (reell), es sei $B$ eine $(n \times m)$-Matrix (reell) und es gelte
\begin{itemize}
\item[(i)] $BA = I $($= (n \times n)$-Einheitsmatrix) und
\item[(ii)] $AB = \tilde{I} $($= (m \times m)$-Einheitsmatrix)
\end{itemize}
Dann: $m = n$.
\end{hilfssatz}
\begin{beweis}
$\Phi(x):=Ax (x \in \MdR^n). \text{ Lin. Alg.} \folgt \Phi \text{ ist linear, }
\Phi:\MdR^n \to \MdR^m. \folgtnach{(i)} \Phi \text{ ist injektiv, also }
Kern \Phi = {0}. \text{ (ii) Sei }z \in \MdR^m, x:=Bz \folgtnach{(ii)} z = ABz = Ax = \Phi(x) \folgt \Phi \text{ ist surjektiv. Dann: } n = \dim \MdR^n \gleichnach{LA} \dim\kernn\Phi + \text{dim}\Phi(\MdR^n) = m.$
\end{beweis}
\begin{satz}[Injektivität und Dimensionsgleichheit]
$f:D\to \MdR^m$ sei db auf $D$, es sei $f(D)$ offen, $f$ injektiv auf $D$ und $f^{-1}:f(D)\to \MdR^n$ sei db auf $f(D)$. Dann:
\item[(1)] $m = n$
\item[(2)] $\forall x \in D:f'(x)$ ist eine invertierbare Matrix und $f'(x)^{-1} = (f^{-1})'(f(x))$
\end{satz}
\textbf{Beachte:}
\begin{itemize}
\item[(1)] Ist $D$ offen und $f:D\to \MdR^m$ db, so muss i. A. $f(D)$ nicht offen sein. Z.B.: $f(x) = \sin x, D = \MdR, f(D) = [-1,1]$
\item[(2)] Ist $D$ offen, $f:D\to \MdR^m$ db und injektiv, so muss i.A. $f^{-1}$ \underline{nicht} db sein. Z.B.: $f(x) = x^3, D = \MdR, f^{-1}$ ist in 0 \underline{nicht} db.
\end{itemize}
\begin{beweis} von 5.5: $g:=f^{-1}; x_0 \in D, z_0:=f(x_0) (\folgt x_0 = g(z_0))$
Es gilt: $g(f(x)) = x \forall x \in D, f(g(z)) = z \forall z \in f(D) \folgtnach{5.4} g'(f(x))\cdot f'(x) = I \forall x \in D; f'(g(z))\cdot g'(z) = \tilde{I}
\forall z \in f(D) \folgt \underbrace{g'(z_0)}_{=:B}\cdot \underbrace{f'(x_0)}_{=:A} = I, f'(x_0)\cdot g'(z_0) = \tilde{I} \folgtnach{5.5} m = n$ und $f'(x_0)^{-1} = g'(z_0) = (f^{-1})'(f(x_0))$.
\end{beweis}
\theoremstyle{numberbreak}
\newtheorem{spezialfall}[satz]{Spezialfall}
\chapter{Differenzierbarkeitseigenschaften reellwertiger Funktionen}
\def\grad{\mathop{\rm grad}\nolimits}
\begin{definition}
\begin{enumerate}
\index{Konvexität}
\item Seien $a,b \in \MdR^n; S[a,b]:=\{a+t(b-a): t\in [0,1]\}$ heißt
\begriff{Verbindungsstrecke} von $a$ und $b$
\item $M\subseteq \MdR^n$ heißt \textbf{konvex} $:\equizu$\ aus $a,b \in M$ folgt
stets: $S[a,b] \subseteq M$
\item Sei $k \in \MdN$ und $x^{(0)},\ldots,x^{(k)} \in \MdR^n.\ S[x^{(0)},\ldots,x^{(k)}]:=\bigcup_{j=1}^{k}S[x^{(j-1)}, x^{(j)}]$ heißt \begriff{Streckenzug} durch $x^{(0)},\ldots,x^{(k)}$ (in dieser Reihenfolge!)
\item Sei $G \subseteq \MdR^n$. $G$ heißt \begriff{Gebiet}$:\equizu\ G$ ist offen und aus $a,b \in G$ folgt: $\exists x^{(0)},\ldots,x^{(k)} \in G: x^{(0)}=a, x^{(k)}=b$ und $S[x^{(0)},\ldots,x^{(k)}] \subseteq G$.
\end{enumerate}
\end{definition}
\begin{vereinbarung}
Ab jetzt in diesem Paragraphen: $\emptyset \ne D \subseteq \MdR^n$, $D$ offen und
$f:D\to \MdR$ eine Funktion.
\end{vereinbarung}
\begin{satz}[Der Mittelwertsatz]
$f:D\to\MdR$ sei differenzierbar auf $D$, es seien $a,b \in D$ und $S[a,b]\subseteq D$. Dann: $$\exists\ \xi \in S[a,b]: f(b)-f(a)=f'(\xi)\cdot(b-a)$$
$ $%Bug
\end{satz}
\begin{beweis}
Sei $g(t):=a+t\cdot(b-a)$ für $t\in[0,1]$. $g([0,1])=S[a,b]\subseteq D$. $\Phi(t):=f(g(t)) (t \in [0,1])$ 5.4 $\folgt \Phi$ ist differenzierbar auf $[0,1]$ und $\Phi'(t) = f'(g(t))\cdot g'(t) = f'(a+t(b-a))\cdot(b-a)$. $f(b)-f(a)=\Phi(1)-\Phi(0) \folgtnach{MWS, AI} \Phi'(\eta) = f'(\underbrace{a+\eta(b-a)}_{=:\xi \in S})\cdot(b-a), \eta \in [0,1]$
\end{beweis}
\begin{folgerungen}
Sei $D$ ein \textbf{Gebiet} und $f,g:D\to\MdR$ seien differenzierbar auf $D$.
\begin{enumerate}
\item Ist $f'(x)=0\ \forall x \in D \folgt f$ ist auf $D$ konstant.
\item Ist $f'(x)=g'(x) \forall x \in D \folgt \exists c \in \MdR: f=g+c$ auf $D$.
\end{enumerate}
\end{folgerungen}
\begin{beweis}
(2) folgt aus (1). (1) Seien $a,b \in D$. Z.z.: $f(a)=f(b)$.
$\exists x^{(0)},\ldots,x^{(k)} \in D, x^{(0)}=a, x^{(k)}=b: S[x^{(0)},\ldots,x^{(k)}] \subseteq D$
$\forall j \in \{1,\ldots,k\}$ ex. nach 6.1 ein $\xi_j \in S[x^{(j-1)}, x^{(j)}]:
f(x^{(j)})-f(x^{(j-1)}) = \underbrace{f'(\xi_j)}_0\cdot(x^{(j)}-x^{(j-1)})=0
\folgt f(x^{(j)}) = f(x^{(j-1)}) \folgt f(a)=f(x^{(0)})=f(x^{(1)})=f(x^{(2)})=\ldots = f(x^{(k)}) = f(b)$.
\end{beweis}
\begin{satz}[Bedingung für Lipschitzstetigkeit]
$D$ sei konvex und $f:D\to\MdR$ sei differenzierbar auf $D$. Weiter sei $f'$ auf $D$ beschränkt. Dann ist $f$ auf $D$ Lipschitzstetig.
\end{satz}
\begin{beweis}
$\exists L \ge 0: \|f'(x)\| \le L \forall x \in D$. Seien $u,v \in D$. $D$ konvex $\folgt S[u,v]\subseteq D$. 6.1 $\folgt \exists\xi\in S[u,v]:f(u)-f(v)=f'(\xi)\cdot(u-v) \folgt |f(u)-f(v)|=|f'(\xi)\cdot(u-v)|\stackrel{CSU}{\le}\|f'(\xi)\| \|u-v\| \le L\|u-v\|$.
\end{beweis}
\begin{satz}[Linearität]
Sei $\Phi:\MdR^n\to\MdR^m$ eine Funktion.
$\Phi$ ist linear $\equizu \Phi \in C^1(\MdR^n, \MdR^m)$ und $\Phi(\alpha x)=\alpha\Phi(x)\ \forall x \in \MdR^n\ \forall \alpha \in \MdR.$
\end{satz}
\begin{beweis}
``$\folgt$'':
``$\impliedby$'': O.B.d.A.: $m=1$. Z.z.: $\exists a \in \MdR^n:\Phi(x)=a\cdot x \forall x \in \MdR^n$.
$a:=\Phi'(0) \Phi(0)=\Phi(2\cdot0)=2\cdot \Phi(0) \folgt \Phi(0)=0$.
$\forall x \in \MdR^n \forall \alpha \in \MdR: \Phi(\alpha x)=\alpha\Phi(x) \folgtnach{5.4} \alpha \Phi'(\alpha x)=\alpha\Phi'(x)\ \forall x \in \MdR^n\ \forall \alpha \in \MdR
\folgt \Phi'(x)=\Phi'(\alpha x)\ \forall x \in\MdR^n\ \forall\alpha\ne0$.$ \folgtnach{$\alpha\to0, f\in C^1$} \Phi'(x)=\Phi'(0)=a\ \forall x \in\MdR^n$.
$g(x):=(\Phi(x)-ax)^2\ (x \in \MdR^n)$, $ g(0)=(\Phi(0)-a\cdot0)^2=0$.
5.4 $\folgt g$ ist differenzierbar auf $\MdR^n$ und $g'(x)=2(\Phi(x)-ax)(\Phi'(x)-a)=0\ \forall x \in \MdR^n$.
6.2(1) $\folgt g(x)=g(0)=0\ \forall x\in\MdR^n \folgt \Phi(x)=a\cdot x\ \forall x \in \MdR^n.$
\end{beweis}
\paragraph{Die Richtungsableitung}
\indexlabel{Richtung}
\indexlabel{Richtungs-!Vektor}
\indexlabel{Richtungs-!Ableitung}
Sei $\emptyset \ne D \subseteq \MdR^n,\ D$ offen, $f:D \to \MdR$ und $x_0 \in D$. Ist $a \in \MdR^n$ und $\|a\|=1$, so heißt $a$ eine \textbf{Richtung} (oder ein \textbf{Richtungsvektor}).
Sei $a \in \MdR^n$ eine Richtung. $D$ offen $\folgt \exists \delta>0: U_\delta(x_0) \subseteq D$. Gerade durch $x_0$ mit Richtung $a:\{x_0+ta:t\in\MdR\}.\ \|x_0+ta-x_0\| = \|ta\| = |t|$. Also: $x_0+ta \in D$ für $t \in (-\delta,\delta),\ g(t) := f(x_0+ta)\ (t \in (-\delta,\delta))$.
$f$ heißt \textbf{in $x_0$ in Richtung $a$ db}, gdw. der Grenzwert $$\lim_{t\to 0} \frac{f(x_0+ta)-f(x_0)}{t}$$ existiert und $\in \MdR$ ist. In diesem Fall heißt $$\frac{\partial f}{\partial a}(x_0) := \lim_{t\to 0} \frac{f(x_0+ta)-f(x_0)}{t}$$ die \textbf{Richtungsableitung von $f$ in $x_0$ in Richtung $a$}.
\begin{beispiele}
\item $f$ ist in $x_0$ partiell db nach $x_j \equizu f$ ist in $x_0$ db in Richtung $e_j$. In diesem Fall gilt: $\frac{\partial f}{\partial x_j}(x_0) = \frac{\partial f}{\partial e_j}(x_0)$.
\item $$f(x,y) := \begin{cases}
\frac{xy}{x^2+y^2} & \text{, falls } (x,y) \ne (0,0)\\
0 & \text{, falls } (x,y) = (0,0)\end{cases}$$
$x_0 = (0,0).$ Sei $a=(a_1,a_2) \in \MdR^2$ eine Richtung, also $a_1^2+a_2^2=1;\ \frac{f(ta)-f(0,0)}{t} = \frac{1}{t} \frac{t^2a_1a_2}{t^2a_1^2+t^2a_2^2} = \frac{a_1a_2}{t}$. D.h.: $\frac{\partial f}{\partial a}(0,0)$ ex. $\equizu a_1a_2 = 0 \equizu a \in \{(1,0),(-1,0),(0,1),(0,-1)\}$. In diesem Fall: $\frac{\partial f}{\partial a}(0,0) = 0.$
\item $$f(x,y) := \begin{cases}
\frac{xy^2}{x^2+y^4} & \text{, falls } (x,y) \ne (0,0)\\
0 & \text{, falls } (x,y) = (0,0)\end{cases}$$
$x_0 = (0,0)$. Sei $a = (a_1,a_2) \in \MdR$ eine Richtung. $\frac{f(ta)-f(0,0)}{t} = \frac{1}{t} \frac{t^3a_1a_2^2}{t^2a_1^2+t^4a_2^4} = \frac{a_1a_2^2}{a_1^2+t^2a_2^4} \overset{t \to 0}{\to} \begin{cases}
0 & \text{, falls } a_1=0\\
\frac{a_2^2}{a_1} & \text{, falls } a_1 \ne 0 \end{cases}$
D.h. $\frac{\partial f}{\partial a}(0,0)$ existiert für \emph{jede} Richtung $a \in \MdR^2$. Z.B.: $a = \frac{1}{\sqrt{2}}(1,1): \frac{\partial f}{\partial a}(0,0) = \frac{1}{\sqrt{2}}.$
$f(x,\sqrt{x}) = \frac{x^2}{2x^2} = \frac{1}{2}\ \forall x>0 \folgt f$ ist in $(0,0)$ \emph{nicht} stetig.
\end{beispiele}
\begin{satz}[Richtungsableitungen]
Sei $x_0 \in D,\ a \in \MdR^n$ eine Richtung, $f:D \to \MdR$.
\begin{enumerate}
\item $\frac{\partial f}{\partial a}(x_0)$ existiert $\equizu \frac{\partial f}{\partial (-a)}(x_0)$ existiert. In diesem Fall ist: $$\frac{\partial f}{\partial (-a)}(x_0) = -\frac{\partial f}{\partial a}(x_0)$$
\item $f$ sei in $x_0$ db. Dann:
\begin{enumerate}
\item[(i)] $\frac{\partial f}{\partial a}(x_0)$ existiert und $$\frac{\partial f}{\partial a}(x_0) = a\cdot \grad f(x_0).$$
\item[(ii)] Sei $\grad f(x_0) \ne 0$ und $a_0 := \|\grad f(x_0)\|^{-1}\cdot \grad f(x_0)$. Dann: $$\frac{\partial f}{\partial (-a_0)}(x_0) \le \frac{\partial f}{\partial a}(x_0) \le \frac{\partial f}{\partial a_0}(x_0) = \|\grad f(x_0)\|.$$ Weiter gilt: $\frac{\partial f}{\partial a}(x_0) < \frac{\partial f}{\partial a_0}(x_0)$, falls $a \ne a_0$; $\frac{\partial f}{\partial (-a_0)}(x_0) < \frac{\partial f}{\partial a}(x_0)$, falls $a \ne -a_0$.
\end{enumerate}
\end{enumerate}
\end{satz}
\begin{beweis}
\begin{enumerate}
\item $\frac{(f(x_0+t(-a))-f(x_0))}{t} = -\frac{(f(x_0+(-t)a)-f(x_0))}{-t} \folgt$ Beh.
\item \begin{enumerate}
\item[(i)] $g(t) := f(x_0+ta)$ ($|t|$ hinreichend klein). Aus Satz 5.4 folgt: $g$ ist db in $t=0$ und $g'(0) = f'(x_0) \cdot a \folgt \frac{\partial f}{\partial a}(x_0)$ existiert und ist $= g'(0) = \grad f(x_0)\cdot a$
\item[(ii)] $\uwave{\left| \frac{\partial f}{\partial a}(x_0) \right|} \gleichnach{(i)} |a\cdot \grad f(x_0)| \overset{\text{CSU}}{\le} \|a\|\cdot \|\grad f(x_0)\| = \|\grad f(x_0)\| = \frac{1}{\|\grad f(x_0)\|} \grad f(x_0) \cdot \grad f(x_0) = a_0\cdot \grad f(x_0) \gleichnach{(i)} \uwave{\frac{\partial f}{\partial a_0}(x_0)}$
$\folgt \frac{\partial f}{\partial (-a_0)}(x_0) \gleichnach{(1)} -\frac{\partial f}{\partial a_0}(x_0) \le \frac{\partial f}{\partial a}(x_0) \le \frac{\partial f}{\partial a_0}(x_0) = \|\grad f(x_0)\|$
Sei $\frac{\partial f}{\partial a}(x_0) = \frac{\partial f}{\partial a_0}(x_0) \folgtnach{(i),(ii)} a\cdot\grad f(x_0) = \|\grad f(x_0)\| \folgt a\cdot a_0 = 1 \folgt \|a-a_0\|^2 = (a-a_0)(a-a_0) = a\cdot a - 2a\cdot a_0 + a_0\cdot a_0 = 1-2+1 = 0 \folgt a=a_0.$
\end{enumerate}
\end{enumerate}
\end{beweis}
\paragraph{Der Satz von Taylor}
Im Folgenden sei $f:D \to \MdR$ zunächst "`genügend oft partiell db"', $x_0 \in D$ und $h=(h_1,\ldots,h_n) \in \MdR^n$. Wir führen folgenden Formalismus ein.
$$\nabla := \left( \frac{\partial}{\partial x_1},\ldots,\frac{\partial}{\partial x_n}\right)\ \text{("`Nabla"')};\ \nabla f:= \left( \frac{\partial f}{\partial x_1},\ldots,\frac{\partial f}{\partial x_n}\right) = \grad f;\ \nabla f(x_0) := \grad f(x_0)$$
$$(h\cdot\nabla) := h_1 \frac{\partial}{\partial x_1} + \ldots + h_n \frac{\partial}{\partial x_n};\ (h\cdot\nabla) f:= h_1 \frac{\partial f}{\partial x_1} + \ldots + h_n \frac{\partial f}{\partial x_n} = h \grad f;\ (h\cdot\nabla) f(x_0) := h\cdot\grad f(x_0)$$
$(h\cdot\nabla)^{(0)} f(x_0) := f(x_0)$. Für $k\in\MdN: (h\cdot\nabla)^{(k)} := \left( h_1 \frac{\partial}{\partial x_1} + \ldots + h_n \frac{\partial}{\partial x_n} \right)^k$
$(h\cdot\nabla)^{(2)} f(x_0) = \sum_{j=1}^n \sum_{k=1}^n h_jh_k\frac{\partial^2 f}{\partial x_j \partial x_k} (x_0)$
$(h\cdot\nabla)^{(3)} f(x_0) = \sum_{j=1}^n \sum_{k=1}^n \sum_{l=1}^n h_jh_kh_l\frac{\partial^3 f}{\partial x_j \partial x_k \partial x_l} (x_0)$
\begin{beispiel}
$(n=2): h = (h_1,h_2).$
$(h\cdot\nabla)^{(0)} f(x_0) = f(x_0),\ (h\cdot\nabla)^{(1)} f(x_0) = h\cdot \grad f(x_0) = h_1 f_x(x_0) + h_2 f_y(x_0)$.
$(h\cdot\nabla)^{(2)} f(x_0) = \left( h_1 \frac{\partial f}{\partial x} + h_2 \frac{\partial f}{\partial y}\right)^2 (x_0) = h_1^2 \frac{\partial^2 f}{\partial^2 x} (x_0) + h_1h_2 \frac{\partial^2 f}{\partial x \partial y} (x_0) + h_2h_1 \frac{\partial^2 f}{\partial y \partial x} (x_0) + h_2^2 \frac{\partial^2 f}{\partial^2 y} (x_0).$
\end{beispiel}
\begin{satz}[Der Satz von Taylor]
Sei $k\in\MdN, f\in C^{k+1}(D,\MdR),x_0 \in D, h\in\MdR^n$ und $S[x_0,x_0+h]\subseteq D$. Dann:
$$f(x_0+h)=\sum_{j=0}^k\frac{(h\cdot\nabla)^{(j)}f(x_0)}{j!}+\frac{(h\cdot\nabla)^{(k+1)}f(\xi)}{(k+1)!}$$
wobei $\xi \in S[x_0, x_0+h]$
\end{satz}
\begin{beweis}
$\Phi(t):=f(x_0+th)$ für $t\in[0,1]$. 5.4$\folgt \Phi \in C^{k+1}[0,1],\ \Phi'(t)=f'(x_0+th) \cdot h=(h \cdot \nabla)f(x_0+th)$\\
Induktiv: $\Phi^{(j)}(t)=(h\cdot\nabla)^{(j)}f(x_0+th)\ (j=0,\ldots,k+1, t\in[0,1]).\ \Phi(0)=f(x_0), \Phi(1)=f(x_0+h);\ \Phi^{(j)}(0)=(h\cdot\nabla)^{(j)}f(x_0)$. Analysis 1 (22.2) $\folgt \Phi(1)=\ds\sum_{j=0}^k\frac{\Phi^{(j)}(0)f(x_0)}{j!}+\frac{\Phi^{(k+1)}f(\eta)}{(k+1)!}$, wobei $\eta\in[0,1]\folgt f(x_0+h)=\ds\sum_{j=1}^k\frac{(h\cdot\nabla)^{(j)}f(x_0)}{j!}+\frac{(h\cdot\nabla)^{(k+1)}f(x_0+\eta h)}{(k+1)!},\ \xi:=x_0+\eta h$
\end{beweis}
\begin{spezialfall}
Sei $f\in C^2(D,\MdR),x_0\in D, h\in \MdR^n, S[x_0,x_0+h]\subseteq D$. Dann:
$$f(x_0+h)=f(x_0)+\grad f(x_0)\cdot h+\frac{1}{2}\sum_{j,k=1}^nh_jh_k\frac{\partial^2 f}{\partial x_j\partial x_k}(x_0+\eta h)$$
\end{spezialfall}
\chapter{Quadratische Formen}
\def\grad{\mathop{\rm grad}\nolimits}
\begin{vereinbarung}
In diesem Paragraphen sei $A$ stets eine reelle und symmetrische $(n\times n)$-Matrix, $(A=A^\top)$. Also: $A=(a_{jk})$, dann $a_{jk}=a_{kj}\ (k,j=1,\ldots,n)$
\end{vereinbarung}
\begin{definition*}
$Q_A:\MdR^n\to\MdR$ durch $Q_A(x):=x(Ax)$. $Q_A$ heißt die zu $A$ gehörende \begriff{quadratische Form}. Für $x=(x_1,\ldots,x_n):$
$$Q_A(x)=\ds\sum_{j,k=1}^na_{jk}x_jx_k$$
\end{definition*}
\begin{beispiel}
Sei $f\in C^2(D,\MdR),x_0\in D, h\in \MdR^n, S[x_0,x_0+h]\subseteq D$.
$$H_f(x_0):=\begin{pmatrix}
f_{x_1x_1}(x_0)&\cdots&f_{x_1x_n}(x_0)\\
f_{x_2x_1}(x_0)&\cdots&f_{x_2x_n}(x_0)\\
\vdots& &\vdots\\
f_{x_nx_1}(x_0)&\cdots&f_{x_nx_n}(x_0)\\
\end{pmatrix}$$
heißt die \begriff{Hesse-Matrix} von $f$ in $x_0$. 4.1$\folgt H_f(x_0)$ ist symmetrisch. Aus 6.7 folgt:
$$f(x_0+h)=f(x_0)+\grad f(x_0)\cdot h + \frac{1}{2}Q_B(h)\text{ mit }B=H_f(x_0+\eta h)$$
\end{beispiel}
\begin{definition*}
\begin{tabular}{ll}
\\ % Bug!
\\
\index{Positivdefinitheit}
\index{Indefinitheit}
\index{Negativdefinitheit}
$A$ heißt $\textbf{positiv definit}$ (pd) & $:\equizu$ $Q_A(x)>0\ \forall x\in\MdR^n\ \backslash\ \{0\}$\\
$A$ heißt $\textbf{negativ definit}$ (nd) & $:\equizu$ $Q_A(x)<0\ \forall x\in\MdR^n\ \backslash\ \{0\}$\\
$A$ heißt $\textbf{indefinit}$ (id) & $:\equizu \exists u,v\in\MdR^n: Q_A(u)>0, Q_A(v)<0$
\end{tabular}
\end{definition*}
\begin{beispiele}
\item $(n=2),\ A=\left(\begin{smallmatrix}a&b\\b&c\end{smallmatrix}\right)$\\
$Q_A(x,y):=ax^2+2bxy+cy^2\ \left((x,y)\in\MdR^2\right)$. Nachrechnen:\\
$$aQ_A(x,y)=(ax+by)^2+(\det A)y^2\ \forall (x,y)\in\MdR^2$$ Übung:\\
\begin{tabular}{ll}
A ist positiv definit & $\equizu a>0, \det A>0$\\
A ist negativ definit & $\equizu a<0, \det A>0$\\
A ist indefinit& $\equizu \det A<0$
\end{tabular}
\item $(n=3),\ A=\left(\begin{smallmatrix}1&0&1\\0&0&0\\1&0&1\end{smallmatrix}\right)$\\
$Q_A(x,y,z)=(x+z)^2\ \forall\ (x,y,z)\in\MdR^3.\ Q_A(0,1,0)=0.\ A$ ist weder pd, noch id, noch nd.
\item ohne Beweis ($\to$ Lineare Algebra). $A$ symmetrisch $\folgt$ alle \begriff{Eigenwerte} (EW) von $A$ sind $\in\MdR$.\\
\begin{tabular}{ll}
A ist positiv definit & $\equizu$ Alle Eigenwerte von $A$ sind $>0$\\
A ist negativ definit & $\equizu$ Alle Eigenwerte von $A$ sind $<0$\\
A ist indefinit& $\equizu \exists$ Eigenwerte $\lambda, \mu$ von $A$ mit $\lambda>0,\ \mu<0$
\end{tabular}
\end{beispiele}
\begin{satz}[Regeln zu definiten Matrizen und quadratischen Formen]
\begin{enumerate}
\item $A$ ist positiv definit $\equizu$ $-A$ ist negativ definit
\item $Q_A(\alpha x)=\alpha^2Q_A(x)\ \forall x\in\MdR^n\ \forall \alpha\in\MdR$
\item \begin{tabular}{ll}
A ist positiv definit & $\equizu \exists c>0: Q_A(x)\ge c\|x\|^2\ \forall x\in\MdR^n$\\
A ist negativ definit & $\equizu \exists c>0: Q_A(x)\le -c\|x\|^2\ \forall x\in\MdR^n$
\end{tabular}
\end{enumerate}
\end{satz}
\begin{beweise}
\item Klar
\item $Q_A(\alpha x)=(\alpha x)(A(\alpha x))=\alpha^2x(Ax)=\alpha^2Q_A(x)$
\item "`$\impliedby$"': Klar. "`$\folgt$"': $K:=\{x\in\MdR^n: \|x\|=1\}=\partial U_1(0)$ ist beschränkt und abgeschlossen. $Q_A$ ist stetig auf $K$. 3.3 $\folgt\exists x_0\in K: Q_A(x_0)\le Q_A(x)\ \forall x\in K$. $c:=Q_A(x_0).\ A$ positiv definit, $x_0\ne 0\folgt Q_A(x_0)=c>0$. Sei $x\in\MdR^n\ \backslash\ \{0\};\ z:=\frac{1}{\|x\|}x\folgt z\in K\folgt Q_A(z)\ge c\folgt c \le Q_A\left(\frac{1}{\|x\|}x\right)\gleichnach{(2)}\frac{1}{\|x\|}^2Q_A(x)\folgt Q_A(x)\ge c\|x\|^2$
\end{beweise}
\begin{satz}[Störung von definiten Matrizen]
\begin{enumerate}
\item $A$ sei positiv definit \alt{negativ definit}. Dann existiert ein $\ep>0$ mit: Ist $B=(b_{jk})$ eine weitere symmetrische $(n\times n)$-Matrix und gilt: $(*)\ |a_{jk}-b_{jk}|\le\ep\ (j,k=1,\ldots, n)$, so ist B positiv definit \alt{negativ definit}.
\item $A$ sei indefinit. Dann existieren $u,v\in\MdR^n$ und $\ep>0$ mit: ist $B=(b_{jk})$ eine weitere symmetrische $(n\times n)$-Matrix und gilt: $(*)\ |a_{jk}-b_{jk}|\le\ep\ (j,k=1,\ldots,n)$, so ist $Q_B(u)>0, Q_B(v)<0$. Insbesondere: $B$ ist indefinit.
\end{enumerate}
\end{satz}
\begin{beweise}
\item $A$ sei positiv definit $\folgtnach{7.1}\exists c>0: Q_A(x)\ge c\|x\|^2\ \forall x\in\MdR^n$. $\ep:=\frac{c}{2n^2}$. Sei $B=(b_{jk})$ eine symmetrische Matrix mit $(*)$. Für $x=(x_1,\ldots,x_n)\in\MdR^n:\ Q_A(x)-Q_B(x)\le|Q_A(x)-Q_B(x)|=\left|\ds\sum_{j,k=1}^m(a_{jk}-b_{jk})x_jx_k\right|\le\ds\sum_{j,k=1}^n\underbrace{|a_{jk}-b_{jk}|}_{\le\ep}\underbrace{|x_j|}_{\le\|x\|}\underbrace{|x_k|}_{\le\|x\|}\le\ep\|x\|^2n^2=\frac{c}{2n^2}\|x\|^2n^2=\frac{c}{2}\|x\|^2$
\item $A$ sei indefinit. $\exists u,v\in\MdR^n:\ Q_A(u)>0, Q_A(v)<0$. $\alpha:=\min\left\{\frac{Q_A(u)}{\|u\|^2},\ -\frac{Q_A(v)}{\|v\|^2}\right\}\folgt\alpha>0$. $\ep:=\frac{\alpha}{2n^2}$. Sei $B=(b_{jk})$ eine symmetrische Matrix mit $(*)$.\\
$Q_A(u)-Q_B(u)\overset{\text{Wie bei (1)}}{\le}\ep u^2\|u\|^2=\frac{\alpha}{2n^2}n^2\|u\|^2=\frac{\alpha}{2}\|u\|^2\le\frac{1}{2}\frac{Q_A(u)}{\|u\|^2}\|u\|^2=\frac{1}{2}Q_A(u) \folgt Q_B(u)\ge\frac{1}{2}Q_A(u)>0$. Analog: $Q_B(v)<0$.
\end{beweise}
\chapter{Extremwerte}
\def\grad{\mathop{\rm grad}\nolimits}
\begin{vereinbarung}
In diesem Paragraphen sei $\emptyset\ne D \subseteq\MdR^n, f:D\to\MdR$ und $x_0\in D$
\end{vereinbarung}
\begin{definition*}
\indexlabel{lokal!Maximum}
\indexlabel{lokal!Minimum}
\indexlabel{lokal!Extremum}
\indexlabel{stationärer Punkt}
\begin{enumerate}
\item
$f$ hat in $x_0$ ein \textbf{lokales Maximum} $:\equizu \exists \delta>0:\ f(x)\le f(x_0)\ \forall x\in D \cap U_\delta(x_0)$.\\
$f$ hat in $x_0$ ein \textbf{lokales Minimum} $:\equizu \exists \delta>0:\ f(x)\ge f(x_0)\ \forall x\in D \cap U_\delta(x_0)$.\\
\textbf{lokales Extremum} = lokales Maximum oder lokales Minimum
\item Ist $D$ offen, $f$ in $x_0$ partiell differenzierbar und $\grad f(x_0)=0$, so heißt $x_0$ ein stationärer Punkt.
\end{enumerate}
\end{definition*}
\begin{satz}[Nullstelle des Gradienten]
Ist $D$ offen und hat $f$ in $x_0$ ein lokales Extremum und ist $f$ in $x_0$ partiell differenzierbar, dann ist $\grad f(x_0)=0$.
\end{satz}
\begin{beweis}
$f$ habe in $x_0$ ein lokales Maximum. Also $\exists \delta>0: U_\delta(x_0)\subseteq D$ und $f(x)\le f(x_0)\ \forall x\in U_\delta(x_0)$. Sei $j \in \{1,\ldots,n\}$. Dann: $x_0 + te_j \in U_\delta(x_0)$ für $t\in (-\delta, \delta)$. $g(t):=f(x_0 + te_j)\ (t\in (-\delta, \delta))$. $g$ ist differenzierbar in $t=0$ und $g'(0)=f_{x_j}(x_0)$. $g(t)=f(x_0+te_j)\le f(x_0)=g(0)\ \forall t\in(-\delta,\delta)$. Analysis 1, 21.5 $\folgt g'(0)=0\folgt f_{x_j}(x_0)=0$
\end{beweis}
\begin{satz}[Definitheit und Extremwerte]
Sei $D$ offen, $f\in C^2(D,\MdR)$ und $\grad f(x_0)=0$.
\begin{enumerate}
\item[(i)]
Ist $H_f(x_0)$ positiv definit $\folgt f$ hat in $x_0$ ein lokales Minimum.
\item[(ii)]
Ist $H_f(x_0)$ negativ definit $\folgt f$ hat in $x_0$ ein lokales Maximum.
\item[(iii)]
Ist $H_f(x_0)$ indefinit $\folgt f$ hat in $x_0$ \underline{kein} lokales Extremum.
\end{enumerate}
\end{satz}
\begin{beweis}
\begin{enumerate}
\item[(i),]
(ii) $A:=H_f(x_0)$ sei positiv definit oder negativ definit oder indefinit. Sei $\ep>0$ wie in 7.2. $f\in C^2(D,\MdR)\folgt \exists \delta>0: U_\delta(x_0)\subseteq D$ und $(*)\ |f_{x_jx_k}(x)-f_{x_jx_k}(x_0)|\le\ep\ \forall x\in U_\delta(x_0)\ (j,k=1,\ldots,n)$. Sei $x\in U_\delta(x_0) \ \backslash\ \{x_0\}, h:=x-x_0\folgt x=x_0+h, h\ne 0$ und $S[x_0,x_0+h] \subseteq U_\delta(x_0)$ 6.7$\folgt\exists \eta\in [0,1]:\ f(x)=f(x_0+h)=f(x_0) + \underbrace{h\cdot \grad f(x_0)}_{=0}+\frac{1}{2}Q_B(h)$, wobei $B=H_f(x_0 + \eta h)$. Also: $(**)\ f(x)=f(x_0)+\frac{1}{2}Q_B(h)$. $A$ sei positiv definit \alt{negativ definit} $\folgtnach{7.2} B$ ist positiv definit \alt{negativ definit}. $\folgtwegen{h\ne 0}Q_B(h)\stackrel{(<)}{>}0 \folgtwegen{(**)}f(x)\stackrel{(<)}{>}f(x_0)\folgt f$ hat in $x_0$ ein lokales Minimum \alt{Maximum}.
\item[(iii)]$A$ sei indefinit und es seien $u, v\in\MdR^n$ wie in 7.2. Wegen 7.1 OBdA: $\|u\|=\|v\|=1$. Dann: $x_0+tu, x_0+tv \in U_\delta(x_0)$ für $t\in(-\delta, \delta)$. Sei $t\in(-\delta, \delta), t\ne 0$. Mit $h:=t\stackrel{(v)}{u}$ folgt aus 7.2 und $(**):\ f(x_0+t\stackrel{(v)}{u})=f(x_0)+\frac{1}{2}Q_B(t\stackrel{(v)}{u})=f(x_0)+\frac{t^2}{2}\underbrace{Q_B(\stackrel{(v)}{u})}_{>0\text{/}<0\text{ (7.2)}}\stackrel{(>)}{<}f(x_0)\folgt f$ hat in $x_0$ kein lokales Extremum.
\end{enumerate}
\end{beweis}
\begin{beispiele}
\item $D=\MdR^2, f(x,y)=x^2+y^2-2xy-5$. $f_x=2x-2y, f_y=2y-2x;\ \grad f(x,y)=(0,0)\equizu x=y$. Stationäre Punkte: $(x,x)\ (x\in\MdR)$.\\
$$f_{xx}=2,\ f_{xy}=-2=f_{yx},\ f_{yy}=2\folgt H_f(x,x)=\begin{pmatrix}2&-2\\-2&2\end{pmatrix}$$
$\det H_f(x,x)=0\folgt H_f(x,x)$ ist weder pd, noch nd, noch id.\\
Es ist $f(x,y)=(x-y)^2-5\ge -5\ \forall\ (x,y)\in\MdR^2$ und $f(x,x)=-5\ \forall x\in\MdR$.
\item $D=\MdR^2, f(x,y)=x^3-12xy+8y^3$.\\
$f_x=3x^2-12y=3(x^2-4y),\ f_y=-12x+24y^2=12(-x+2y^2)$. $\grad f(x,y)=(0,0)\equizu x^2=4y, x=2y^2\folgt 4y^4=4y\folgt y=0$ oder $y=1\folgt (x,y)=(0,0)$ oder $(x,y)=(2,1)$\\
$$f_{xx}=6x,\ f_{xy}=-12=f_{yx},\ f_{yy}=48y.\ H_f(0,0)=\begin{pmatrix}0&-12&\\-12&0\end{pmatrix}$$
$\det H_f(0,0)=-144<0\folgt H_f(0,0)$ ist indefinit $\folgt f$ hat in $(0,0)$ kein lokales Extremum.
$$H_f(2,1)=\begin{pmatrix}12&-12\\-12&48\end{pmatrix}$$
$12>0, \det H_f(2,1)>0\folgt H_f(2,1)$ ist positiv definit $\folgt f$ hat in $(2,1)$ ein lokales Minimum.
\item $K:=\{(x,y)\in\MdR^2: x,y\ge 0, y\le -x+3\}, f(x,y)=3xy-x^2y-xy^2$. Bestimme $\max f(K), \min f(K)$. $f(x,y)=xy(3-x-y).\ K=\partial K \cup K^\circ$. $K$ ist beschränkt und abgeschlossen $\folgtnach{3.3}\exists\ (x_1,y_1), (x_2,y_2)\in K: \max f(K)=f(x_1, y_1), \min f(K)=f(x_2,y_2)$. $f\ge 0$ auf $K$, $f=0$ auf $\partial K$, also $\min f(K)=0$. $f$ ist nicht konstant $\folgt f(x_2,y_2)>0\folgt (x_2,y_2)\in K^\circ\folgtnach{8.1}\grad f(x_1,x_2)=0$. Nachrechnen: $(x_2,y_2)=(1,1); f(1,1)=1=\max f(K)$.
\end{beispiele}
\chapter{Der Umkehrsatz}
\def\grad{\mathop{\rm grad}\nolimits}
\begin{erinnerung}
Sei $x_0\in\MdR^n$ und $U\subseteq\MdR^n$. $U$ ist eine Umgebung von $x_0\equizu\exists\delta>0:U_\delta(x_0)\subseteq U$
\end{erinnerung}
\begin{wichtigerhilfssatz}[Offenheit des Bildes]
Sei $\delta>0, f:U_\delta(0)\subseteq\MdR^n\to\MdR^n$ stetig, $f(0)=0$ und $V$ sei eine offene Umgebung von $f(0)\ (=0)$. $U:=\{x\in U_\delta(0):f(x)\in V\}$. Dann ist $U$ eine offene Umgebung von $0$.
\end{wichtigerhilfssatz}
\begin{beweis}
Übung
\end{beweis}
\begin{erinnerung}
\begriff{Cramersche Regel}: Sei $A$ eine reelle $(n\times n)$-Matrix, $\det A\ne 0$, und $b\in\MdR^n$. Das lineare Gleichungssystem $Ax=b$ hat genau eine Lösung: $x=(x_1,\ldots,x_n)=A^{-1}b$. Ersetze in $A$ die $j$-te Spalte durch $b^\top$. Es entsteht eine Matrix $A_j$. Dann: $x_j=\frac{\det A_j}{\det A}$.
\end{erinnerung}
\begin{satz}[Stetigkeit der Umkehrfunktion]
Sei $\emptyset\ne D\subseteq \MdR^n, D$ offen, $f\in C^1(D,\MdR^n)$. $f$ sei auf $D$ injektiv und es sei $f(D)$ offen. Weiter sei $\det f'(x)\ne 0\ \forall x\in D$ und $f^{-1}$ sei auf $f(D)$ differenzierbar. Dann: $f^{-1}\in C^1(f(D),\MdR^n)$.
\end{satz}
\begin{beweis}
Sei $f^{-1}=g=(g_1,\ldots,g_n), g=g(y)$. Zu zeigen: $\frac{\partial g_j}{\partial y_k}$ sind stetig auf $f(D)$. 5.6\folgt $g'(y)\cdot f'(x)=I$ $(n\times n\text{-Einheitsmatrix})$, wobei $y=f(x)\in f(D)\folgt$
$$
\begin{pmatrix}
g_1'(y)\\
\vdots\\
g_n'(y)
\end{pmatrix}\cdot f'(x)=
\begin{pmatrix}
1 & & 0 \\
& \ddots &\\
0 & & 1
\end{pmatrix}$$
$\folgt \grad g_j(y)\cdot f'(x)=e_j\folgt f'(x)^\top\cdot \grad g_j(y)^\top=e_j^\top$. Ersetze in $f'(x)^\top$ die $k$-te Spalte durch $e_j^\top$. Es entsteht die Matrix $A_k(x)=A_k(f^{-1}(y))$. Cramersche Regel $\folgt \frac{\partial g_j}{\partial y_k}(y)=\frac{\det A_k(f^{-1}(y))}{\det f'(x)}=\frac{\det A_k(f^{-1}(y))}{\det f'(f^{-1}(y))}$. $f\in C^1(D,\MdR), f^{-1}$ stetig $\folgt$ obige Definitionen hängen stetig von y ab $\folgt \frac{\partial g_j}{\partial y_k}\in C(f(D),\MdR)$.
\end{beweis}
\begin{satz}[Der Umkehrsatz]
Sei $\emptyset \ne D \subseteq \MdR ^n$, $D$ sei offen,
$f\in C^1(D, \MdR^n)$, $x_0\in D$ und $\det f'(x_0) \ne 0$.\\
Dann existiert eine offene Umgebung $U$ von $x_0$ und eine offene
Umgebung $V$ von $f(x_0)$ mit:
\begin{enumerate}[(a)]
\item $f$ ist auf $U$ injektiv, $f(U)=V$ und
$\det f'(x) \ne 0 \ \forall x\in U$
\item Für $f^{-1}: V\to U$ gilt: $f^{-1}$ ist stetig
differenzierbar auf $V$ und
\[ (f^{-1})'(f(x)) = (f'(x))^{-1}\ \forall x\in U \]
\end{enumerate}
\end{satz}
\begin{folgerung}[Satz von der offenen Abbildung]
$D$ und $f$ seien wie in 9.3 und es gelte: $\det f'(x) \ne 0 \ \forall x\in D$. Dann ist $f(D)$ offen.
\end{folgerung}
\begin{beweis}
O.B.d.A: $x_0 = 0$, $f(x_0) = f(0) = 0$ und $f'(0) = I$ (=$(n\times n)$-Einheitsmatrix)
Die Abbildungen $x \mapsto \det f'(x)$ und $x\mapsto \|f'(x) - I\|$ sind auf D stetig, $\det f'(0) \ne 0$, $\| f'(0)- I \| = 0$. Dann existiert ein $\delta > 0$: $K := U_\delta(0) \subseteq D$, $\overline{K} = \overline{U_\delta(0)} \subseteq D$ und
\begin{enumerate}
\item $\det f'(x) \ne 0 \ \forall x\in\overline{K}$ und
\item $\|f'(x) - I \| \le \frac{1}{2n} \ \forall x\in\overline{K}$
\item \textbf{Behauptung:} $\frac{1}{2} \|u-v\| \le \|f(u) - f(v)\| \ \forall u,v\in\overline{K}$, insbesondere ist $f$ injektiv auf $\overline{K}$
\item $f^{-1}$ ist stetig auf $f(\overline{K})$: Seien $\xi, \eta \in f(\overline{K})$, $u:=f^{-1}(\xi)$, $v:= f^{-1}(\eta) \folgt u,v \in \overline{K}$ und $\|f^{-1}(\xi) - f^{-1}(\eta)\| = \|u-v\| \stackrel{\text{(3)}}{\le} 2\|f(u) - f(v)\| = 2\|\xi - \eta\|$
\end{enumerate}
Beweis zu (3): $h(x) := f(x) - x \ (x\in D) \folgt h\in C^1(D,\MdR^n)$ und $h'(x) = f'(x) - I $. Sei $h=(h1,\ldots,h_n)$. Also: $h' = \begin{pmatrix} h_1' \\ \vdots \\ h_n' \end{pmatrix}$. Seien $u,v\in \overline{K}$ und $j\in \{1,\ldots,n\}$.
$|h_j(u) - h_j(v)| \gleichnach{6.1} |h_j'(\xi) \cdot (u-v)| \stackrel{\text{CSU}}{\le} \|h_j'(\xi)\| \|u-v\| \le \|h'(\xi)\| \|u-v\|$, $\xi \in S[u,v] \in \overline{K}$. (2) $\folgt \le \frac{1}{2n}\|u-v\|$ \\
$\folgt \|h(u) - h(v)\| = \left(\sum_{j=1}^{n}(h_j(n) - h_j(v))^2\right)^{\frac{1}{2}} \le \left( \sum_{j=1}^n \frac{1}{4n^2}\|u-v\|^2\right)^{\frac{1}{2}} = \frac{1}{2n}\|u-v\|\sqrt{n} \le \frac{1}{2}\|u-v\| \folgt \|u-v\| - \|f(u)-f(v)\| \le \|f(u) - f(v) - (u-v)\| = \|h(u) - h(v)\| \le \frac{1}{2}\|u-v\| \folgt$ (3)
$V:=U_{\frac{\delta}{4}}(0)$ ist eine offene Umgebung von $f(0) \ (=0)$. $U:=\{x\in K: f(x) \in V\}$ Klar: $U\subseteq K \subseteq \overline{K}$, $0\in U$, 9.1 $\folgt$ $U$ ist eine offene Umgebung von 0. (3) $\folgt$ $f$ ist auf $U$ injektiv. (1) $\folgt \det f'(x) \ne 0 \ \forall x\in U$. (4) $\folgt$ $f^{-1}$ ist stetig auf $f(U)$. Klar: $f(U) \subseteq V$. Für (a) ist noch zu zeigen: $V\subseteq f(U)$.
Sei $y\in V$. $w(x) := \| f(x) - y\|^2 = (f(x) - y)\cdot(f(x)-y) \folgt w\in C^1(D,\MdR)$ und (nachzurechnen) $w'(x) = 2(f(x)-y)\cdot f'(x)$. $\overline K$ ist beschränkt und abgeschlossen $\folgtnach{3.3} \exists x_1 \in \overline K: \text{ (5) } w(x_1) \le w(x) \ \forall x\in\overline K$.
\textbf{Behauptung:} $x_1 \in K$. \\
Annahme: $x_1\ne K \folgt x_1 \in \partial K \folgt \| x_1 \| = \delta$. $2\sqrt {w(0)} = 2\|f(0) - y\| = 2\|y\|\le 2 \frac{\delta} 4 = \frac \delta 2 = \frac{\|x_1\|} 2 = \frac 1 2 \|x_1 - 0 \| \stackrel{\text{(3)}}{\le} \|f(x_1) - f(0)\| = \|f(x_1) - y + y - f(0)\| \le \|f(x_1)-y\| -\|f(0) - y\| = \sqrt{w(x_1)} + \sqrt{w(0)} \folgt \sqrt{w(0)} < \sqrt{w(x_1)} \folgt w(0) < w(x_1) \overset{\text{(5)}}{\le} w(0)$, Widerspruch. Also: $x_1\in K$
(5) $\folgt w(x_1) \le w(x) \ \forall x\in K$. 8.1 $\folgt w'(x_1) = 0 \folgt \left( f(x_1) - y \right) \cdot f'(x_1) = 0$; (1) $\folgt f'(x_1)$ ist invertierbar $\folgt y = f(x_1) \folgt x_1 \in U \folgt y=f(x_1) \in f(U)$. Also: $f(U) = V$. Damit ist (a) gezeigt.
% Laut Schmöger 5.6, bei uns 5.5. Wessen Zählung ist falsch? Wer Lust hat, mal überprüfen
(b): Wegen 5.5 und 9.2 ist nur zu zeigen: $f^{-1}$ ist differenzierbar auf $V$. Sei $y_1 \in V$, $y \in V\backslash\{y_1\}$, $x_1 := f^{-1}(y_1)$, $x := f^{-1}(y)$; $L(y) := \frac{f^{-1}(y) - f^{-1}(y_1) - f'(x_0)^{-1}(y-y_1)}{\|y-y_1\|}$. zu zeigen: $L(y) \to 0 \ (y-y_1)$. $\varrho(x) := f(x)-f(x_1)-f'(x_1)(x-x_1)$. $f$ ist differenzierbar in $x_1$ $\folgt \frac{\varrho(x)}{\|x-x_1\|} \to 0 \ (x\to x_1)$.
$$f'(x_1)^{-1}\varrho(x) = f'(x_1)^{-1}(y-y_1) - (f^{-1}(y) - f^{-1}(y_1)) = -\|y-y_1\| L(y)$$
$$\folgt L(y) = -f'(x_1)^{-1} \frac{\varrho(x)}{\|y-y_1\|} = - f'(x_1)^{-1} \underbrace{\frac{\varrho(x)}{\|x-x_1\|}}_{\to 0\ (x\to x_1)} \cdot \underbrace{\frac{\|x-x_1\|}{\|f(x)-f(x_1)}}_{\le 2, \text{ nach (3)}}$$
Für $y\to y_1$, gilt (wegen (4)) $x\to x_1 \folgt L(y) \to 0$.
\end{beweis}
\begin{beispiel}
$$f(x,y) = (x \cos y, x \sin y)$$
$$f'(x,y) = \begin{pmatrix} \cos y & -x \sin y \\ \sin y & x \cos y \end{pmatrix}, \det f'(x,y) = x \cos^2 y + x \sin^2 y = x$$
$D:=\{(x,y) \in \MdR^2: x\ne 0\}$. Sei $(\xi, \eta)\in D$ 9.3 $\folgt \exists$ Umgebung $U$ von $(\xi, \eta)$ mit: $f$ ist auf $U$ injektiv $(*)$. z.B. $(\xi, \eta) = (1, \frac{\pi}{2}) \folgt f(1,\frac{\pi}2) = (0,1)$. $f'(1,\frac{\pi}2) = \begin{pmatrix}0 & -1 \\ 1 & 0 \end{pmatrix}$, $(f^{-1})(0,1) = f'(1,\frac{\pi}{2})^{-1} = \begin{pmatrix}0 & 1 \\ -1 & 0\end{pmatrix}$.
\end{beispiel}
\paragraph{Beachte:} $f$ ist auf $D$ "`lokal"' injektiv (im Sinne von $(*)$), aber $f$ ist auf $D$ \emph{nicht} injektiv, da $f(x,y) = f(x,y+2 k\pi) \ \forall x,y\in\MdR \ \forall k\in\MdZ$.
\chapter{Implizit definierte Funktionen}
\def\grad{\mathop{\rm grad}\nolimits}
\def\MdU{\ensuremath{\mathbb{U}}}
\begin{beispiele}
\item $f(x,y)=x^2+y^2-1$. $f(x,y)=0\equizu y^2=1-x^2\equizu y=\pm\sqrt{1-x^2}$. \\
Sei $(x_0, y_0)\in\MdR^2$ mit $f(x_0, y_0)=0$ und $y_0\overset{(<)}{>}0$. Dann existiert eine Umgebung $U$ von $x_0$ und genau eine Funktion $g:U\to\MdR$ mit $g(x_0)=y_0$ und $f(x,g(x))=0\ \forall x \in U$, nämlich $g(x)=\overset{(-\sqrt{\cdots})}{\sqrt{1-x^2}}$
\textbf{Sprechweisen}: "`$g$ ist implizit durch die Gleichung $f(x,y)=0$ definiert"' oder "`die Gleichung $f(x,y)=0$ kann in der Form $y=g(x)$ aufgelöst werden"'
\item $f(x,y,z)=y+z+\log(x+z)$. Wir werden sehen: $\exists$ Umgebung $U\subseteq \MdR^2$ von $(0,1)$ und genau eine Funktion $g:U\to\MdR$ mit $g(0,-1)=1$ und $f(x,y,g(x,y))=0\ \forall\ (x,y)\in U$.
\end{beispiele}
\textbf{Der allgemeine Fall}:
Es seien $p,n\in\MdN,\ \emptyset\ne D\subseteq\MdR^{n+p},\ D$ offen, $f=(f_1,\ldots, f_p) \in C^1(D,\MdR^p)$. Punkte in $D$ (bzw. $\MdR^{n+p}$) bezeichnen wir mit $(x,y)$, wobei $x=(x_1,\ldots, x_n)\in\MdR^n$ und $y=(y_1,\ldots, y_p)\in\MdR^p$, also $(x,y)=(x_1,\dots,x_n,y_1,\ldots,y_p)$. Damit:
$$ f'=
\underbrace{
\left(
\begin{array}{ccc|}
\frac{\partial f_1}{\partial x_1} & \cdots & \frac{\partial f_1}{\partial x_n} \\
\vdots & & \vdots \\
\frac{\partial f_p}{\partial x_1} & \cdots & \frac{\partial f_p}{\partial x_n} \\
\end{array}
\right.
}_{=:\frac{\partial f}{\partial x}\ (p \times n)\text{-Matrix}}
\underbrace{
\left.
\begin{array}{ccc}
\frac{\partial f_1}{\partial y_1} & \cdots & \frac{\partial f_1}{\partial y_p} \\
\vdots & & \vdots \\
\frac{\partial f_p}{\partial y_1} & \cdots & \frac{\partial f_p}{\partial y_p} \\
\end{array}
\right)
}_{=:\frac{\partial f}{\partial y}\ (p\times p)\text{-Matrix}}
\text{; also } f'(x,y)=\left(\frac{\partial f}{\partial x}(x,y),\ \frac{\partial f}{\partial y}(x,y)\right)$$
\begin{satz}[Satz über implizit definierte Funktionen]
Sei $f:D \rightarrow \MdR^p,\ f \in C^1(D, \MdR^p),\ (x_0, y_0) \in D,\ f(x_0, y_0)=0$ und
$\det\frac{\partial f}{\partial y}(x_0, y_0)\ne 0$. \\
Dann existiert eine offene Umgebung $U\subseteq \MdR^n$ von $x_0$ und
genau eine Funktion $g:U\to D \subseteq \MdR^p$ mit:
\begin{enumerate}
\item $(x, g(x))\in D\ \forall x\in U$
\item $g(x_0)=y_0$
\item $f(x,g(x))=0\ \forall x\in U$, mit $V = g(U)$ gilt:
$V$ ist offen und für $(a, b) \in U \times V$ mit
$f(a,b) = 0$ gilt: $b = g(a)$
\item $g \in C^1(U,\MdR^p)$
\item $\det\frac{\partial f}{\partial y}(x, g(x))\ne0\ \forall x\in U$
\item $g'(x)=-\left(\frac{\partial f}{\partial y}(x, g(x))\right)^{-1} \cdot \frac{\partial f}{\partial x}(x, g(x))\ \forall x\in U$
\end{enumerate}
\end{satz}
\begin{beweis}
Definition: $F:D\to\MdR^{n+p}$ durch $F(x,y):=(x,f(x,y))$. Dann: $F\in C^1(D,\MdR^{n+p})$ und
$$
F'(x,y)=\left(\begin{array}{c|c}
\begin{array}{ccc}
1 & & 0 \\
& \ddots & \\
0 & & 1 \\
\end{array} &
\begin{array}{ccc}
0 & \cdots & 0 \\
\vdots & & \vdots \\
0 & \cdots & 0 \\
\end{array} \\
\hline\\
\ds\frac{\partial f}{\partial x}(x,y)&
\ds\frac{\partial f}{\partial y}(x,y)
\end{array}
\right)$$
Dann: \begin{enumerate}
\item[(I)] $\det F'(x,y)\gleichnach{LA}\det\frac{\partial f}{\partial y}(x,y)\ ((x, y) \in D)$, insbesondere: $\det F'(x_0, y_0)\ne 0$. Es ist $F(x_0, y_0)=(x_0, 0)$. 9.3$\folgt\exists$ eine offene Umgebung $\MdU$ von $(x_0, y_0)$ mit: $\MdU\subseteq D, f(\MdU)=\vartheta$. $F$ ist auf $\MdU$ injektiv, $F^{-1}:\vartheta\to\MdU$ ist stetig differenzierbar und
\item[(II)] $\det F'(x,y)\gleichnach{(I)}\det\frac{\partial f}{\partial y}(x,y)\ne 0\ \forall\ (x,y)\in\MdU$
\end{enumerate}
\textbf{Bezeichnungen}: Sei $(s,t)\in\vartheta\ (s\in\MdR^n, t\in\MdR^p)$, $F^{-1}(s,t)=:(u(s,t),v(s,t))$, also $u:\vartheta\to\MdR^n$ stetig differenzierbar, $v:\vartheta\to\MdR^p$ stetig differenzierbar. Dann: $(s,t)=F(F^{-1}(s,t))=(u(s,t),f(u(s,t),v(s,t)))\folgt u(s,t)=s\folgt F^{-1}(s,t)=(s,v(s,t))$. Für $(x,y)\in\MdU: f(x,y)=0\equizu F(x,y)=(x,0)\equizu(x,y)=F^{-1}(x,0)=(x,v(x,0))\equizu y=v(x,0)$, insbesondere: $y_0=v(x_0,0)$. $U:=\{x\in\MdR^n: (x,0)\in\vartheta\}$. Es gilt: $x_0\in U$. Übung: $U$ ist eine offene Umgebung von $x_0$.
\textbf{Definition}: $g:U\to\MdR^p$ durch $g(x):=v(x,0)$, für $x\in U$ gilt: $(x,0)\in\vartheta\folgt F^{-1}(x,0)=(x,v(x,0))=(x,g(x))\in \MdU$. Dann gelten: (1), (2), (3) und (4). (5) folgt aus (II).
Zu (6): Definition für $x\in U: \psi(x):=(x,g(x)), \psi\in C^1(U,\MdR^{n+p}),$
$$\psi'(x)=\left(\begin{array}{c}
\begin{array}{ccc}
1 & & 0 \\
& \ddots & \\
0 & & 1 \\
\end{array}\\
\hline \\
\ds{g'(x)}
\end{array}\right)$$
(3)$\folgt 0=f(\psi(x))\ \forall x\in U$. 5.4$\folgt 0=f'(\psi(x))\cdot\psi'(x)=\left(\frac{\partial f}{\partial x}(x, g(x))\ \vline \frac{\partial f}{\partial y}(x, g(x))\right)\cdot\psi'(x)\gleichnach{LA}\frac{\partial f}{\partial x}(x, g(x)) + \frac{\partial f}{\partial y}(x, g(x))\cdot g'(x)\ \forall x\in U$. (5) $\folgt \frac{\partial f}{\partial y}(x, g(x))$ invertierbar, Multiplikation von links mit $\frac{\partial f}{\partial y}(x, g(x))^{-1}$ liefert (6).
\end{beweis}
\begin{beispiel}
$f(x,y,z)=y+z+\log(x+z)$. Zeige: $\exists$ offene Umgebung $U$ von $(0,1)$ und genau eine stetig differenzierbare Funktion $g:U\to\MdR$ mit $g(0,-1)=1$ und $f(x,y,g(x,y))=0\ \forall (x,y)\in U$. Berechne $g'$ an der Stelle $(0,-1)$.\\
$f(0,-1,1)=0$, $f_z=1+\frac{1}{x+z}$; $f_z(0,-1,1)=2\ne 0$. Die Behauptung folgt aus dem Satz über impliziert definierte Funktionen. Also: $0=y+g(x,y)+\log(x+g(x,y))\ \forall (x,y)\in U$.\\
Differentiation nach $x$: $0=g_x(x,y)+\frac{1}{x+g(x,y)}(1+g_x(x,y))\ \forall (x,y)\in U\overset{(x,y)=(0,-1)}{\folgt}0=g_x(0,-1)+\frac{1}{1}(g_x(0,-1)+1)\folgt g_x(0,-1)=-\frac{1}{2}$.\\
Differentiation nach $y$: $0=1+g_y(x,y)+\frac{1}{x+g(x,y)}g_y(x,y)\ \forall (x,y)\in U \folgtnach{(x,y)=(0,-1)}g_y(0,-1)=-\frac{1}{2}$. Also: $g'(0,-1)=(-\frac{1}{2},-\frac{1}{2})$.
\end{beispiel}
\chapter{Extremwerte unter Nebenbedingungen}
\begin{definition}
\indexlabel{Einschränkung einer Funktion}
Seien $M,N$ Mengen $\ne \emptyset,\ f:M\to N$ eine Funktion und
$\emptyset \ne T \subseteq M$. Die Funktion
$f_{|_T}: T \to N,\ f_{|_T}(x) := f(x)\ \forall x \in T$ heißt die
\textbf{Einschränkung} von $f$ auf $T$.
\end{definition}
In diesem Paragraphen gelte stets: $\emptyset \ne D \subseteq \MdR^n,\ D$ offen, $f \in C^1(D,\MdR),\ p \in \MdN,\ p<n$ und $\varphi = (\varphi_1,\ldots,\varphi_p) \in C^1(D,\MdR^p)$. Es sei $T:=\{x\in D: \varphi(x) = 0\} \ne \emptyset.$
\begin{definition}
\indexlabel{lokal!Extremum unter einer Nebenbedingung}
$f$ hat in $x_0\in D$ ein \textbf{lokales Extremum unter der Nebenbedingung
$\varphi = 0$} $:\equizu x_0 \in T$ und $f_{|_T}$ hat in $x_0$ ein lokales Extremum.
\end{definition}
Wir führen folgende Hilfsfunktion ein: Für $x=(x_1,\ldots,x_n) \in D$ und
$\lambda = (\lambda_1,\ldots,\lambda_p) \in \MdR^p$ gilt:
\[ H(x,\lambda) := f(x) + \lambda\cdot\varphi(x) = f(x) + \lambda_1\varphi_1(x) + \cdots + \lambda_p\varphi_p(x)\]
Es ist
\[ H_{x_j} = f_{x_j} + \lambda_1\frac{\partial\varphi_1}{\partial x_j} + \cdots +\lambda_p\frac{\partial\varphi_p}{\partial x_j}\ (j=1,\ldots,n),\ H_{\lambda_j} = \varphi_j ~~~ (j = 1, \dots, p)\]
Für $x_0 \in D$ und $\lambda_0 \in \MdR^p$ gilt:
$H'(x_0,\lambda_0) = 0 \equizu f'(x_0) + \lambda_0\varphi'(x_0) = 0$. Außerdem gilt:\\
$\varphi(x_0) = 0 \equizu f'(x_0) + \lambda_0\varphi'(x_0) = 0$ und $x_0 \in T$ (I)
\begin{satz}[Multiplikationenregel von Lagrange]
\indexlabel{Multiplikator}
$f$ habe in $x_0\in D$ eine lokales Extremum unter der Nebenbedingung
$\varphi=0$ und es sei Rang $\varphi'(x_0) = p$. Dann existiert ein
$\lambda_0 \in \MdR^p$ mit: $H'(x_0,\lambda_0) = 0$ ($\lambda_0$ heißt \textbf{Multiplikator}).
\end{satz}
\begin{beispiel}
\begin{align*}
f(x, y) &:= x^2 + y^2\\
\varphi(x, y) &:= x + y -1\\
\end{align*}
(Also $n=2, p=1$), $\varphi(x,y)' = (1,1)$, $\text{Rang } \varphi(x,y)' = 1$\\
$H(\uwave{x,y}, \lambda) = x^2 + y^2 + \lambda (x+y-1)$\\
\begin{align*}
H_x &= 2x + \lambda \stackrel{!}{=} 0\\
H_y &= 2y + \lambda \stackrel{!}{=} 0\\
H_\lambda &= x+y-1 \stackrel{!}{=} 0\\
\end{align*}
$\Rightarrow x=y \Rightarrow 2x-1 = 0 \Rightarrow x = y = \frac{1}{2}$.\\
Extremwertverdächtig: $(\frac{1}{2}, \frac{1}{2})$
\end{beispiel}
\begin{folgerung}
$T$ sei kompakt \folgtwegen{3.3} $\exists a,b \in T: f(a) = \max f(T),\ f(b) = \min f(T).$
Ist Rang $\varphi'(\underset{b}{a}) = p \folgt \exists \lambda_0 \in \MdR^p: H'(\underset{b}{a},\lambda_0) = 0$.
\end{folgerung}
\begin{beweis}
Es ist $x_0 \in T$ und
$$\varphi'(x_0) =
\underbrace{
\left(
\begin{array}{ccc|}
\frac{\partial \varphi_1}{\partial x_1}(x_0) & \cdots & \frac{\partial \varphi_1}{\partial x_p}(x_0)\\
\vdots & & \vdots\\
\frac{\partial \varphi_p}{\partial x_1}(x_0) & \cdots & \frac{\partial \varphi_p}{\partial x_p}(x_0)\\
\end{array}
\right.
}_{=:A}
\left.
\begin{array}{cc}
\cdots & \frac{\partial \varphi_1}{\partial x_n}(x_0)\\
& \vdots\\
\cdots & \frac{\partial \varphi_p}{\partial x_n}(x_0)\\
\end{array}
\right)$$
Rang $\varphi'(x_0) = p \folgt$ o.B.d.A.: $\det A \ne 0.$
Für $x=(x_1,\ldots,x_n) \in D$ schreiben wir $x=(y,z)$, wobei $y=(x_1,\dots,x_p),\ z=(x_{p+1},\ldots,x_n).$ Insbesondere ist $x_0=(y_0,z_0)$. Damit gilt: $\varphi(y_0,z_0) = 0$ und $\det \frac{\partial \varphi}{\partial y}(y_0,z_0) \ne 0$.
Aus 10.1 folgt: $\exists$ offene Umgebung $U \subseteq \MdR^{n-p}$ von $z_0,\ \exists$ offene Umgebung $V \subseteq \MdR^p$ von $y_0$ und es existiert $g \in C^1(U,\MdR^p)$ mit:
\begin{itemize}
\item[(II)] $g(z_0)=y_0$
\item[(III)] $\varphi(g(z),z) = 0\ \forall z \in U$
\item[(IV)] $g'(z_0) = -(\frac{\partial \varphi}{\partial y}\underbrace{(g(z_0),z_0)}_{=x_0})^{-1}\frac{\partial \varphi}{\partial z}\underbrace{(g(z_0),z_0)}_{=x_0}$
\end{itemize}
(III) $\folgt (g(z),z) \in T\ \forall z \in U$. Wir definieren $h(z)$ durch
$$h(z) := f(g(z),z)\ (z \in U)$$
Dann hat $h$ in $z_0$ ein lokales Extremum (\emph{ohne} Nebenbedingung). Damit gilt nach 8.1:
$$0=h'(z_0) \gleichnach{5.4} f'(g(z_0),z_0)\cdot\left(
\begin{array}{c}
g'(z_0)\\
I
\end{array}\right) = \left(
\begin{array}{c|c}
\frac{\partial f}{\partial y}(x_0) & \frac{\partial f}{\partial z}(x_0)
\end{array}\right) \cdot \left(
\begin{array}{c}
g'(z_0)\\
I
\end{array}\right) = \frac{\partial f}{\partial y}(x_0) g'(z_0) + \frac{\partial f}{\partial z}(x_0)$$
$$\gleichnach{(IV)} \underbrace{\frac{\partial f}{\partial y}(x_0) \left(-\frac{\partial \varphi}{\partial y}(x_0)\right)^{-1}}_{=: \lambda_0 \in \MdR^p} \frac{\partial \varphi}{\partial z}(x_0) + \frac{\partial f}{\partial z}(x_0) \folgt \frac{\partial f}{\partial z}(x_0) + \lambda_0 \frac{\partial \varphi}{\partial z}(x_0) = 0\text{ (V)}$$
$\ds{\lambda_0 = \frac{\partial f}{\partial y}(x_0) \left(-\frac{\partial \varphi}{\partial y}(x_0)\right)^{-1} \folgt \frac{\partial f}{\partial y}(x_0) + \lambda_0 \frac{\partial \varphi}{\partial y}(x_0) = 0}$ (VI)
Aus (V),(VI) folgt: $f'(x_0) + \lambda_0\varphi'(x_0) = 0 \folgtnach{(I)} H'(x_0,\lambda_0) = 0.$
\end{beweis}
\begin{beispiel}
$(n=3,p=2)\ f(x,y,z) = x+y+z,\ T:=\{(x,y,z) \in \MdR^3: x^2+y^2=2,\ x+z=1\},\ \varphi(x,y,z) = (x^2+y^2-2,x+z-1).$
Bestimme $\max f(T),\ \min f(T)$. Übung: $T$ ist beschränkt und abgeschlossen $\folgtnach{3.3} \exists a,b \in T: f(a) = \max f(T),\ f(b) = \min f(T)$.
$$\varphi'(x,y,z) = \left(\begin{array}{ccc}
2x & 2y & 0\\
1 & 0 & 1
\end{array}\right)$$
Rang $\varphi'(x,y,z) = 1 < p=2 \equizu x=y=0.\ a,b\in T \folgt$ Rang $\varphi'(a) =$ Rang $\varphi'(b) = 2$
\def\shouldbe{\overset{!}{=}}
$H(x,y,z,\lambda_1,\lambda_2) = x+y+z+\lambda_1(x^2+y^2-2) + \lambda_2(x+z-1)$\\
\begin{tabbing}
$H_x=1+2\lambda_1x+\lambda_2$ \= $\shouldbe 0$ (1)\\
$H_y=1+2\lambda_1y $ \> $\shouldbe 0$ (2)\\
$H_z=1+\lambda_2 $ \> $\shouldbe 0$ (3)\\
$H_{\lambda_1}=x^2+y^2-2 $ \> $\shouldbe 0$ (4)\\
$H_{\lambda_2}=x+z-1 $ \> $\shouldbe 0$ (5)
\end{tabbing}
(3) $\folgt \lambda_2=-1 \folgtnach{(1)} 2\lambda_1x=0$; (2) $\folgt \lambda_1\ne0 \folgt x=0 \folgtnach{(5)} z=1$; (4) $\folgt y = \pm \sqrt{2}$
11.2 $\folgt a,b \in \{(0,\sqrt{2},1),(0,-\sqrt{2},1)\}$
$f(0,\sqrt{2},1) = 1+\sqrt{2} = \max f(T);\ f(0,-\sqrt{2},1) = 1-\sqrt{2} = \min f(T)$
\end{beispiel}
\paragraph{Anwendung}
Sei $A$ eine reelle, \emph{symmetrische} $(n\times n)$-Matrix. Beh: $A$ besitzt einen reellen EW.
\begin{beweis}
$f(x) := x\cdot(Ax) = Q_A(x)\ (x \in \MdR^n),\ T:= \{x \in \MdR^n: \|x\|=1\} = \partial U_1(0)$ ist beschränkt und abgeschlossen.
$\varphi(x) := \|x\|^2-1 = x\cdot x-1;\ \varphi'(x) = 2x,\ f'(x) = 2Ax$.
3.3 $\folgt \exists x_0 \in T: f(x_0) = \max f(T);\ \varphi'(x) = 2(x_1,\ldots,x_n);\ x_0 \in T \folgt$ Rang $\varphi'(x_0) = 1\ (=p)$
11.2 $\folgt \exists \lambda_0 \in \MdR: H'(x_0,\lambda_0) = 0;\ h(x,\lambda) = f(x)+\lambda\varphi(x);\ H'(x,\lambda) = 2Ax+2\lambda x$
$\folgt 0 = 2(Ax_0+\lambda_0 x_0) \folgt Ax_0 = (-\lambda_0) x_0,\ x_0 \ne 0 \folgt -\lambda_0$ ist ein EW von $A$.
\end{beweis}
\chapter{Wege im $\MdR^n$}
\indexlabel{Weg-}
\indexlabel{Bogen}
\indexlabel{Anfangspunkt}
\indexlabel{Endpunkt}
\indexlabel{Weg-!inverser}
\indexlabel{Inverser Weg}
\indexlabel{Parameter-!Intervall}
\begin{definition}
\begin{enumerate}
\item Sei $[a,b]\subseteq \MdR$ und $\gamma: [a,b] \to \MdR^n$ sei stetig. Dann heißt $\gamma$ ein \textbf{Weg} im $\MdR^n$
\item Sei $\gamma :[a,b] \to \MdR^n$ ein Weg. $\Gamma_\gamma := \gamma([a,b])$ heißt der zu $\gamma$ gehörende \textbf{Bogen}, $\Gamma_\gamma \subseteq \MdR^n$. 3.3 \folgt{} $\Gamma_\gamma$ ist beschränkt und abgeschlossen.
$\gamma(a)$ heißt der \textbf{Anfangspunkt} von $\gamma$, $\gamma(b)$ heißt der \textbf{Endpunkt} von $\gamma$. $[a,b]$ heißt \textbf{Parameterintervall} von $\gamma$. \\
$\gamma$ heißt \textbf{geschlossen} $:\equizu \gamma(a) = \gamma(b)$.
\item $\gamma^-:[a,b]\to \MdR^n$, definiert durch $\gamma^-(t):=\gamma(b+a-t)$ heißt der zu $\gamma$ \textbf{inverse Weg}. Beachte: $\gamma^- \ne \gamma$, aber $\Gamma_\gamma = \Gamma_{\gamma^-}$.
\end{enumerate}
\end{definition}
\begin{beispiele}
\item Sei $x_0, y_0\in\MdR^n$, $\gamma(t) := x_0 + t(y_0-x_0)$, $t\in[0,1]$. $\Gamma_\gamma=S[x_0,y_0]$
\item Sei $r>0$ und $\gamma(t) := (r \cos t, r \sin t)$, $t\in[0,2\pi]$\\ $\Gamma_\gamma=\{(x,y)\in\MdR^2: x^2+y^2=r^2\} = \partial U_r(0)$ \\
$\tilde\gamma(t) := (r \cos t, r \sin t)$, $t\in[0,4\pi]$. $\tilde\gamma \ne \gamma$, aber $\Gamma_{\tilde\gamma} = \Gamma_\gamma$.
\item Sei $f:[a,b] \to \MdR$ stetig und $\gamma(t) := (t, f(t)) \quad (t \in [a,b])$. Dann: $\Gamma_\gamma = $ Graph von $f$.
\end{beispiele}
\begin{erinnerung}
$\Z$ ist die Menge aller Zerlegungen von $[a,b]$
\end{erinnerung}
\begin{definition}
Sei $\gamma:[a,b]\to \MdR^n$ ein Weg. Sei $Z=\{t_0, \ldots, t_m\} \in \Z$.\\
$$L(\gamma,Z):= \sum_{j=1}^m\|\gamma(t_j) - \gamma(t_{j-1})\|$$
Übung: Sind $Z_1,Z_2\in\Z$ und gilt $Z_1 \subseteq Z_2 \folgt L(\gamma,Z_1) \le L(\gamma,Z_2)$
$\gamma$ heißt \textbf{rektifizierbar} (rb) \indexlabel{Rektifizierbarkeit} $:\equizu$ $\exists M\ge0: L(\gamma,Z)\le M\ \forall Z\in\Z$. In diesem Fall heißt $L(\gamma) := \sup\{L(\gamma,Z): Z\in\Z\}$ die \textbf{Länge} von $\gamma$\indexlabel{Länge}.
Ist $n=1$, so gilt: $\gamma$ ist rektifizierbar $\equizu$ $\gamma\in \BV[a,b]$. In diesem Fall: $L(\gamma) = V_\gamma([a,b])$.
\end{definition}
\begin{satz}[Rektifizierbarkeit und Beschränkte Variation]
Sei $\gamma = (\eta_1, \ldots, \eta_n):[a,b]\to\MdR^n$ ein Weg. $\gamma$ ist rektifizierbar $\equizu$ \mbox{$\eta_1,\ldots,\eta_n\in \BV[a,b]$}.
\end{satz}
\begin{beweis}
Sei $Z = \{t_0,\ldots,t_n\} \in \Z$ und $J=\{1,\ldots,n\}$.\\
$|\eta_j(t_k)-\eta_j(t_{k-1})| \stackrel{\text{1.7}}{\le} \|\gamma(t_k) - \gamma(t_{k-1})\| \stackrel{\text{1.7}}\le \sum_{\nu=1}^n |\eta_\nu(t_k) - \eta_\nu(t_{k-1})\|$. Summation über $k$ $\folgt$ $V_{\eta_j} \le L(\gamma,Z) \le \sum_{k=1}^m\sum_{\nu=1}^n |\eta_\nu(t_k)-\eta_\nu(t_{k-1})| = \sum_{\nu=1}^n V_{\eta_\nu}(Z) \folgt$ Behauptung
\end{beweis}
\paragraph{Übung:} $\gamma$ ist rektifizierbar $\equizu$ $\gamma^-$ ist rektifizierbar. In diesem Fall: \mbox{$L(\gamma) = L(\gamma^-)$}
\paragraph{Summe von Wegen:}Gegeben: $a_0, a_1,\ldots a_l \in \MdR$, $a_0<a_1<a_2<\ldots<a_l$ und Wege $\gamma_k:[a_{k-1},a_k] \to \MdR^n$ $(k=1,\ldots,l)$ mit : $\gamma_k(a_k) = \gamma_{k+1}(a_k)$ $(k=1,\ldots,l-1)$.
Definiere $\gamma:[a_0,a_l]\to\MdR^n$ durch $\gamma(t):=\gamma_k(t)$, falls $t\in[a_{k-1},a_k]$. $\gamma$ ist ein Weg im $\MdR^n$, $\Gamma_\gamma = \Gamma_{\gamma_1} \cup \Gamma_{\gamma_2} \cup \cdots \cup \Gamma_{\gamma_l}$. $\gamma$ heißt die Summe der Wege $\gamma_1,\ldots,\gamma_l$ und wird mit. $\gamma = \gamma_1 \oplus \gamma_2 \oplus \cdots \oplus \gamma_l$ bezeichnet. \indexlabel{Summe von Wegen}
\begin{bemerkung}
Ist $\gamma:[a,b]\to\MdR^n$ ein Weg und $Z=\{t_0,\ldots,t_m\}\in\Z$ und $\gamma_k:=\gamma_{|_{[t_{k-1},t_k]}}$ $(k=1,\ldots,m)$ $\folgt$ $\gamma = \gamma_1 \oplus \cdots \oplus \gamma_m$. Aus Analysis I, 25.1(7) und 12.1 folgt:
\end{bemerkung}
\begin{satz}[Summe von Wegen]
Ist $\gamma = \gamma_1 \oplus \cdots \oplus \gamma_m$, so gilt: $\gamma$ ist rektifizierbar $\equizu$ $\gamma_1,\ldots,\gamma_m$ sind rektifizierbar. In diesem Fall: $L(\gamma)=L(\gamma_1) + \cdots + L(\gamma_m)$
\end{satz}
\begin{definition}
\index{Weg-!Längenfunktion}
Sei $\gamma:[a,b]\to\MdR^n$ ein rektifizierbarer Weg. Sei $t\in(a,b]$. Dann: $\gamma_{|_{[a,t]}}$ ist rektifizierbar (12.2).
$$s(t):= \begin{cases}L(\gamma_{|_{[a,t]}}),&\text{falls }t\in(a,b] \\0, &\text{falls }t=a\end{cases}$$ heißt die zu $\gamma$ gehörende \textbf{Weglängenfunktion}.
\end{definition}
\begin{satz}[Eigenschaften der Weglängenfunktion]
Sei $\gamma:[a,b]\to\MdR^n$ ein rektifizierbarer Weg. Dann:
\begin{enumerate}
\item $s\in C[a,b]$
\item $s$ ist wachsend.
\end{enumerate}
\end{satz}
\begin{beweis}
\begin{enumerate}
\item \textbf{\color{red}In der großen Übung}
\item Sei $t_1, t_2 \in [a,b]$ und $t_1<t_2$. $\gamma_1:=\gamma_{|_{[a,t_1]}}$, $\gamma_2:=\gamma_{|_{[t_1,t_2]}}$, $\gamma_3:=\gamma_{|_{[a,t_2]}}$. Dann $\gamma_3 = \gamma_1 \oplus \gamma_2$. 12.2 $\folgt$ $\gamma_1,\gamma_2,\gamma_3$ sind rektifizierbar und $\underbrace{L(\gamma_3)}_{=s(t_2)} = \underbrace{L(\gamma_1)}_{s(t_1)} + \underbrace{L(\gamma_2)}_{\ge 0} \folgt s(t_2) \ge s(t_1)$.
\end{enumerate}
\end{beweis}
\begin{satz}[Rechenregeln für Wegintegrale]
Sei $f=(f_1,\ldots,f_n):[a,b]\to\MdR^n$ und $f_1,\ldots,f_n\in R[a,b]$.
$$\int_a^bf(t)dt := \left(\int_a^bf_1(t)dt, \int_a^bf_2(t)dt,\ldots, \int_a^bf_n(t)dt\right) \quad (\in\MdR^n)$$
Dann: \begin{enumerate}
\item $$x\cdot \int_a^bf(t)dt = \int_a^b(x\cdot f(t))dt \ \forall x\in\MdR^n$$
\item $$\left\|\int_a^bf(t)dt\right\| \le \int_a^b\|f(t)\|dt$$
\end{enumerate}
\end{satz}
\begin{beweis}
\begin{enumerate}
\item Sei $x=(x_1,\ldots,x_n) \folgt$\\ $x\cdot\int_a^b f(t)dt = \sum_{j=1}^n x_j\int_a^bf_j(t) dt = \int_a^b\left(\sum_{j=1}^n x_j f_j(t)dt\right) = \int_a^b \left(x\cdot f(t)\right) dt$
\item $y:=\int_a^bf(t)dt$. O.B.d.A: $y\ne 0$. $x:= \frac{1}{\|y\|} y \folgt \|x\|=1, y=\|y\|x$. $\|y\|^2 = y\cdot y = \|y\|(x\cdot y) = \|y\|\left(x\cdot \int_a^bf(t)dt \right) = \|y\|\int_a^b\left(x\cdot f(t)\right) dt \le \|y\|\int_a^b\underbrace{|x \cdot f(t)|}_{\le\|x\|\|f(t)\| = \|f(t)\|} dt \le \|y\| \int_a^b\|f(t)\|dt$
\end{enumerate}
\end{beweis}
\begin{satz}[Eigenschaften stetig differenzierbarer Wege]
$\gamma:[a,b]\to\MdR^n$ sei ein stetig differenzierbarer Weg. Dann:
\begin{enumerate}
\item $\gamma$ ist rektifizierbar
\item Ist $s$ die zu $\gamma$ gehörende Weglängenfunktion, so ist $s\in C^1[a,b]$ und $s'(t)=\|\gamma'(t)\|\ \forall t\in[a,b]$
\item $L(\gamma)=\int_a^b\|\gamma'(t)\|dt$
\end{enumerate}
\end{satz}
\begin{beweise}
\item $\gamma=(\eta_1,\ldots,\eta_n)$, $\eta_j\in C^1[a,b]\folgtnach{A1,25.1}\eta_j\in \text{BV}[a,b]\folgtnach{12.1}\gamma$ ist rektifizierbar.
\item Sei $t_0\in[a,b)$. Wir zeigen:
$$\frac{s(t)-s(t_0)}{t-t_0}\to\|\gamma'(t_0)\|\ (t\to t_0+0)\text{. (analog zeigt man :}\frac{s(t)-s(t_0)}{t-t_0}\to\|\gamma'(t_0)\|\ (t\to t_0-0)\text{).}$$
Sei $t\in (t_0, b];\ \gamma_1:=\gamma_{|_{[a,t_0]}}, \gamma_2:=\gamma_{|_{[t_0,t]}}, \gamma_3:=\gamma_{|_{[a,t]}}$. Dann: $\gamma_3=\gamma_1 \oplus \gamma_2$ und $\underbrace{L(\gamma_3)}_{=s(t)}=\underbrace{L(\gamma_1)}_{=s(t_0)}+L(\gamma_2)\folgt s(t)-s(t_0)=L(\gamma_2)\ (I).$\\
$\tilde{Z}:=\{t_0, t\}$ ist eine Zerlegung von $[t_0,t]\folgt \|\gamma(t)-\gamma(t_0)\|=L(\gamma_2,\tilde{Z})\le L(\gamma_2)$\\
\textbf{Definition}: $F:[a,b]\to\MdR$ durch $F(t)=\ds\int_a^t\|\gamma'(\tau)\|\text{d}\tau$. 2.Hauptsatz der Differential- und Integralrechnung $\folgt F$ ist differenzierbar und $F'(t)=\|\gamma'(t)\|\ \forall t\in[a,b]$. Sei $Z=\{\tau_0,\ldots,\tau_m\}$ eine beliebige Zerlegung von $[t_0, t]$.
$$\ds\int_{\tau_{j-1}}^{\tau_j}\gamma'(\tau)\text{d}\tau=\left(\cdots, \ds\int_{\tau_{j-1}}^{\tau_j}\eta_k'(\tau)\text{d}\tau,\cdots\right)\gleichnach{A1}\left(\cdots, \eta_k(\tau_j)-\eta_k(\tau_{j-1}),\cdots\right)=\gamma(\tau_j)-\gamma(\tau_{j-1})$$
$\folgt \|\gamma(\tau_j)-\gamma(\tau_{j-1})\|\overset{12.4}{\le}\ds\int_{\tau_{j-1}}^{\tau_j}\|\gamma'(\tau)\|\text{d}\tau$. Summation $\folgt L(\gamma_2,Z)\le\ds\int_{t_0}^t\|\gamma'(\tau)\|\text{d}\tau=F(t)-F(t_0)\folgt L(\gamma_2)\le F(t)-F(t_0)\ (III)$.\\
$(I), (II), (III)\folgt\|\gamma(t)-\gamma(t_0)\|\overset{(II)}{\le}L(\gamma_2)\overset{(I)}{=}s(t)-s(t_0)\overset{(III)}{\le}F(t)-F(t_0)$
$$\folgt\underbrace{\frac{\|\gamma(t)-\gamma(t_0)\|}{t-t_0}}_{\overset{t\to t_0}{\to}\|\gamma'(t_0)\|}\le\frac{s(t)-s(t_0)}{t-t_0}\le\underbrace{\frac{F(t)-F(t_0)}{t-t_0}}_{\overset{t\to t_0}{\to}F'(t_0)=\|\gamma'(t_0)\|}$$
$(3)\ L(\gamma)=s(b)=s(b)-s(a)\overset{AI}{=}\ds\int_a^b s'(t)\text{d}t\gleichnach{(2)}\ds\int_a^b\|\gamma'(t)\|\text{d}t$
\end{beweise}
\begin{beispiele}
\item $x_0, y_0\in\MdR^n, \gamma(t):=x_0+t(y_0-x_0)\ (t\in [0,1])$. $\gamma'(t)=y_0-x_0\folgt L(\gamma)=\ds\int_0^1\|y_0-x_0\|\text{d}t=\|y_0-x_0\|$.
\item Sei $f:[a,b]\to\MdR$ stetig und $\gamma(t):=(t, f(t)), t\in[a,b]$. $\gamma$ ist ein Weg im $\MdR^2$. $\gamma$ ist rektifizierbar $\equizu f \in \text{BV}[a,b]$. $\Gamma_\gamma=$Graph von $f$. Jetzt sei $f\in C^1[a,b] \folgtnach{12.5} L(\gamma)=\ds\int_a^b\|\gamma'(t)\|\text{d}t=\ds\int_a^b (1+f'(t)^2)^{\frac{1}{2}}\text{d}t$.
\item $\gamma(t):=(\cos t, \sin t)\ (t\in [0,2\pi])$. $\gamma'(t)=(-\sin t, \cos t)$. $\|\gamma'(t)\|=1\ \forall t\in [0,2\pi]\folgtnach{12.5}s'(t)=1\ \forall t\in[0,2\pi]\folgt s(t)=t\ \forall t\in[0,2\pi]$ (\begriff{Bogenmaß}). \begriff{Winkelmaß}: $\varphi:=\frac{180}{\pi}t$. $L(\gamma)=2\pi$.
\end{beispiele}
\begin{definition*}
$\gamma:[a,b]\to\MdR^n$ sei ein Weg.
\begin{enumerate}
\index{stückweise!stetige Differenzierbarkeit}\index{Differenzierbarkeit!stückweise stetige}
\index{Glattheit}
\index{stückweise!Glattheit}\index{Glattheit!stückweise}
\item $\gamma$ heißt \textbf{stückweise stetig differenzierbar} $:\equizu\exists z=\{t_0,\ldots,t_m\}\in\Z$ mit: $\gamma_{|_{[t_{k-1},t_k]}}$ sind stetig differenzierbar $(k=1,\ldots,m)\equizu\exists$ stetig differenzierbare Wege $\gamma_1,\ldots,\gamma_l: \gamma=\gamma_1\oplus\cdots\oplus\gamma_l$.
\item $\gamma$ heißt \textbf{glatt} $:\equizu \gamma$ ist stetig differenzierbar und $\|\gamma'(t)\|>0\ \forall t\in[a,b]$.
\item $\gamma$ heißt \textbf{stückweise glatt} $:\equizu\exists$ glatte Wege $\gamma=\gamma_1\oplus\cdots\oplus\gamma_l$
\end{enumerate}
\end{definition*}
Aus 12.2 und 12.5 folgt:
\begin{satz}[Rektifizierbarkeit von Wegsummen]
Ist $\gamma=\gamma_1\oplus\cdots\oplus\gamma_l$ stückweise stetig differenzierbar, mit stetig differenzierbaren Wegen $\gamma_1,\ldots,\gamma_l\folgt \gamma$ ist rektifizierbar und $L(\gamma)=L(\gamma_1)+\cdots+L(\gamma_l)$.
\end{satz}
\begin{definition*}
\index{Parameter-!Darstellung}
Sei $\gamma:[a,b]\to\MdR^n$ ein Weg. $\gamma$ heißt eine \textbf{Parameterdarstellung} von $\Gamma_\gamma$.
\end{definition*}
\begin{beispiele}
\item $x_0, y_0\in\MdR^n, \gamma_1(t):=x_0+t(y_0-x_0)\ t\in[0,1],\ \gamma_2(t):=\gamma_1^-(t)\ t\in[0,1],\ \gamma_3(t):=x_0+7t(y_0-x_0)\ t\in[0,\frac{1}{7}].\ \gamma_1,\gamma_2,\gamma_3$ sind Parameterdarstellungen von $S[x_0, y_0]$.
\item $\gamma_1(t)=(\cos t, \sin t),\ (t\in [0,2\pi]), \gamma_2(t):=(\cos t, \sin t), (t\in[0,4\pi])$. $\gamma_1, \gamma_2$ sind Parameterdarstellungen von $K=\{(x,y)\in\MdR^2: x^2+y^2=1\}.$
\end{beispiele}
\begin{definition*}
$\gamma_1:[a,b]\to\MdR^n$ und $\gamma_2:[\alpha,\beta]\to\MdR^n$ seien Wege.
\index{Äquivalenz}
\index{Parameter-!Transformation}
$\gamma_1$ und $\gamma_2$ heißen \textbf{äquivalent}, in Zeichen $\gamma_1\sim\gamma_2:\equizu\exists h:[a,b]\to[\alpha, \beta]$ stetig und streng wachsend, $h(a)=\alpha, h(b)=\beta$ und $\gamma_1(t)=\gamma_2(h(t))\ \forall t\in[a,b]$ (also $\gamma_1=\gamma_2\circ h)$. $h$ heißt eine \textbf{Parametertransformation} (PTF). Analysis 1 $\folgt h([a,b])=[\alpha,\beta]\folgt \Gamma_{\gamma_1}=\Gamma_{\gamma_2}$.
Es gilt: $\gamma_2=\gamma_1\circ h^{-1}\folgt \gamma_2\sim\gamma_1$. "`$\sim$"' ist eine Äquivalenzrelation.
\end{definition*}
\begin{beispiele}
\item $\gamma_1, \gamma_2, \gamma_3$ seien wie in obigem Beispiel (1). $\gamma_1\sim\gamma_3, \gamma_1\sim\gamma_2$.
\item $\gamma_1, \gamma_2$ seien wie in obigem Beispiel (2). $\gamma_1\nsim\gamma_2$, denn $L(\gamma_1)=2\pi\ne 4\pi=L(\gamma_2)$
\end{beispiele}
\begin{satz}[Eigenschaften der Parametertransformation]
$\gamma_1:[a,b]\to\MdR^n$ und $\gamma_2:[\alpha,\beta]\to\MdR^n$ seien äquivalente Wege und $h:[a,b]\to[\alpha,\beta]$ eine Parametertransformation.
\begin{enumerate}
\item $\gamma_1$ ist rektifizierbar $\equizu \gamma_2$ ist rektifizierbar. In diesem Falle: $L(\gamma_1)=L(\gamma_2)$
\item Sind $\gamma_1$ und $\gamma_2$ glatt $\folgt h\in C^1[a,b]$ und $h'>0$.
\end{enumerate}
\end{satz}
\begin{beweise}
\item[(2)] \textbf{\color{red}In den großen Übungen.}
\item[(1)] Es genügt zu zeigen: Aus $\gamma_2$ rektifizierbar folgt: $\gamma_1$ ist rektifizierbar und $L(\gamma_1)\le L(\gamma_2)$. Sei $Z=\{t_0,\ldots,t_m\}\in\Z\folgt\tilde{Z}:=\{h(t_0),\ldots, h(t_m)\}$ ist eine Zerlegung von $[\alpha,\beta]$.
$$L(\gamma_1, Z)=\ds\sum_{j=1}^m\|\gamma_1(t_j)-\gamma_1(t_{j-1})\|=\ds\sum_{j=1}^m\|\gamma_2(h(t_j))-\gamma_2(h(t_{j-1}))\|=L(\gamma_2, \tilde{Z})\le L(\gamma_2)$$
$\folgt \gamma_1$ ist rektifizierbar und $L(\gamma_1)\le L(\gamma_2)$.
\end{beweise}
\paragraph{Weglänge als Parameter}
Es sei $\gamma:[a,b]\to\MdR^n$ ein \emph{glatter} Weg. 12.5 $\folgt \gamma$ ist rb. $L:=L(\gamma)$. 12.5 $\folgt s \in C^1[a,b]$ und $s'(t) = \|\gamma'(t)\| > 0\ \forall t\in[a,b].\ s$ ist also \emph{streng wachsend}. Dann gilt: $s([a,b]) = [0,L],\ s^{-1}:[0,L]\to[a,b]$ ist streng wachsend und stetig db. $(s^{-1})'(\sigma) = \frac{1}{s'(t)}$ für $\sigma \in [0,L],\ s(t) = \sigma.$
\begin{definition}
$\tilde{\gamma}[0,L] \to \MdR^n$ durch $\tilde{\gamma}(\sigma) := \gamma(s^{-1}(\sigma)),$ also $\tilde{\gamma} = \gamma\circ s^{-1};\ \tilde{\gamma}$ ist ein Weg im $\MdR^n$ und $\tilde{\gamma} \sim \gamma;\ \Gamma_\gamma = \Gamma_{\tilde{\gamma}}.$
12.7 $\folgt \tilde{\gamma}$ ist rb, $L(\tilde{\gamma})=L(\gamma)=L,\ \tilde{\gamma}$ ist stetig db. $\tilde{\gamma}$ heißt Parameterdarstellung von $\Gamma_\gamma$ mit der Weglänge als Parameter. Warum?
\end{definition}
Darum: Sei $\tilde{s}$ die zu $\tilde{\gamma}$ gehörende Weglängenfunktion. $\forall \sigma\in[0,L]: \tilde{\gamma}(\sigma) = \gamma(s^{-1}(\sigma)).$ Sei $\sigma\in[0,L],\ t:= s^{-1}(\sigma) \in [a,b],\ s(t) = \sigma.$
$\tilde{\gamma}(\sigma) = (s^{-1})'(\sigma)\cdot\gamma'(s^{-1}(\sigma)) = \frac{1}{s'(t)}\gamma'(t) \gleichnach{12.5} \frac{1}{\|\gamma'(t)\|}\gamma'(t) \folgt \|\gamma'(\sigma)\|=1$ ($\folgt \tilde{\gamma}$ ist glatt).
$\tilde{s}'(\gamma) \gleichnach{12.5} \|\gamma'(\sigma)\| = 1 \folgtwegen{\tilde{s}(0)=0} \tilde{s}(\sigma)=\sigma.$
Also: $\|\tilde{\gamma}'(\sigma)\| = 1,\ \tilde{s}(\sigma)=\sigma\ \forall \sigma\in[0,L].$
\begin{beispiel}
$\gamma(t) = \frac{e^t}{\sqrt{2}}(\cos t,\sin t),\ t \in [0,1];\ \gamma$ ist stetig db; Nachrechnen: $\|\gamma'(t)\|=e^t\ \forall t \in [0,1] \folgt \gamma$ ist glatt.
$s'(t) \gleichnach{12.5} \|\gamma'(t)\| = e^t \folgt s(t) = e^t+c \folgt 0=s(0) = 1+c \folgt c=-1,\ s(t) = e^t-1\ (t\in[0,1]) \folgt L=L(\gamma)=s(1)=e-1.\ e^t=1+s(t),\ t=\log (1+s(t)).$
$\tilde{\gamma}(\sigma) = \gamma(s^{-1}(\sigma)) = \gamma(\log (1+\sigma)) = \frac{1+\sigma}{\sqrt{2}}(\cos (\log(1+\sigma)),\sin (\log(1+\sigma))),\ \sigma\in[0,e-1].$
\end{beispiel}
\chapter{Wegintegrale}
In diesem Paragraphen seien alle vorkommenden Wege stets stückweise stetig differenzierbar.
\begin{definition}
Sei $\gamma:[a,b]\to\mdr^n$ ein Weg, $\gamma=(\eta_1,\ldots,\eta_n), \Gamma :=\Gamma_\gamma.$
$g:\Gamma\to\mdr$ stetig und $f=(f_1,\ldots,f_n):\Gamma\to\mdr^n$ stetig.
\begin{enumerate}
\item Für $j\in \{1,\ldots,n\}: \int_\gamma g(x) \text{ d}x_j:=\int_a^b g(\gamma(t))\cdot\eta_j'(t)\text{ d}t$
\item \begin{align*}
\int_\gamma f(x)\cdot\text{d}x &:= \int_\gamma f_1(x)\text{ d}x_1+\cdots+f_n(x)\text{ d}x_n\\
&:=\sum_{j=1}^n \int_\gamma f_j(x)\text{ d}x_j
\end{align*}
Es ist $\int_\gamma f(x)\cdot\text{d}x=\int_a^b f(\gamma(t))\cdot\gamma'(t)\text{ d}t$ und heißt das
\textbf{Wegintegral von $f$ längs $\gamma$}.
\end{enumerate}
\end{definition}
\begin{beispiel}
$f(x,y,z) := (z,y,x),\ \gamma(t) = (t,t^2,3t),\ t\in[0,1].\ f(\gamma(t)) = (3t,t^2,t),\ \gamma'(t)=(1,2t,3),\ f(\gamma(t))\cdot\gamma'(t) = 3t+2t^3+3t = 6t+2t^3$.
$\int_\gamma f(x,y,z)\cdot d(x,y,z) = \int_0^1 (6t+2t^3) dt = \frac{7}{2}.$
\end{beispiel}
\begin{satz}[Rechnen mit Wegintegralen]
$\gamma,\Gamma,f$ seien wie oben, $g:\Gamma\to\MdR^n$ sei stetig, $\hat\gamma = (\hat{\gamma}_1,\ldots,\hat{\gamma}_n): [\alpha,\beta] \to \MdR^n$ sei rektifizierbar und $\xi,\eta \in \MdR$.
\begin{enumerate}
\item $\ds{\int_\gamma(\xi f(x)+\eta g(x))\cdot dx = \xi \int_\gamma f(x)\cdot dx+\eta \int_\gamma g(x)\cdot dx}$
\item Ist $\gamma = \gamma^{(1)} \oplus \gamma^{(2)} \folgt \ds{\int_\gamma f(x)\cdot dx = \int_{\gamma^{(1)}} f(x)\cdot dx + \int_{\gamma^{(2)}} f(x)\cdot dx}$
\item $\ds{\int_{\gamma^-} f(x)\cdot dx = -\int_\gamma f(x)\cdot dx}$
\item $\ds{\left| \int_\gamma f(x)\cdot dx\right| \le L(\gamma)\cdot \max\{\|f(x)\|:x \in \Gamma\}}$
\item Ist $\ds{\hat{\gamma} \sim \gamma \folgt \int_\gamma f(x)\cdot dx = \int_{\hat{\gamma}} f(x)\cdot dx}$.
\end{enumerate}
\end{satz}
\begin{beweise}
\item klar
\item Ana I, 26.1(3)
\item nur für $\gamma$ stetig differenzierbar. $\gamma^-(t) = \gamma(b+a-t),\ t\in[a,b].$
$\int_{\gamma^-} f(x)\cdot dx = \int_a^b f(\gamma(b+a-t))\cdot \gamma'(b+a-t) (-1) dt =$ (subst. $\tau=b+a-t,\ d\tau = dt$) $= \int_b^a f(\gamma(\tau))\cdot\gamma'(\tau) d\tau = -\int_a^b f(\gamma(\tau))\cdot\gamma'(\tau) d\tau = -\int_\gamma f(x)\cdot dx.$
\item Übung
\item Sei $\hat{\gamma} = \gamma\circ h,\ h:[\alpha,\beta]\to[a,b]$ stetig und streng wachsend. $h(\alpha) = a,\ h(\beta) = b$. Nur für $\gamma$ und $h$ stetig db. Dann ist $\hat{\gamma}$ stetig db.
$\int_{\hat{\gamma}} f(x)\cdot dx = \int_\alpha^\beta f(\gamma(h(t)))\cdot \gamma'(h(t))\cdot h'(t) dt =$ (subst. $\tau = h(t),\ d\tau = h'(t)dt$) $= \int_a^b f(\gamma(\tau))\cdot \gamma'(\tau)d\tau = \int_\gamma f(x)\cdot dx.$
\end{beweise}
\begin{definition}
$\gamma,\Gamma$ seien wie immer in diesem Paragraphen. $s$ sei die zu $\gamma$ gehörende Weglängenfunktion und $g:\Gamma \to \MdR$ stetig. 12.4 $\folgt s$ ist wachsend $\folgtnach{Ana I} s \in BV[a,b];\ g\circ\gamma$ stetig $\folgtnach{Ana I, 26.6} g\circ\gamma \in R_s[a,b]$.
$$\int_\gamma g(x) ds := \int_a^b g(\gamma(t))ds(t)$$
\textbf{Integral bzgl. der Weglänge}.
\end{definition}
\begin{satz}[Rechnen mit Integralen bzgl. der Weglänge]
Seien $\gamma,g$ wie oben.
\begin{enumerate}
\item $\ds{\int_{\gamma^-} g(x) ds = \int_\gamma g(x) ds}$
\item Ist $\ds{\gamma = \gamma^{(1)} \oplus \gamma^{(2)} \folgt \int_\gamma g(x)ds = \int_{\gamma^{(1)}} g(x)ds + \int_{\gamma^{(2)}} g(x)ds}$.
\item Ist $\gamma$ stetig db $\folgt \importantbox{\ds{\int_\gamma g(x)ds = \int_a^b g(\gamma(t))\|\gamma'(t)\|dt}}$
\end{enumerate}
\end{satz}
\begin{beispiel}
$g(x,y) = (1+x^2+3y)^{1/2},\ \gamma(t) = (t,t^2),\ t\in[0,1].$
$g(\gamma(t)) = (1+t^2+3t^2)^{1/2} = (1+4t^2)^{1/2},\ \gamma'(t) = (1, 2t),\ \|\gamma'(t)\| = (1+4t^2)^{1/2} \folgt \int_\gamma g(x,y)ds = \int_0^1 (1+4t^2) dt = \frac{7}{3}$
\end{beispiel}
\paragraph{Gegeben:} $\gamma_1,\gamma_2,\ldots,\gamma_m$ rektifizierbare Wege, $\gamma_k:[a_k,b_k]\to\MdR^n$ mit $\gamma_1(b_1) = \gamma_2(a_2), \gamma_2(b_2) = \gamma_3(a_3),\ldots , \gamma_{m-1}(b_{m-1}) = \gamma_m(a_m)$. $\Gamma := \Gamma_{\gamma_1} \cup \ldots \cup \Gamma_{\gamma_m}$.
$\text{AH}(\gamma_1,\ldots,\gamma_m) := \{\gamma:\gamma$ ist ein rektifizierbarer Weg im $\MdR^n$ mit: $\Gamma_\gamma=\Gamma$, $L(\gamma)=L(\gamma_1)+\cdots+L(\gamma_m)$ und $\int_\gamma f(x)\cdot dx = \int_{\gamma_1}f(x)\cdot dx+ \cdots + \int_{\gamma_m}f(x)\cdot dx$ für \emph{jedes} stetige $f:\Gamma\to\MdR^n\}.$
Ist $\gamma\in \text{AH}(\gamma_1,\ldots,\gamma_m)$, so sagt man $\gamma$ entsteht durch \indexlabel{Aneinanderhängung}\textbf{Aneinanderhängen} der Wege $\gamma_1,\ldots,\gamma_m$.
\begin{satz}[Stetige Differenzierbarekeit der Aneinanderhängung]
$\gamma_1,\ldots,\gamma_m$ seien wie oben. Dann: $\text{AH}(\gamma_1,\ldots,\gamma_m) \ne \emptyset$. \\
Sind $\gamma_1,\ldots,\gamma_m$ stetig differenzierbar, so existiert ein stückweise stetig differenzierbarer Weg $\gamma\in \text{AH}(\gamma_1,\ldots,\gamma_m)$.
\end{satz}
\begin{beweis}
O.B.d.A: $m=2$.
Def. $h:[b_1,c] \to [a_2,b_2]$ linear wie folgt: $h(x)=px+q$, $h(b_1)=a_2$, $h(c)=b_2$. $\hat\gamma_2 := \gamma_2\circ h$. Dann: $\gamma_2\sim \hat\gamma_2$. $\gamma := \gamma_1\oplus\hat\gamma_2$. 12.2, 12.7, 13.2 $\folgt$ $\gamma\in \text{AH}(\gamma_1,\gamma_2)$.
\end{beweis}
\begin{beispiel}
In allen Beispielen sei $f(x,y)=(y,x-y)$ und $t\in[0,1]$.
\begin{enumerate}
\item $\gamma_1(t)=(t,0)$, $\gamma_2(t)=(1,t)$.
Sei $\gamma \in \text{AH}(\gamma_1,\gamma_2)$. Anfangspunkt von $\gamma$ ist (0,0), Endpunkt von $\gamma$ ist (1,1). Nachrechnen: $\int_{\gamma_1}f(x,y)\cdot d(x,y) = 0$, $\int_{\gamma_2}f(x,y)\cdot d(x,y) = \frac{1}{2}$. Also: $\int_\gamma f(x,y) \cdot d(x,y) = \frac{1}{2}$
\item $\gamma_1(t) = (0,t)$, $\gamma_2(t)=(t,1)$.
Sei $\gamma\in \text{AH}(\gamma_1,\gamma_2)$, Anfangspunkt von $\gamma$ ist (0,0), Endpunkt von $\gamma$ ist (1,1). Nachrechnen: $\int_{\gamma}f(x,y)\cdot d(x,y) = \frac{1}{2}$
\item $\gamma(t)=(t,t^3)$. Anfangspunkt von $\gamma$ ist (0,0), Endpunkt von $\gamma$ ist (1,1). Nachrechnen: $\int_\gamma f(x,y)\cdot d(x,y) = \frac{1}{2}$
\end{enumerate}
\end{beispiel}
\chapter{Stammfunktionen}
In diesem Paragraphen sei stets: $\emptyset \ne G \subseteq \MdR^n$, $G$ ein \emph{Gebiet} und $f=(f_1,\ldots,f_n): G\to\MdR^n$ stetig.
\begin{definition}
Eine Funktion $\varphi:G\to\MdR$ heißt eine \textbf{Stammfunktion (SF) von $f$ auf $G$}\indexlabel{Stammfunktion} $:\equizu$ $\varphi$ ist auf $G$ partiell differenzierbar und $\grad\varphi = f$ auf $G$. Also: $\varphi_{x_j} = f_j$ auf $G$ ($j=1,\ldots,n$).
\end{definition}
\begin{bemerkung}
\
\vspace{-1.5em}
\begin{enumerate}
\item Ist $\varphi$ eine Stammfunktion von $f$ auf $G$ $\folgt$ $\grad\varphi = f \folgt \varphi \in C^1(G,\MdR) \folgtnach{5.3} \varphi$ ist auf $G$ differenzierbar und $\varphi' = f$ auf $G$.
\item Sind $\varphi_1$, $\varphi_2$ Stammfunktionen von $f$ auf $G$ $\folgtnach{(1)}$ $\varphi_1'=\varphi_2'$ auf $G$ $\folgtnach{6.2} \exists c\in\MdR: \varphi_1=\varphi_2+c$ auf $G$
\item Ist $n=1$ $\folgt$ $G$ ist ein offenes Intervall. AI, 23.14 $\folgt$ \emph{jedes} stetige $f:G\to\MdR$ besitzt auf $G$ eine Stammfunktion! Im Falle $n\ge 2$ ist dies \emph{nicht} so.
\end{enumerate}
\end{bemerkung}
\begin{beispiele}
\item $G=\MdR^2$, $f(x,y) = (y,-x)$.
Annahme: $f$ besitzt auf $\MdR^2$ die Stammfunktion $\varphi$. Dann: $\varphi_x = y$, $\varphi_y = -x$ auf $G$ $\folgt$ $\varphi\in C^2(\MdR^2,\MdR)$ und $\varphi_{xy} = 1 \ne -1 = \varphi_{yx}$. Widerspruch zu 4.1. Also: $f$ besitzt auf $\MdR^2$ \emph{keine} Stammfunktion.
\item $G=\MdR^2$, $f(x,y) = (y,x-y)$.
Ansatz für eine Stammfunktion $\varphi$ von $f$: $\varphi_x=y \folgt \varphi=xy+c(y)$, $c$ differenzierbar, $\folgt$ $\varphi_y\stackrel{!}{=}x+c'(y) = x-y \folgt c'(y) = -y$, etwa $c(y)=-\frac{1}{2}y^2$. Also: $\varphi(x,y) = xy - \frac{1}{2}y^2$. Probe: $\varphi_x=y$, $\varphi_y=x-y$, also: $\grad\varphi=f$. $\varphi$ ist also eine Stammfunktion von $f$ auf $\MdR^2$.
%Weiß wer warum man da ne Probe braucht?
%Braucht man nicht, war nur um uns zu überzeugen
\end{beispiele}
\vspace{2em} % ntheorembugumgehung
\begin{satz}[Hauptsatz der mehrdimensionalen Integralrechnung]
$f$ besitzt auf $G$ die Stammfunktion $\varphi$; $\gamma:[a,b]\to\MdR^n$ ein ein stückweise stetig differenzierbarer Weg mit $\Gamma_\gamma\subseteq G$. Dann:
$$ \int_\gamma f(x)\cdot dx = \varphi\left(\gamma(b)\right) - \varphi\left(\gamma(a)\right) $$
Das heißt: $\int_\gamma f(x)\cdot dx$ hängt nur vom Anfangs- und Endpunkt von $\gamma$ ab.
Ist $\gamma$ \emph{geschlossen}, das heißt $\gamma(a) = \gamma(b)$, dann gilt $\int_\gamma f(x)\cdot dx = 0$.
\end{satz}
\begin{beweis}
O.B.d.A.: $\gamma$ ist stetig differenzierbar. $\Phi(t):= \varphi (\gamma(t))$, $t\in[a,b]$. $\Phi$ ist stetig differenzierbar und $\Phi'(t) = \varphi'(\gamma(t))\cdot \gamma'(t) = f(\gamma(t))\cdot\gamma(t)$ Dann: $\int_\gamma f(x)\cdot dx \gleichnach{13.1} \int_a^bf(\gamma(t))\cdot\gamma'(t)dt = \int_a^b\Phi'(t)dt \gleichnach{AI} \Phi(b)-\Phi(a) = \varphi(\gamma(b))-\varphi(\gamma(a))$.
\end{beweis}
\begin{wichtigerhilfssatz}
Es seien $x_0,y_0\in G$. Dann existiert ein stückweise stetig differenzierbarer Weg $\gamma$ mit: $\Gamma_\gamma\subseteq G$ und Anfangspunkt von $\gamma = x_0$ und Endpunkt von $\gamma=y_0$.
\end{wichtigerhilfssatz}
\begin{beweis}
$G$ Gebiet $\folgt \exists z_0,z_1,\ldots,z_m \in G: S[z_0,\ldots,z_m]\subseteq G, z_0=x_0, z_m = y_0$.
$\gamma_j(t) := z_{j-1} + t(z_j - z_{j-1})$, $(t\in[0,1])$, ($j=1,\ldots,n$). Dann:$\Gamma_{\gamma_j} = S[z_{j-1},z_{j}] \folgt \Gamma_{\gamma_1}\cup\ldots\cup\Gamma_{\gamma_m} = S[z_0,\ldots,z_m] \subseteq G$. 13.4 $\folgt \exists \gamma \in \text{AH}(\gamma_1,\ldots,\gamma_m)$ stückweise stetig differenzierbar $\folgt \Gamma_{\gamma} = S[z_0,\ldots,z_m] \subseteq G$.
\end{beweis}
\begin{definition*}
\indexlabel{Weg-!unabhängig}
$\int f(x)\cdot \text{d}x$ heißt \textbf{in G wegunabhängig} (wu) $:\equizu$ für je zwei Punkte $x_0, y_0\in G$ gilt: für jeden stückweise stetig differenzierbaren Weg $\gamma:[a,b]\to\MdR^n$ mit $\Gamma_\gamma\subseteq G$, $\gamma(a)=x_0$ und $\gamma(b)=y_0$ hat das Integral $\ds\int_\gamma f(x)\cdot\text{d}x$ stets denselben Wert. In diesem Fall: $\ds\int_{x_0}^{y_0}f(x)\cdot\text{d}x:=\ds\int_\gamma f(x)\cdot\text{d}x$.
\end{definition*}
\textbf{14.1 lautet dann}: besitzt f auf G die Stammfunktion $\varphi\folgt \ds\int f(x)\cdot\text{d}x$ ist in $G$ wegunabhängig und $\int_{x_0}^{y_0}=\varphi(y_0)-\varphi(x_0)$ (Verallgemeinerung von Analysis 1, 23.5).
\begin{satz}[Wegunabhängigkeit, Existenz von Stammfunktionen]
$f$ besitzt auf $G$ eine Stammfunktion $\equizu\int f(x)\cdot\text{d}x$ ist in G wegunabhängig. \\
In diesem Fall: ist $x_0\in G$ und $\varphi:G\to\MdR$ definiert durch:
\begin{align*}
\varphi(z)=\ds\int_{x_0}^z f(x)\cdot\text{d}x\ (z\in G)\ \tag{$*$}
\end{align*}
Dann ist $\varphi$ eine Stammfunktion von $f$ auf $G$.
\end{satz}
\begin{beweis}
"`$\folgt$"': 14.1\quad "`$\impliedby$"': Sei $x_0\in G$ und $\varphi$ wie in $(*)$. Zu zeigen: $\varphi$ ist auf $G$ differenzierbar und $\varphi'=f$ auf G. Sei $z_0\in G, h\in\MdR^n,h\ne 0$ und $\|h\|$ so klein, dass $z_0+th\in G\ \forall t\in[0,1].\ \gamma(t):=z_0+th\ (t\in[0,1]), \Gamma_\gamma=s[z_0, z_0+h]\subseteq G$. $\rho(h):=\frac{1}{\|h\|}(\varphi(z_0+h)-\varphi(z_0)-f(z_0)\cdot h)$. Zu zeigen: $\rho(h)\to 0\ (h\to 0)$. 14.2 $\folgt$ es existieren stückweise stetig differenzierbare Wege $\gamma_1, \gamma_2$ mit: $\Gamma_{\gamma_1},\Gamma_{\gamma_2}\subseteq G$. Anfangspunkt von $\gamma_1=x_0=$Anfangspunkt von $\gamma_2$. Endpunkt von $\gamma_1=z_0$, Endpunkt von $\gamma_2=z_0+h$. Sei $\gamma_3\in \text{AH}(\gamma_1,\gamma)$ stückweise stetig differenzierbar (13.4!). Dann:
$$\underbrace{\ds\int_{\gamma_3}f(x)\cdot\text{d}x}_{=\varphi(z_0+h)}=\underbrace{\ds\int_{\gamma_1}f(x)\cdot\text{d}x}_{=\varphi(z_0)}+\ds\int_{\gamma}f(x)\cdot\text{d}x$$
$\ds\int f(x)\cdot\text{d}x$ ist wegunabhängig in $G\folgt$\\
$$\ds\int_{\gamma_3}f(x)\cdot\text{d}x=\ds\int_{\gamma_2}f(x)\cdot\text{d}x=\varphi(z_0+h)\folgt\varphi(z_0+h)-\varphi(z_0)=\ds\int_{\gamma}f(x)\cdot\text{d}x$$
Es ist:
\begin{eqnarray*}
&&\ds\int_{\gamma}f(z_0)\cdot\text{d}x=\ds\int_0^1 f(z_0)\cdot\underbrace{\gamma'(t)}_{=h}\text{d}t=f(z_0)\cdot h\\
&&\folgt \rho(h)=\frac{1}{\|h\|}\ds\int_{\gamma}(f(x)-f(z_0))\text{d}x\\
&&\folgt |\rho(h)|=\frac{1}{\|h\|}\left|\ds\int_{\gamma}f(x)-f(z_0)\text{d}x\right|\\
&&\le\frac{1}{\|h\|}\underbrace{L(\gamma)}_{=\|h\|}\underbrace{\max\{\|f(x)-f(z_0)\|: x\in\Gamma_\gamma\}}_{=\|f(x_n)-f(z_0)\|}
\end{eqnarray*}
wobei $x_n\in\Gamma_\gamma=S[z_0,z_0+h]\folgt |\rho(h)|\le\|f(x_n)-f(z_0)\|$. Für $h\to 0: x_n\to z_0\folgtnach{f stetig}\|f(x_n)-f(z_0)\|\to 0\folgt\rho(h)\to 0$.
\end{beweis}
\begin{satz}[Integrabilitätsbedingungen]
Sei $f=(f_1,\ldots, f_n)\in C^1(G,\MdR^n)$. Besitzt $f$ auf $G$ die Stammfunktion $\varphi\folgt$
$$\frac{\partial f_j}{\partial x_k}=\frac{\partial f_k}{\partial x_j}\text{ auf }G\ (j,k=1,\ldots,n)$$
(\begriff{Integrabilitätsbedingungen} (IB)). Warnung: Die Umkehrung von 14.4 gilt im Allgemeinen \textbf{nicht} ($\to$ Übungen!).
\end{satz}
\begin{beweis}
Sei $\varphi$ eine Stammfunktion von $f$ auf $G\folgt\varphi$ ist differenzierbar auf $G$ und $\varphi_{x_j}=f_j$ auf $G\ (j=1,\ldots,n)$. $f\in C^1(G,\MdR^n)\folgt\varphi\in C^2(G,\MdR)$
$$\folgt \frac{\partial f_j}{\partial x_k}=\varphi_{x_jx_k}\gleichnach{4.7}\varphi_{x_kx_j}=\frac{\partial f_k}{\partial x_j}\text{ auf G.}$$ $ $
\end{beweis}
\begin{definition*}
\index{Sternförmigkeit}
Sei $\emptyset\ne M\subseteq\MdR^n$. $M$ heißt \textbf{sternförmig} $:\equizu\exists x_0\in M: S[x_0,x]\subseteq M\ \forall x\in M$.\\
\textbf{Beachte:}
\begin{enumerate}
\item Ist $M$ konvex$\folgt M$ ist sternförmig
\item Ist $M$ offen und sternförmig$\folgt M$ ist ein Gebiet
\end{enumerate}
\end{definition*}
\begin{satz}[Kriterium zur Existenz von Stammfunktionen]
Sei $G$ sternförmig und $f\in C^1(G,\MdR^n)$. Dann: $f$ besitzt auf $G$ eine Stammfunktion $:\equizu f$ erfüllt auf $G$ die Integrabilitätsbedingungen
\end{satz}
\begin{beweis}
"`$\folgt$"': 14.1\quad "`$\impliedby$"': $G$ sternförmig $\folgt\exists x_0\in G:S[x_0,x]\subseteq G\ \forall x\in G$. OBdA: $x_0=0$.
Für $x=(x_1,\ldots,x_n)\in G$ sei $\gamma_x(t)=tx, t\in [0,1]$.
\begin{eqnarray*}
\varphi(x)&:=&\int_{\gamma_x}f(z)\cdot\text{d}z\ (x\in G)\\
&=&\ds\int_0^1 f(tx)\cdot x\text{d}t\\
&=&\ds\int_0^1(f_1(tx)\cdot x_1+f_2(tx)\cdot x_2+\ldots+f_n(tx)\cdot x_n)\text{d}t\\
\end{eqnarray*}
Zu zeigen: $\varphi$ ist auf $G$ partiell differenzierbar nach $x_j$ und $\varphi_{x_j}=f_j\ (j=1,\ldots,n)$.
OBdA: $j=1$. Später (in 21.3) zeigen wir: $\varphi$ ist partiell differenzierbar nach $x_1$ und:
$$\varphi_{x_1}(x)=\ds\int_0^1\frac{\partial}{\partial x_1}(f_1(tx)x_1+\ldots+f_n(tx)\cdot x_n)\text{d}t$$
Für $k=1,\ldots,n:\ g_k(x)=f_k(tx)\cdot x_k$.\\
$k=1:\ g_1(x)=f_1(tx)x_1\folgt\frac{\partial g_1}{\partial x_1}(x)=f_1(tx)+t\frac{\partial f_1}{\partial x_1}(tx)x_1$\\
$k\ge 2:\ g_k(x)=f_k(tx)x_k\folgt\frac{\partial g_k}{\partial x_1}(x)=t\frac{\partial f_k}{\partial x_1}(tx)x_k\folgt$
\begin{eqnarray*}
\varphi_{x_1}(x)&=&\int_0^1(f_1(tx)+t(\frac{\partial f_1}{\partial x_1}(tx)x_1+\ldots+\frac{\partial f_n}{\partial x_1}(tx)x_n))\text{d}t\\
&\gleichnach{IB}&\int_0^1(f_1(tx)+t(\frac{\partial f_1}{\partial x_1}(tx)x_1+\frac{\partial f_1}{\partial x_2}(tx)x_2+\ldots+\frac{\partial f_1}{\partial x_n}(tx)x_n))\text{d}t\\
&=&\ds\int_0^1(f_1(tx)+tf_1'(tx)\cdot x)\text{d}t
\end{eqnarray*}
Sei $x\in G$ (fest), $h(t):=t\cdot f_1(tx)\ (t\in [0,1])$. $h$ ist stetig differenzierbar und $h'(t)=f_1(tx)+tf_1'(tx)\cdot x\folgt \varphi_{x_1}(x)=\ds\int_0^1 h'(t)\text{d}t\gleichnach{A1}h(1)-h(0)=f_1(x)$.
\end{beweis}
\chapter{Vorgriff auf Analysis III}
In Analysis III werden wir für gewisse Mengen $A\subseteq\MdR^n$ und gewisse Funktionen
$f:A\to\MdR$ folgendes Integral definieren:
\[\int_A f(x)\text{d}x=\int_A f(x_1,\ldots,x_n)\text{ d}(x_1,\ldots,x_n)\]
In diesem Paragraphen geben wir "`Kochrezepte"' an, wie man solche Integrale
für spezielle Mengen $A \subseteq \MdR^2$ (bzw. $A \subseteq \MdR^3$)
und stetige Funktionen $f:A \to \MdR$ berechnen kann.
\renewcommand{\theenumi}{\Roman{enumi}}
\renewcommand{\labelenumi}{\theenumi}
\begin{enumerate}
\item \textbf{Der Fall $n=2$}:\\
\begin{definition*}
\indexlabel{Normalbereich}
Es sei $[a,b]\subset\MdR$, $h_1,h_2\in C[a,b]$ und $h_1\le h_2$ auf $[a,b]$.
\[A:=\Set{(x,y)\in\MdR^2 | x\in[a,b],h_1(x)\le y\le h_2(x)}\]
\[\left(A:=\Set{(x,y)\in\MdR^2 | y\in[a,b],h_1(y)\le x\le h_2(y)}\right)\]
heißt \textbf{Normalbereich} bezüglich der $x$-Achse ($y$-Achse).\\
\textbf{Übung:} $A$ ist kompakt.
\end{definition*}
\begin{satz}[Integral über Normalbereiche im $\MdR^2$]
Sei $A$ wie oben und $f:A\to\MdR$, dann gilt:
\[\int_A f(x,y)\text{d}(x,y)=\int_a^b\left(\int_{h_1(x)}^{h_2(x)} f(x,y)\text{d}y\right)\text{ d}x\]
\[\left(\int_A f(x,y)\text{d}(x,y)=\int_a^b\left(\int_{h_1(y)}^{h_2(y)} f(x,y)\text{ d}x\right)\text{ d}y\right)\]
\end{satz}
\textbf{Achtung:} $\int_A f(x)\text{d}x$ nicht mit dem Wegintegral $\int_\gamma f(x)\cdot\text{d}x$
verwechseln!
\begin{definition*}
\indexlabel{Flächeninhalt}
Sei $A$ ein Normalbereich bzgl. der $x$- oder $y$-Achse, so heißt:
\[|A|:=\int_A 1\text{ d}(x,y)\]
der \textbf{Flächeninhalt} von $A$.
\end{definition*}
\begin{beispiele}
\item[(1)] Sei $A$ ein Normalbereich bzgl. der x-Achse und seien $h_1,h_2$ wie oben. Dann gilt:
\begin{align*}
|A|&=\int_A 1\text{ d}(x,y)\\
&\stackrel{15.1}{=}\int_a^b\left(\int_{h_1(x)}^{h_2(x)} 1\text{ d}y\right)\text{ d}x\\
&=\int_a^b(h_2(x)-h_1(x))\text{ d}x
\end{align*}
Ist z.B. $h_1=0$, so folgt:
\[|A|=\int_a^b h_2(x)\text{ d}x\]
\item[(2)] Sei $A=[a,b]\times[c,d]$, dann ist $A$ Normalbereich bezüglich der $x$-
\textbf{und} der $y$-Achse. Sei $f:A\to\MdR$ stetig. Es folgt aus 15.1.:
\begin{align*}
\int_A f(x,y)\text{d}(x,y) &= \int_a^b\left(\int_c^d f(x,y)\text{ d}y\right)\text{ d}x\\
&= \int_c^d\left(\int_a^b f(x,y)\text{ d}x\right)\text{ d}y
\end{align*}
\item[(3)] Sei $r>0$ und $A:=\Set{(x,y)\in\MdR^2 | x^2+y^2\le r^2}$. Dann ist
$A$ ein Normalbereich der $x$-Achse mit $h_1(x):=\sqrt{r^2-x^2}$ und $h_2(x):=-\sqrt{r^2-x^2}$
(mit $x\in[-r,r]$), und es gilt:
\begin{align*}
|A|&=\int_{-r}^r h_2(x)-h_1(x)\text{ d}x\\
&=\int_{-r}^r 2\sqrt{r^2-x^2}\text{ d}x\\
&=\pi r^2
\end{align*}
\item[(4)] Sei $A:=\Set{(x,y)\in\MdR^2 | x\in[0,1],x\le y\le \sqrt x}$ und $f(x,y)=xy$.
Dann gilt für $h_1(x)=x$ und $h_2(x)=\sqrt x$:
\begin{align*}
\int_A xy\text{ d}(x,y) &= \int_0^1\left(\int_x^{\sqrt x} xy\text{ d}y\right)\text{ d}x\\
&= \int_0^1\left(\left[\frac12 xy^2\right]_x^{\sqrt x}\right)\text{ d}x\\
&= \int_0^1 \frac12x^2 -\frac12x^3\text{ d}x\\
&= \frac12\left[\frac13 x^3-\frac14 x^4\right]_0^1 = \frac1{24}
\end{align*}
Da $A=\Set{(x,y)\in\MdR^2 | y\in[0,1],y^2\le x\le y}$ außerdem Normalbereich bzgl. der
$y$-Achse ist, gilt:
\begin{align*}
\int_A f(x,y)\text{ d}y &= \int_0^1\left(\int_{y^2}^y xy \text{ d}x\right)\text{ d}y\\
&=\int_0^1 \left[ \frac12 x^2y\right]_{y^2}^y \text{ d}y\\
&=\int_0^1 \frac12y^3-\frac12y^5 \text{ d}y\\
&= \frac12 \left[ \frac14y^4-\frac16 y^5\right]_0^1 = \frac1{24}
\end{align*}
\end{beispiele}
\item \textbf{Der Fall $n=3$:}\\
\indexlabel{Normalbereich}
\begin{definition}
Sei $A\subseteq\MdR^2$ ein Normalbereich bzgl. der $x$- oder der $y$-Achse,
es seien $g_1,g_2:A\to\MdR$ stetig und $g_1\le g_2$ auf $A$.
\[B:=\Set{(x,y,z)\in\MdR^3 | (x,y)\in A, g_1(x,y)\le z\le g_2(x,y)}\]
heißt ein \textbf{Normalbereich} bezüglich der $x$-$y$-Ebene.
Normalbereiche bzgl der $x$-$z$- und $y$-$z$-Ebene werden analog definiert.
\end{definition}
\begin{satz}[Integral über Normalbereiche im $\MdR^3$]
Sei $B, g_1, g_2$ wie oben und $f:B\to\MdR$ stetig, dann gilt:
\[\int_B f(x,y,z) \text{ d}(x,y,z) = \int_A\left(\int_{g_1(x,y)}^{g_2(x,y)} f(x,y,z) \text{ d}z\right)\text{ d}(x,y)\]
\end{satz}
\begin{definition}
\indexlabel{Volumen}
$B$ sei wie in 15.2.
\begin{align*}
|B|&:=\int_B 1\text{ d}(x,y,z)\\
&\left( = \int_A g_2(x,y)-g_1(x,y)\text{ d}(x,y)\right)
\end{align*}
heißt \textbf{Volumen} von $B$.
\end{definition}
\begin{beispiele}
\item[(1)] Sei $B:=\overbrace{[a,b]\times[c,d]}^{:= A}\times[\alpha,\beta]$, dann gilt:
\begin{align*}
\int_B f(x,y,z) \text{ d}(x,y,z) &= \int_A\left(\int_\alpha^\beta f(x,y,z) \text{ d}z\right)\text{ d}(x,y)\\
&=\int_a^b\left(\int_c^d\left(\int_\alpha^\beta f(x,y,z) \text{ d}z\right)\text{ d}y\right)\text{ d}x
\end{align*}
Dabei darf die Integrationsreihenfolge beliebig vertauscht werden.
\item[(2)] Sei $B:=\Set{(x,y,z)\in\MdR^3 | x^2+y^2\le 1, 0\le z\le h}$ für ein
$h>0$. Dann setze $A:=\Set{(x,y)\in\MdR^2 | x^2+y^2\le 1}, g_1=0, g_2=h$. Es gilt:
\begin{align*}
|B|&= \int_A h\text{ d}(x,y)\\
&= h \int_A 1 \text{ d}(x,y)\\
&= h\cdot |A| = h\pi
\end{align*}
\end{beispiele}
\begin{satz}[Eigenschaften von Integralen über Normalbereiche]
Sei $B\subseteq\MdR^2$ oder $B\subseteq\MdR^3$ und $f,g:B\to\MdR$ stetig.
Je nach Definition von $B$ sei $X=(x,y)$ oder $X=(x,y,z)$.
\begin{enumerate}
\item[(1)] Für alle $\alpha,\beta\in\MdR$ gilt:
\[\int_B \alpha f(X)+\beta g(X)\text{ d}X=\alpha\int_B f(X)\text{ d}X+\beta\int_B g(X)\text{ d}X\]
\item[(2)] Es gilt die bekannte Dreiecksungleichung:
\[\left|\int_B f(X)\text{ d}X\right|\le \int_B |f(X)| \text{ d}X\le |B|\cdot \max\{|f(X)|: X\in B\}\]
\item[(3)] Ist $f\le g$ auf $B$, so gilt:
\[\int_B f(X)\text{ d}X \le \int_B g(X)\text{ d}X\]
\end{enumerate}
\end{satz}
\end{enumerate}
\chapter{Folgen, Reihen und Potenzreihen in $\MdC$}
\renewcommand{\labelenumi}{(\arabic{enumi})}
\index{komplex!Betrag}\index{Betrag!komplexer}
$\MdC$ und $\MdR^2$ sind Vektorräume \textbf{über $\MdR$} der Dimension zwei.
Sie unterscheiden sich als Vektorräume über $\mathbb{R}$ nur dadurch, dass ihre Elemente
mit:
\[z=x+\text{i} y\in \MdC \quad \text { bzw. }\quad (x,y)\in\MdR^2 \quad(x,y\in\MdR)\]
bezeichnet werden. Mit dem \textbf{komplexen Betrag} $|z|:=\sqrt{x^2+y^2}$ gilt:
\[|z|=\|(x,y)\|\]
Man sieht, dass alle aus der Addition, der Skalarmultiplikation und der Norm entwickelten Begriffe
und Sätze aus §1 und §2 auch in $\MdC$ gelten.\\
\begin{beispiel}[Konvergente Folgen]
Sei $(z_n)$ eine Folge in $\MdC$ und $z_0\in\MdC$. $(z_n)$ konvergiert genau dann gegen
$z_0$, wenn gilt:
\begin{align*}
&|z_n-z_0|\stackrel{n\to\infty}{\to}0\\
\stackrel{2.1}{\iff} &\Re(z_n)\stackrel{n\to\infty}{\to}\Re(z_0)\wedge
\Im(z_n)\stackrel{n\to\infty}{\to}\Im(z_0)
\end{align*}
Außerdem ist $(z_n)$ genau dann eine Cauchyfolge, wenn gilt:
\[\forall\ep>0\exists n_0\in\MdN\forall n,m\ge n_0: |z_n-z_m|<\ep\]
Also nach Cauchykriterium genau dann, wenn $(z_n)$ konvergent ist.
\end{beispiel}
\begin{satz}[Produkte und Quotienten von Folgen]
Seien $(z_n),(w_n)$ Folgen in $\MdC$ mit $z_n\stackrel{n\to\infty}{\to}z_0,
w_n\stackrel{n\to\infty}{\to}w_0$.
\begin{enumerate}
\item Es gilt:
\[z_nw_n\stackrel{n\to\infty}{\to}z_0w_0\]
\item Ist $z_0\ne 0$, so existiert ein $m\in\MdN:\forall n\ge m:z_n\ne 0$ und:
\[\frac1{z_n}\stackrel{n\to\infty}{\to}\frac1{z_0}\]
\end{enumerate}
\end{satz}
\begin{beweis}
Wie in Ana I.
\end{beweis}
\begin{definition}
\index{unendliche Reihe}\index{Reihe!unendliche}
\index{Konvergenz}\index{Divergenz}
Sei $(z_n)$ eine Folge in $\MdC$, $s_n:=z_1+\cdots+z_n (n\in\MdN)$. $(s_n)$ heißt
\textbf{unendliche Reihe} und wird mit $\sum_{n=1}^{\infty} z_n$ bezeichnet.\\
$\sum_{n=1}^{\infty} z_n$ heißt genau dann \textbf{konvergent} (\textbf{divergent}),
wenn $(s_n)$ konvergent (bzw. divergent) ist. Im Konvergenzfall gilt:
\[\sum_{n=1}^{\infty} z_n:=\limsup_{n\to\infty} s_n\]
\end{definition}
Die Definitionen und Sätze der Paragraphen 11, 12, 13 aus Ana I gelten wörtlich
auch in $\MdC$, bis auf diejenigen Definitionen und Sätze, in denen die Anordnung
auf $\MdR$ eine Rolle spielt (z.B. das Leibniz- und das Monotoniekriterium).
\\
\begin{beispiele}
\index{geometrische Reihe}\index{Reihe!geometrische}
\index{Exponentialfunktion}\index{komplex!Exponentialfunktion}
\index{Cosinus}\index{Kosinus}\index{komplex!Kosinus}
\index{Sinus}\index{komplex!Sinus}
\item Sei $z\in\MdC$. $\sum_{n=0}^{\infty} z^n$ heißt \textbf{geometrische Reihe}.\\
\textbf{Fall 1:} Ist $|z|< 1$, dann gilt:
\begin{align*}
&\sum_{n=0}^{\infty} |z|^n \text{ konvergiert}\\
\implies &\sum_{n=0}^{\infty} z^n\text{ konvergiert absolut}\\
\implies &\sum_{n=0}^{\infty} z^n\text{ konvergiert}
\end{align*}
\textbf{Fall 2:} Ist $|z|\ge 1$, dann gilt:
\begin{align*}
&|z|^n=|z^n|\stackrel{n\to\infty}{\not\to} 0\\
\implies &z^n\stackrel{n\to\infty}{\not\to} 0\\
\implies &\sum_{n=0}^{\infty} z^n \text{ divergiert}
\end{align*}
Ist $|z|<1$, so zeigt man wie in $\MdR$:
\[\sum_{n=0}^{\infty} z^n= \frac1{1-z}\]
\item Betrachte $\sum_{n=0}^\infty \frac{z^n}{n!}$. Für alle $z\in\MdC$ gilt:
\begin{align*}
&\sum_{n=0}^\infty \frac{|z|^n}{n!} \text{ konvergiert}\\
\implies &\sum_{n=0}^\infty \frac{z^n}{n!} \text{ konvergiert absolut}
\end{align*}
Für alle $z\in\MdC$ definiere die (komplexe) \textbf{Exponentialfunktion} wie folgt:
\[e^z:=\sum_{n=0}^\infty\frac{z^n}{n!}\]
\item Wie in Beispiel (2) sieht man, dass $\sum_{n=0}^\infty (-1)^n \frac{z^{2n}}{(2n)!}$ und
$\sum_{n=0}^\infty (-1)^n \frac{z^{2n+1}}{(2n+1)!}$ für alle $z\in\MdC$ absolut konvergieren.\\
Dadurch lassen sich auch \textbf{Cosinus} und \textbf{Sinus} auf ganz $\MdC$ definieren:
\[\cos{z}:=\sum_{n=0}^\infty (-1)^n\frac{z^{2n}}{(2n)!}\]
\[\sin{z}:=\sum_{n=0}^\infty (-1)^n\frac{z^{2n+1}}{(2n+1)!}\]
\end{beispiele}
\begin{satz}[Eigenschaften von Exponentialfunktion, Cosinus und Sinus]
Seien $z,w\in\MdC, z=x+iy$ mit $x,y\in\MdR$. Es gilt:
\begin{enumerate}
\item $e^{z+w}=e^z e^w$
\item $e^{iy}=\cos y+i\sin y$, insbesondere ist: $|e^{iy}|=1$
\item $e^z=e^x e^{iy}=e^x(\cos y+i\sin y)$
\item $ \cos (z)=\frac{e^{iz}+e^{-iz}}{2}, \sin (z)=\frac{e^{iz}-e^{-iz}}{2i}$\\
Insbesondere ist für alle $t\in\MdR: \cos(it)=\frac{e^{-t}+e^t}{2} \xrightarrow{t \rightarrow \infty} \infty,
\sin(it)=\frac{e^{-t}-e^t}{2i} \xrightarrow{t \rightarrow \infty} - \infty$\\
Also sind Cosinus und Sinus auf $\MdC$ \textbf{nicht} beschränkt.
\item $\forall k\in\MdZ:e^{z+2\pi i k}=e^z$
\item $e^z=1 \iff \exists k\in\MdZ:z=2k\pi i$
\item $e^{i\pi}+1=0$
\end{enumerate}
\end{satz}
\begin{beweise}
\item Wie in Ana I.
\item Nachrechnen!
\item Folgt aus (1) und (2).
\item Nachrechnen!
\item Es gilt:
\begin{align*}
e^{z+2k\pi i} &\stackrel{(1)}{=}e^ze^{2k\pi i}\\
&\stackrel{(2)}{=}e^z(\underbrace{\cos(2k\pi)}_{=1}+i\underbrace{\sin(2k\pi)}_{=0})\\
&= e^z
\end{align*}
$\Rightarrow e^z$ ist auf $\mathbb{C}$ nicht injektiv!
\item
Die Äquivalenz folgt aus Implikation in beiden Richtungen:
\begin{enumerate}
\item["`$\impliedby$"'] Folgt aus (5) mit $z=0$.
\item["`$\implies$"'] Sei $z=x+iy$ mit $x,y\in\MdR$. Es gilt:
\[1=e^z=e^x(\cos(y)+i\sin(y))=e^x\cos(y)+ie^x\sin(y)\]
Daraus folgt:
\[\sin(y)=0\implies \exists j\in\MdZ:y=j\pi\]
Und damit:
\begin{align*}
&1=e^x\cos(j\pi)=e^x(-1)^j\\
\implies &x=0\wedge\exists k\in\MdN: j=2k
\end{align*}
Also ist $z=i2k\pi$.
\end{enumerate}
\item Es gilt:
\[e^{i\pi}\stackrel{(2)}{=}\cos(\pi)+i\sin(\pi)=-1\]
\end{beweise}
\begin{beispiel}
Im Folgenden wollen wir alle $z\in\MdC$ bestimmen, für die $\sin(z)=0$ ist. Es gilt:
\begin{align*}
\sin(z)=0 &\stackrel{16.2(4)}{\iff}e^{iz}=e^{-iz}\\
&\stackrel{16.2(1)}{\iff}e^{2iz}=e^{-iz}e^{iz}=e^0=1\\
&\stackrel{16.2(6)}{\iff}\exists k\in\MdZ: 2iz=i2k\pi\\
&\iff z=k\pi
\end{align*}
Der Sinus hat also nur reelle Nullstellen.
\end{beispiel}
\begin{definition}
\index{Potenzreihe}
\index{Konvergenzradius}
Sei $(a_n)$ ein Folge in $\MdC$ und $z_0\in\MdC$. $\sum_{n=0}^\infty a_n(z-z_0)^n$
heißt eine \textbf{Potenzreihe} (PR). Sei nun:
\[\rho:=\limsup \sqrt[n]{|a_n|}\]
Dabei ist $\rho=\infty$, falls $\sqrt[n]{|a_n|}$ unbeschränkt ist. Dann heißt
\[r:=
\begin{cases}
0&\text{, falls }\rho=\infty\\
\infty&\text{, falls }\rho=0\\
\frac1\rho&\text{, falls }0<\rho<\infty
\end{cases}\]
der \textbf{Konvergenzradius} (KR) der PR.
\end{definition}
\begin{satz}[Konvergenz von Potenzreihen]
$\sum_{n=0}^\infty a_n(z-z_0)^n$ und $r$ seien wie oben.
\begin{enumerate}
\item Ist $r=0$, so konvergiert die PR \textbf{nur} für $z=z_0$.
\item Ist $r=\infty$, so konvergiert die PR absolut für alle $z\in\MdC$.
\item Sei $0<r<\infty$. Es gilt:
\begin{enumerate}
\item Ist $z\in\MdC$ und $|z-z_0|<r$, so konvergiert die PR absolut in $z$.
\item Ist $z\in\MdC$ und $|z-z_0|>r$, so divergiert die PR in $z$.
\item Ist $z\in\MdC$ und $|z-z_0|=r$, so ist keine allgemeine Aussage möglich.
\end{enumerate}
\end{enumerate}
\end{satz}
\begin{beweis}
Wie in Ana I.
\end{beweis}
\begin{beispiele}
\item Die PR $\sum_{n=0}^\infty z^n$ hat den KR $r=1$ und es gilt:
\[\sum_{n=0}^\infty z^n\text{ konvergiert }\iff |z|<1\]
\item Die PR $\sum_{n=0}^\infty \frac{z^n}{n^2}$ hat den KR $r=1$. Für $|z|=1$ gilt:
\[\sum_{n=0}^\infty \frac{|z|^n}{n^2}=\sum_{n=0}^\infty \frac1{n^2}\]
Also konvergiert $\sum_{n=0}^\infty \frac{z^n}{n^2}$ absolut. Insgesamt gilt also:
\[\sum_{n=0}^\infty \frac{z^n}{n^2}\text{ konvergiert }\iff |z|\le 1\]
\item Die PR $\sum_{n=0}^\infty \frac{z^n}{n}$ hat KR $r=1$, divergiert in $z=1$ und
konvergiert in $z=-1$.
\item Die PRen
\begin{align*}
&\sum_{n=0}^\infty \frac{z^n}{n!}&&\sum_{n=0}^\infty(-1)^n\frac{z^{2n}}{(2n)!}
&&\sum_{n=0}^\infty (-1)^n\frac{z^{2n+1}}{(2n+1)!}
\end{align*}
haben jeweils KR $r=\infty$ (siehe 16.3).
\end{beispiele}
\chapter{Normierte Räume, Banachräume, Fixpunktsatz}
In diesem Paragraphen sei $\mathbb{K}$ stets gleich $\mathbb{R}$ oder $\mathbb{C}$
und sei $X$ ein Vektorraum (VR) über $\mathbb{K}$.
\begin{definition}
\index{Norm}
\index{normierter Raum}\index{Raum!normierter}
Eine Abbildung $\|\cdot\|:X\to\mathbb{R}$ heißt genau dann eine \textbf{Norm} auf $X$,
wenn folgendes erfüllt ist:
\begin{enumerate}
\item $\forall x\in X: \|x\|\ge0 \text{ und } \|x\|=0\iff x=0$
\item $\forall x\in X,\alpha\in\mathbb{K}:\|\alpha x\|=|\alpha|\cdot\|x\|$
\item $\forall x,y\in X: \|x+y\|\le \|x\|+\|y\|$
\end{enumerate}
In diesem Fall heißt $(X,\|\cdot\|)$ ein \textbf{normierter Raum} (NR).
\end{definition}
\begin{beispiele}
\index{euklidische Norm}\index{Norm!euklidische}
\item Sei $n\in\mathbb{N},X=\mathbb{K}^n$ und für $x=(x_1,\ldots,x_n)\in X$
die \textbf{euklidische Norm} gegeben:
\[\|x\|_2:=\sqrt{\sum_{j=1}^n |x_j|^2}\]
Dann ist $(\mathbb{K}^n,\|\cdot\|_2)$ ein normierter Raum (vgl. §1).
\item Sei $X=C[a,b]$ und für $f\in X$ seien die folgenden Normen gegeben:
\begin{align*}
&\|f\|_1:=\int_a^b|f(x)|\text{ d}x\\
&\|f\|_2:=\sqrt{\int_a^b|f(x)|^2\text{ d}x}\\
&\|f\|_\infty:=\max\{|f(x)|:x\in[a,b]\}
\end{align*}
Leichte Übung: $(X,\|\cdot\|_1),(X,\|\cdot\|_2)$ und $(X,\|\cdot\|_\infty)$
sind NRe.
\item Sei $K\subseteq \mathbb{R}^n$ kompakt, $X:=C(K,\mathbb{R}^m)$ und sei für
$f\in X$ die Norm
\[\|f\|_\infty:=\max\{\|f(x)\|:x\in K\}\]
Leichte Übung: $(X,\|\cdot\|_\infty)$ ist ein NR.
\end{beispiele}
Für den Rest dieses Paragraphen sei $X$ stets ein NR mit Norm $\|\cdot\|$.
\begin{bemerkung}
Wie in §1 zeigt man die umgekehrte Dreiecksungleichung:
\[\forall x,y\in X:|\|x\|-\|y\||\le\|x-y\|\]
\end{bemerkung}
\begin{definition}
\index{Konvergenz}
\index{Divergenz}
\index{Grenzwert}
\index{Limes}
\index{Cauchy-!Folge}
\index{Offenheit}
\index{Abgeschlossenheit}
\begin{enumerate}
\item Sei $(x_n)$ eine Folge in $X$. $(x_n)$ heißt genau dann \textbf{konvergent},
wenn ein $x_0\in X$ existiert für das gilt:
\[\|x_n-x_0\|\stackrel{n\to\infty}\to 0\]
In diesem Fall ist $x_0$ eindeutig bestimmt und man schreibt $x_n\stackrel{n\to\infty}\to x_0$
oder $\lim_{n\to\infty} x_n=x_0$. $x_0$ heißt \textbf{Grenzwert} oder \textbf{Limes}
von $(x_n)$.
\item $(x_n)$ heißt genau dann \textbf{divergent}, wenn $(x_n)$ nicht konvergent ist.
\item $(x_n)$ heißt genau dann eine \textbf{Cauchyfolge} (CF), wenn gilt:
\[\forall\ep>0 \exists n_0=n_0(\ep)\in\MdN:\|x_n-x_m\|<\ep\quad \forall n,m\ge n_0\]
\item Sei $x_0\in X$ und $\delta>0$. Definiere:
\[U_\delta(x):=\Set{x\in X | \|x-x_0\|<\delta}\]
\item Sei $A\subseteq X$. $A$ heißt \textbf{offen}, genau dann wenn gilt:
\[\forall x\in A\exists \delta=\delta(x)>0: U_\delta(x)\subseteq A\]
A heißt \textbf{abgeschlossen}, genau dann wenn $X\setminus A$ offen ist.
\end{enumerate}
\end{definition}
\begin{satz}[Eigenschaften von Folgen in normierten Räumen]
\index{Beschränktheit}
\index{gleichmäßige Konvergenz}\index{Konvergenz!gleichmäßige}
Seien $(x_n),(y_n)$ Folgen in $X$, $(\alpha_n)$ Folge in $\mathbb{K}$, $x,y\in X$ und
$A\subseteq X$.
\begin{enumerate}
\item Gilt $x_n\to x,y_n\to y$ und $\alpha_n\to\alpha\in\mathbb{K}$, so folgt:
\begin{align*}
&x_n+y_n\to x+y& &\alpha_n x_n\to\alpha x& &\|x_n\|\to\|x\|
\end{align*}
D.h. die Addition und Skalarmultiplikation sind stetig.
\item Ist $(x_n)$ konvergent, so ist $(x_n)$ \textbf{beschränkt}, d.h.:
\[\exists c\ge 0:\forall n\in\MdN:\|x_n\|\le c\]
und $(x_n)$ ist eine CF.
\item Genau dann wenn $A$ abgeschlossen ist, gilt für jede konvergente Folge $(x_n)$ in $A$:
\[\lim_{n\to\infty}x_n\in A\]
\item Sei $(X,\|\cdot\|_\infty)$ wie in obigem Beispiel (3). Dann gilt für
$(f_n)$ in $X$ und $f\in X$, dass $(f_n)$ genau dann auf $K$ \textbf{gleichmäßig} gegen $f$
\textbf{konvergiert}, wenn gilt:
\begin{align*}
&\|f_n-f\|_\infty \stackrel{n\to\infty}{\to}0\\
:\iff &\forall\ep>0\exists n_0\in\MdN:\|f_n(x)-f(x)\|<\ep\quad \forall n\ge n_0\forall x\in K
\end{align*}
\end{enumerate}
\end{satz}
\begin{beweise}
\item Wie im $\MdR^n$.
\item Wie im $\MdR^n$.
\item Wie im $\MdR^n$.
\item \textbf{\color{red}In der großen Übung.}
\end{beweise}
\begin{beispiel}
Sei $X=C[-1,1]$ mit $\|f\|_2:=\sqrt{\int_{-1}^1 |f(x)|^2\text{ d}x}$. Definiere die
Folge $(f_n)$ wie folgt:
\[\forall n\in\MdN: f_n(x)=
\begin{cases}
-1&,-1\le x\le -\frac1n\\
nx&,-\frac1n\le x\le \frac1n\\
1&,\frac1n\le x\le 1
\end{cases}\]
Dann ist klar, dass $f_n\in X$ für alle $n\in\MdN$. In den \textbf{\color{red}großen Übungen} wird gezeigt:
\begin{enumerate}
\item $(f_n)$ ist eine CF in $X$.
\item Es existiert \textbf{kein} $f\in X$ mit $\|f_n-f\|_2\to 0$
\end{enumerate}
\end{beispiel}
\begin{definition}
\index{Banachraum}
\index{vollständiger Raum}\index{Raum!vollständiger}
$X$ heißt ein \textbf{Banachraum} oder \textbf{vollständig}, genau dann wenn jede
CF in $X$ einen Grenzwert in $X$ hat.
\end{definition}
\begin{beispiele}
\item Sei $X=\mathbb{K}^n, \|x\|_2=\sqrt{\sum_{j=1}^n |x_j|^2}$. Dann folgt aus §2,
dass $(X,\|\cdot\|_2)$ ein BR ist.
\item Sei $X=C[-1,1], \|f\|_2=\sqrt{\int_{-1}^1 |f(x)|^2 \text{ d}x}$. Dann ist
$(X,\|\cdot\|_2)$ \textbf{kein} BR.
\item Sei $(X,\|\cdot\|_\infty)$ wie in 17.1(4). In den \textbf{\color{red}großen Übungen} wird gezeigt,
dass $(X,\|\cdot\|_\infty)$ ein BR ist.
\end{beispiele}
\begin{satz}[Banachscher Fixpunktsatz]
\index{Kontraktion}
\index{Folge der sukzessiven Approximationen}\index{sukzessive Approximationen!Folge der}
Sei $(X,\|\cdot\|)$ ein BR, $\emptyset\ne A\subseteq X$ sei abgeschlossen und es sei
$F:A\to X$ eine Abbildung mit:
\renewcommand{\labelenumi}{(\roman{enumi})}
\begin{enumerate}
\item $F(A)\subseteq A$
\item $F$ ist eine \textbf{Kontraktion}, d.h.:
\[\exists L\in[0,1):\forall x,y\in A:\|F(x)-F(y)\|\le L\cdot \|x-y\|\]
\end{enumerate}
\renewcommand{\labelenumi}{(\arabic{enumi})}
Dann existiert genau ein $x^*\in A$ mit $F(x^*)=x^*$.\\
Ist $x_0\in A$ beliebig und $(x_n)$ definiert durch $x_{n+1}:=F(x_n)\ (n\ge 0)$,
so ist $x_n\in A$ für alle $n\in\MdN$ und es gilt:
\[x_n\stackrel{n\to\infty}\to x^*\]
Weiter gilt für alle $n\in\MdN$:
\[\|x_n-x^*\|\le\frac{L^n}{1-L}\|x_1-x_0\|\]
Diese Folge heißt Folge der \textbf{sukzessiven Approximationen}.
\end{satz}
\begin{beweis}
Sei $x_0\in A$ und $(x_n)$ wie oben definiert. Es gilt:
\[\|x_2-x_1\|=\|F(x_1)-F(x_2)\|\le L\cdot \|x_1-x_0\|\]
Induktiv lässt sich zeigen:
\[\forall k\in\MdN_0: \|x_{k+1}-x_k\|\le L^k\cdot \|x_1-x_0\|\]
Seien nun $m,n\in\MdN$ und $m>n$, dann gilt:
\begin{align*}
\|x_m-x_n\| &= \|(x_m-x_{m-1})+\cdots+(x_{n+1}-x_n)\|\\
&\le \|x_m-x_{m-1}\|+\cdots+\|x_{n+1}-x_n\|\\
&\le L^{m-1}\|x_1-x_0\|+\cdots+L^n\|x_1-x_0\|\\
&=(L^{m-1}+\cdots+L^n)\cdot \|x_1-x_0\|\\
&= L^n(1+\cdots+L^{m-n-1})\cdot \|x_1-x_0\|\\
&\le L^n(\sum_{j=0}^\infty L^j)\cdot \|x_1-x_0\|\\
&= \frac{L^n}{1-L}\|x_1-x_0\|
\end{align*}
Also ist $(x_n)$ eine CF. Da $X$ außerdem $BR$ ist, existiert ein $x^*\in X$ mit
$x_n\to x^*$. Wegen $(x_n)\subseteq A$ und $A$ abgeschlossen ist außerdem $x^*\in A$.\\
Festes $n$ und $m\to\infty$ liefert aus obiger Gleichung:
\[\forall n\in\MdN:\|x_n-x^*\|\le \frac{L^n}{1-L}\|x_1-x_0\|\]
Für $F(x^*)$ gilt also:
\begin{align*}
\|F(x^*)-x^*\| &= \|F(x^*)-x_{n+1}+x_{n+1}-x^*\|\\
&\le \|F(x^*)-x_{n+1}\|+\|x_{n+1}-x^*\|\\
&=\|F(x^*)-F(x_n)\|+\|x_{n+1}-x^*\|\\
&\le L\|x^*-x_n\|+\|x_{n+1}-x^*\|\stackrel{n\to\infty}\to 0
\end{align*}
Daraus folgt:
\[\|F(x^*)-x^*\| = 0\iff F(x^*)=x^*\]
Sei nun $z\in A$ und $F(z)=z$. Es gilt:
\begin{align*}
&\|x^*-z\|=\|F(x^*)-F(z)\| \le L\|x^*-z\|\\
\implies &(1-L)\|x^*-z\| \le 0\\
\implies &x^*=z
\end{align*}
Also ist $x^*$ eindeutig.
\end{beweis}
\chapter{Differentialgleichungen: Grundbegriffe}
In diesem Paragraphen seien $I,J,\ldots$ immer Intervalle in $\MdR$.
\begin{erinnerung}
Seien $p,k\in\MdN$. Eine Funktion $y=(y_1,\ldots,y_p):I\to\MdR^p$ heißt
$k$-mal (stetig) db, genau dann wenn $y_1,\ldots,y_p$ $k$-mal auf $I$ (stetig)
db sind.\\
In diesem Fall ist $y^{(j)}=(y_1^{(j)},\ldots,y_p^{(j)})\ (j=1,\ldots,k)$.
\end{erinnerung}
\begin{definition}
\index{gewöhnliche Differentialgleichung}\index{Differentialgleichung!gewöhnliche}
\index{Differentialgleichung!Lösung}\index{Lösung!einer Differentialgleichung}
Seien $n,p\in\MdN$, sei weiter
$D\subseteq\MdR\times\underbrace{\MdR^p\times\cdots\times\MdR^p}_{n+1 \text{ Faktoren}}$
und $F:D\to\MdR^p$ eine Funktion.\\
Eine Gleichung der Form:
\begin{align*}
F(x,y,\ldots,y^{(n)})=0 \tag{i}
\end{align*}
heißt eine \textbf{(gewöhnliche) Differentialgleichung} (Dgl) \textbf{$n$-ter Ordnung}.\\
Eine Funktion $y:I\to\MdR^p$ heißt eine \textbf{Lösung} (Lsg) von (i), genau dann wenn
$y$ auf $I$ $n$-mal db, für alle $x\in I, (x,y(x),\ldots,y^{(n)}(x))\in D$ ist und gilt:
\[\forall x\in I: F(x,y(x),\ldots,y^{(n)}(x))=0\]
\end{definition}
\begin{beispiele}
\item Sei $n=p=1$, $F(x,y,z)=z+\frac yx$ und $D=\Set{(x,y,z)\in\MdR^3 | x\ne 0}$, dann ist die
zugehörige Dgl:
\[y'+\frac yx =0\]
Z.B. ist $y:(0,\infty)\to\MdR, y(x)=\frac1x$ eine Lösung der Dgl.\\
Weitere Lösungen sind:
\begin{align*}
y:(0,1)\to\MdR,y(x):=0\\
y:(-\infty,0)\to\MdR,y(x):=\frac3x
\end{align*}
\item Sei $n=1,p=2$ und folgende Dgl gegeben:
\[y'=\begin{pmatrix}y_1'\\y_2'\end{pmatrix}=\begin{pmatrix}-y_2\\y_1\end{pmatrix}\]
Dann ist $y:\MdR\to\MdR^2, y(x):=(\cos x,\sin x)$ eine Lösung der Dgl.
\end{beispiele}
\begin{definition}
\index{explizite Differentialgleichung}\index{Differentialgleichung!explizite}
Seien $n,p\in\MdN, D\subseteq \MdR\times\underbrace{\MdR^p\times\cdots\times\MdR^p}_{n \text{ Faktoren}}$
und $f:D\to\MdR^p$.\\
Eine Gleichung der Form:
\begin{align*}
y^{(n)}=f(x,y,\ldots,y^{(n-1)})\tag{ii}
\end{align*}
heißt \textbf{explizite Differentialgleichung $n$-ter Ordnung}.\\
(hier gilt: $F(x,y,\ldots,y^{(n)})=y^{(n)}-f(x,y,\ldots,y^{(n-1)})$)
\end{definition}
\begin{definition}
\index{Anfangswertproblem}
\index{Anfangswertproblem!Lösung}\index{Lösung!eines Anfangswertproblems}
\index{eindeutige Lösung}\index{Lösung!eindeutige}
Seien $p,n,D$ und $f$ wie oben. Weiter sei $(x_0,y_0,\ldots,y_{n-1})\in D$ fest.\\
Dann heißt:
\begin{align*}
\begin{cases}y^{(n)}=f(x,y,\ldots,y^{(n-1)})\\
y(x_0)=y_0,\ldots,y^{(n-1)}(x_0)=y_{n-1}\end{cases}\tag{iii}
\end{align*}
ein \textbf{Anfangswertproblem} (AwP).\\
Eine Funktion $y:I\to\MdR^p$ heißt eine \textbf{Lösung} des AwP (iii), genau dann
wenn $y$ eine Lösung von (ii) ist und gilt:
\[y(x_0)=y_0,\ldots,y^{(n-1)}(x_0)=y_{n-1}\]
Das AwP heißt \textbf{eindeutig lösbar}, genau dann wenn (iii) eine Lösung hat und
für je zwei Lösungen $y:I\to\MdR^p,\tilde y:J\to\MdR^p$ von (iii) gilt:
\[\forall x\in I\cap J:y(x)=\tilde y(x)\]
(Beachte: $x_0\in I\cap J$)
\end{definition}
\begin{beispiele}
\item Sei $n=p=1$ und das folgende AwP gegeben:
\[\begin{cases}
y'=2\sqrt{|y|}\\
y(0)=0
\end{cases}\]
Dann sind:
\begin{align*}
&y:\MdR\to\MdR, x\mapsto x^2\\
&y:\MdR\to\MdR, x\mapsto 0
\end{align*}
Lösungen des AwP.
\item Sei $n=p=1$ und das folgende AwP gegeben:
\[\begin{cases}
y'=y\\
y(0)=1
\end{cases}\]
Dann ist:
\[y:\MdR\to\MdR, x\mapsto e^x\]
eine Lösung des AwP. In §19 werden wir sehen, dass dieses AwP eindeutig lösbar ist.
\end{beispiele}
\chapter{Lineare Differentialgleichungen 1. Ordnung}
In diesem Paragraphen sei $I\subseteq\MdR$ ein Intervall und $a,s:I\to\MdR$ \textbf{stetig}.
Weiter sei $J\subseteq I$ ein Teilintervall von $I$.
\begin{definition}
\index{linear!Differentialgleichung (1. Ordnung)}\index{Differentialgleichung!lineare (1.Ordnung)}
\index{homogen!Differentialgleichung}\index{Differentialgleichung!homogene}
\index{inhomogen!Differentialgleichung}\index{Differentialgleichung!inhomogene}
\index{Störfunktion}
Die Differentialgleichung
\begin{align*}
& y'=a(x)y+s(x)&\tag{$*$}
\end{align*}
heißt \textbf{lineare Differentialgleichung 1. Ordnung}. Sie heißt \textbf{homogen},
falls $s\equiv 0$, anderenfalls heißt sie \textbf{inhomogen}. $s$ heißt \textbf{Störfunktion}.
\end{definition}
Wir betrachten zunächst die zu ($*$) gehörende \textbf{homogene Gleichung}:
\begin{align*}
&y'=a(x)y&\tag{H}
\end{align*}
Aus Ana I 23.14 folgt, dass $a$ auf $I$ eine Stammfunktion $A$ besitzt.
\begin{satz}[Lösung einer homogenen linearen Dgl 1. Ordnung]
Sei $y:J\to\MdR$ eine Funktion. $y$ ist genau dann eine Lsg von (H), wenn ein $c\in\MdR$
existiert mit:
\[y(x)=c\cdot e^{A(x)}\]
\end{satz}
\begin{beweis}
\begin{enumerate}
\item["`$\impliedby$"'] Es existiere ein $c\in\MdR$, sodass $y(x)=ce^{A(x)}$ für $x\in J$. Dann gilt:
\[\forall x\in J: y'(x)=c\cdot e^{A(x)}\cdot A'(x)=a(x)\cdot c\cdot e^{A(x)}=a(x)y(x)\]
\item["`$\implies$"'] Sei $g(x):=\frac{y(x)}{e^{A(x)}}$. Nachrechnen: $\forall x\in J:g'(x)=0$\\
Aus Ana I folgt, dass ein $c\in\MdR$ existiert, sodass für alle $x\in J$ gilt $g(x)=c$.
\end{enumerate}
\end{beweis}
\begin{satz}[Eindeutige Lösung eines Anfangswertproblems]
Sei $x_0\in I,y_0\in\MdR$. Dann hat das
\[\text{AwP}
\begin{cases}
y'=a(x)y\\
y(x_0)=y_0
\end{cases}\]
auf $I$ genau eine Lösung.
\end{satz}
\begin{beweis}
Sei $c\in\MdR,y(x)=c\cdot e^{A(x)}$ für alle $x\in I$. Dann folgt aus 19.1, dass
$y$ eine Lösung von (H) ist. Außerdem gilt:
\begin{align*}
&y_0=y(x_0)\\
\iff &y_0=c\cdot e^{A(x_0)}\\
\iff &c=y_0\cdot e^{-A(x_0)}
\end{align*}
\end{beweis}
\begin{beispiel}
Sei das folgende AwP gegeben:
\[\begin{cases}
y'=\sin(x)y\\
y(0)=1
\end{cases}\]
Die allgemeine Lösung der homogenen Gleichung $y'=\sin(x)y$ ist für $c\in\MdR$:
\[\importantbox{y(x)=c\cdot e^{-\cos(x)}}\]
Außerdem gilt:
\[1=y(0)=c\cdot e^{-\cos(0)}=\frac ce\]
Also folgt $c=e$ und damit ist die Lösung des AwP $y(x)=e^{1-\cos(x)}$.
\end{beispiel}
\index{Variation der Konstanten}
Nun betrachten wir die \textbf{inhomogene Gleichung}
\begin{align*}
y'=a(x)y+s(x)\tag{IH}
\end{align*}
Für eine spezielle Lösung $y_s$ von (IH) macht man den Ansatz $y_s(x)=c(x)\cdot e^{A(x)}$
mit einer (unbekannten) db Funktion $c$. Dies heißt \textbf{Variation der Konstanten}.\\
Mit diesem Ansatz gilt:
\begin{align*}
y_s'(x)&=c'(x)\cdot e^{A(x)}+c(x)\cdot e^{A(x)}\cdot a(x)\\
&\stackrel{!}{=}a(x)y_s(x)+s(x)\\
&=a(x)c(x)\cdot e^{A(x)}+s(x)
\end{align*}
Dies ist äquivalent dazu, dass gilt:
\begin{align*}
&c'(x)\cdot e^{A(x)}=s(x)\\
\iff &c'(x)=s(x)\cdot e^{-A(x)}\\
\iff &\importantbox{c(x)=\int s(x)\cdot e^{-A(x)}\text{ d}x}
\end{align*}
Ist also $c$ eine Stammfunktion von $s\cdot e^{-A}$, so ist $y_s(x):=c(x)\cdot e^{A(x)}$
eine Lösung von (IH). Insbesondere besitzt (IH) auf $I$ Lösungen.
\begin{beispiel}
Sei folgende inhomogene Gleichung gegeben:
\begin{align*}
y'=\sin(x)y+\sin(x)\tag{$*$}
\end{align*}
Der Ansatz $y_s(x)=c(x)\cdot e^{-\cos(x)}$ für eine spezielle Lösung von ($*$) liefert wie oben:
\[c(x)=\int \sin(x)\cdot e^{\cos(x)}\text{ d}x = -e^{\cos(x)}\]
Dann ist $y_s(x)=-e^{\cos(x)}\cdot e^{-\cos(x)}=-1$.
\end{beispiel}
\begin{definition}
Definiere die Lösungsmengen:
\begin{align*}
L_H &:=\Set{y:I\to\MdR | y\text{ ist eine Lösung von (H)} }\\
L_{IH}&:=\Set{y:I\to\MdR | y\text{ ist eine Lösung von (IH)}}
\end{align*}
16.1$\implies$ $L_H=\Set{c\cdot e^{A} | c\in \MdR}$. Bekannt: $L_{IH}\ne\emptyset$.
\end{definition}
\begin{satz}[Lösungen]
Sei $y_s\in L_{IH}, x_0\in I,y_0\in \MdR$.
\begin{enumerate}
\item $y\in L_{IH}\iff \exists y_h\in L_{H}: y=y_h+y_s$
\item Das
\[
\text{AwP}
\begin{cases}
y'=a(x)y+s(x)\\
y(x_0)=y_0
\end{cases}\]
hat auf $I$ genau eine Lösung
\end{enumerate}
\end{satz}
\begin{beweis}
Leichte Übung!
\end{beweis}
\begin{beispiele}
\item ($I=\MdR$) Bestimme die allg. Lösung von
\begin{align*}
y'=2xy+x\tag{$*$}
\end{align*}
1. Bestimme die allg. Lösung der Gleichung $y'=2xy$: $y(x)=ce^{x^2} (c\in\MdR)$.\\
2. Bestimme eine spezielle Lösung von $(*)$: $y_s(x)=ce^{x^2}$ mit $c(x)=\int xe^{-x^2}=-\frac 12 e^{-x^2}$
Also: $y_s(x)=-\frac12$\\
3. Die Allgemeine Lösung von $(*)$ lautet:
\[y(x)=ce^{x^2}-\frac 12 \quad(c\in\MdR)\]
\item Löse das AwP:
\[\begin{cases}
y'=2xy+x\\
y(1)=-1
\end{cases}\]
Allg. Lösung der Dgl: $y(x)=ce^{x^2}-\frac 12$\\
\[-1=y(1)=ce-\frac 12\implies c=-\frac 1{2e}\]
Lösung des AwPs: $y(x)=-\frac1{2e}e^{x^2}-\frac 12$.
\end{beispiele}
\chapter{Differentialgleichungen mit getrennten Veränderlichen}
In diesem §en seien $I,J\subseteq\MdR$ Intervalle, $f\in C(I),g\in C(J),x_0\in I$ und
$y_0\in J$.
\begin{definition}
\index{Differentialgleichung!mit getrennten Veränderlichen}
\index{getrennte Veränderliche!Differentialgleichung mit}
Die Differentialgleichung:
\begin{align*}
y'=f(x)g(y)\tag{i}
\end{align*}
heißt \textbf{Differentialgleichung mit getrennten Veränderlichen}.\\
Wir betrachten auch noch das
\begin{align*}
\text{AwP}
\begin{cases}
y'=f(x)g(y)\\
y(x_0)=y_0
\end{cases}
\tag{ii}
\end{align*}
\end{definition}
\begin{satz}[Lösungen]
Sei $y_0\in J^0$ (also ein innerer Punkt von $J$) \textbf{und} $g(y)\ne 0\ \forall y\in J$.\\
Dann existiert ein Intervall $I_{x_0}$ mit $x_0\in I_{x_0}\subseteq I$ und:
\begin{enumerate}
\item Das AwP (ii) hat eine Lösung $y:I_{x_0}\to\MdR$.
\item Die Lösung aus (1) erhält man durch Auflösen der folgenden Gleichung nach $y(x)$.
\begin{align*}
\importantbox{\int_{y_0}^{y(x)}\frac 1{g(t)}\text{ d}t=\int_{x_0}^x f(t)\text{ d}t\tag{$*$}}
\end{align*}
\item Sei $U\subseteq I$ ein Intervall und $u:U\to\MdR$ eine Lösung des AwPs (ii),
so ist $U\subseteq I_{x_0}$ und $u=y$ auf $U$ (wobei $y$ die Lösung aus (1) ist).\\
Insbesondere ist das AwP (ii) eindeutig lösbar.
\end{enumerate}
\end{satz}
\begin{beweis}
Definiere $G\in C^1(J)$ und $F\in C^1(I)$ durch:
\begin{align*}
&G(y):=\int_{y_0}^y \frac 1{g(t)}\text{ d}t &&F(x):=\int_{x_0}^x f(t)\text{ d}t
\end{align*}
Dann ist $G'=\frac 1g, F'=f$ und $F(x_0)=0=G(y_0)$.\\
Da für alle $y\in J$ gilt:
\[G'(y)=\frac 1{g(y)}\ne 0\]
ist entweder $G'>0$ auf $J$ oder $G'<0$ auf $J$.\\
Also existiert die Umkehrabbildung $G^{-1}:G(J)\to J$, $K:=G(J)$ ist ein Intervall und es gilt:
\begin{align*}
y_0\in J^0&\implies 0=G(y_0)\in K^0\\
&\implies \exists \ep>0:(-\ep,\ep)\subseteq K
\end{align*}
Da $F$ stetig in $x_0$ ist, existiert ein $\delta>0$ mit:
\[|F(x)|=|F(x)-F(x_0)|<\ep \quad \forall x\in U_\delta(x_0)\cap I=:M_0\]
$M_0$ ist ein Intervall, $x_0\in M_0\subseteq I$ und $F(M_0)\subseteq K$. Sei
\[\mathfrak{M}:=\Set{M\subseteq I | M \text{ ist Intervall},x_0\in M,F(M)\subseteq K}\]
Da $M_0\in\mathfrak{M}$ ist, ist $\mathfrak{M}\ne\emptyset$. Sei
\[I_{x_0}:=\bigcup_{M\in\mathfrak{M}} M\]
dann ist $I_{x_0}\in\mathfrak{M}$. Definiere nun $y:I_{x_0}\to\MdR$ durch:
\[y(x):=G^{-1}(F(x))\]
so ist $y$ auf $I_{x_0}$ differenzierbar und es gilt:
\[y(x_0)=G^{-1}(F(x_0))=G^{-1}(0)=y_0\]
Weiter gilt:
\begin{align*}\forall x\in I: G(y(x))=F(x)\tag{+}\end{align*}
also gilt $(*)$.
Differenzierung von (+) liefert:
\begin{align*}
&\forall x\in I_{x_0}: G'(y(x)y'(x)=F'(x)\\
\implies &\forall x\in I_{x_0}: \frac 1{g(y(x))}y'(x)=f(x)\\
\implies &\forall x\in I_{x_0}: y'(x)=f(x)g(y(x))
\end{align*}
\begin{itemize}
\item[(3)] Es ist $u'(t)=f(t)g(u(t))$ für alle $t\in U$ \textbf{und} $u(U)\subseteq J$.
Daraus folgt:
\begin{align*}
&f(t)=\frac{u'(t)}{g(u(t))}\\
\implies &F(x)=\int_{x_0}^x f(t)\text{ d}t=\int_{x_0}^x \frac{u'(t)}{g(u(t))}\text{ d}t\\
&\stackrel{Subst.}{=}
\begin{cases}
s=u(t)\\
\text{ d}s= u'(t)\text{ d}t\\
t=x_0\implies s=u(x_0)=y_0
\end{cases}=\int_{y_0}^{u(x)}\frac 1{g(s)}\text{ d}s=G(u(x))
\end{align*}
Also: $\forall x\in U:F(x)=G(u(x))$. Somit gilt:
\[F(U)=G(u(U))\subseteq G(J)=K\]
D.h. $U\in\mathfrak{M}$ und daher ist: $U\subseteq I_{x_0}$.\\
Weiter gilt:
\[\forall x\in U: u(x)=G^{-1}(F(x))=y(x)\]
\end{itemize}
\end{beweis}
\textbf{Für die Praxis: Trennung der Veränderlichen (TDV):}\\
\begin{align*}
&y'=f(x)g(y)\\
\to\ &\frac{\text{ d}y}{\text{ d}x}=f(x)g(y)\\
\to\ &\frac{\text{ d}y}{g(y)}=f(x)\text{ d}x\\
\to\ &\int{\frac{\text{ d}y}{g(y)}}=\int f(x)\text{ d}x+c\tag{iii}
\end{align*}
Die allgemeine Lösung von (i) erhält man durch Auflösen der Gleichung (iii) nach $y$.\\
Zur Lösung von (ii) passt man die Konstante $c$ der Anfangsbedingung $y(x_0)=y_0$ an.
\begin{beispiele}
\item Sei $y'=2xe^{-y}$. Dann gilt:
\begin{align*}
\frac{\text{ d}y}{\text{ d}x}=2xe^{-y}\\
\to\ &e^y\text{ d}y = 2x\text{ d}x\\
\to\ &\int e^y\text{ d}y=\int 2x\text{ d}x+c\\
\to\ & e^y=x^2+c\\
\to\ &y=\log(x^2+c)
\end{align*}
Ist z.B. $c=0$, so ist $y(x):=\log(x^2)$ eine Lösung auf $(0,\infty)$, oder
$y(x)=\log(x^2)$ ist eine auf $(-\infty,0)$.\\
$c=2: y(x)=\log(x^2+2)$ ist eine Lösung auf $\MdR$.\\
$c=-1: y(x)=\log(x^2-1)$ ist eine Lösung auf $(1,\infty)$.\\
Löse das
\begin{align*}
\text{AwP}
\begin{cases}
y'=2xe^{-y}\\
y(1)=1
\end{cases}
\end{align*}
Allg. Lösung der Dgl:
\begin{align*}
&y(x)=\log(x^2+c)\\
\implies &1=y(1)=\log(1+c)\\
\implies &e=1+c \iff c=e-1
\end{align*}
$y(x)=\log(x^2+e-1)$ ist Lösung des AwPs auf $\MdR$.
\item $y'=\frac{x^2}{1-x}\cdot\frac{1+y}{y^2}$. Trennung der Veränderlichen:
\begin{align*}
&\frac{\text{ d}y}{\text{ d}x}=\frac{x^2}{1-x}\cdot\frac{1+y}{y^2}\\
\to\ &\frac{y^2}{y+1}\text{ d}y=\frac{x^2}{x-1}\text{ d}x\\
\to\ &\frac{y^2}2-y+\log(1+y)=\frac{x^2}2+x+\log(x-1)+c
\end{align*}
(Lösungen in impliziter Form)
\end{beispiele}
\chapter{Systeme von Differentialgleichungen 1. Ordnung}
In diesem Paragraphen sei $D \subseteq \MdR^{n+1}$ und $f = (f_1, \ldots, f_n): D \to \MdR^n$. Für Punkte im $\MdR^{n+1}$ schreiben wir $(x,y)$, wobei $x \in \MdR$ und $y = (y_1,...,y_n) \in \MdR^n$.
\begin{definition}
\index{System von Differentialgleichungen}\index{Differentialgleichung!System von}
\index{Anfangswertproblem}
Ein \textbf{System von Differentialgleichungen 1. Ordnung} hat die Form:
\begin{align*}
\begin{cases}
y_1'=f_1(x, y_1, \ldots, y_n)\\
y_2'=f_2(x, y_1, \ldots, y_n)\\
\quad\ \vdots\\
y_n'=f_n(x, y_1, \ldots, y_n)
\end{cases}
\tag{i}
\quad\text{oder kurz: } y'=f(x,y)
\end{align*}
Wir betrachten auch noch das
\begin{align*}
\text{AwP}
\begin{cases}
y'=f(x,y)\\
y(x_0) = y_0\\
\end{cases}
\tag{ii}
\quad\text{(wobei } (x_0, y_0) \in D)
\end{align*}
\end{definition}
\begin{satz}[Integralgleichung zur Lösbarkeit eines Anfangswertproblems]
Sei $I \subseteq \MdR$ ein Intervall, $D := I \times \MdR^n, x_o\in I, y_0\in \MdR^n$ und $f:D\to\MdR^n$ sei stetig. Für $y\in C(I,\MdR^n)$ gilt:
\[\text{$y$ ist eine Lösung des AwP (ii)} \iff \forall x\in I:y(x) = y_0 + \int_{x_0}^x f(t, y(t)) \text{d}t \]
In diesem Fall ist $y \in C^1(I, \MdR^n)$.
\end{satz}
\begin{beweis}
\begin{enumerate}
\item["`$\implies$"'] Es gilt: $y'(x) = f(x, y(x)) \forall x\in I$; da $y$ und $f$ stetig sind, folgt: $y' \in C(I,\MdR )$. Weiter:
\[\int_{x_0}^x f(t,y(t)) \text{d}t = \int_{x_0}^x y'(t)\text{d}t = y(x) - y(x_0) = y(x) - y_0 \quad \forall x\in I.\]
Bringt man $y_0$ auf die linke Seite, ergibt sich die Behauptung.
\item["`$\impliedby$"'] Es gelte für alle $x\in I$:
\[y(x) = y_0 + \int_{x_0}^x f(t, y(t))\text{d}t\]
Aus dem zweiten Hauptsatz der Differential- und Integralrechnung folgt: $y$ ist auf $I$ differenzierbar und
\[ y'(x) = \frac{\text{d}}{\text{d}x} \int_{x_0}^x f(t, y(t))\text{d}t = f(x, y(x)) \quad \forall x \in I. \]
Also erfüllt $y$ die Differentialgleichung.
Klar: $y(x_0) = y_0$. Also löst $y$ das AwP.
\end{enumerate}
\end{beweis}
\begin{definition}
\index{Lipschitz-Bedingung}
\index{Lipschitz-Bedingung!lokale}\index{lokal!Lipschitz-Bedingung}
Es sei weiterhin $D \subseteq \MdR^{n+1}$. Sei $f: D \to \MdR^n$ eine Funktion.
\begin{enumerate}
\item $f$ genügt auf $D$ einer \textbf{Lipschitz-Bedingung bezüglich \boldmath \(y\)}
\[
:\iff
\exists L \ge 0:
\forall (x,y), (x,\bar y ) \in D:
\|f(x,y)-f(x,\bar y)\| \le L \|y-\bar y \|
\]
\item $f$ genügt auf $D$ einer \textbf{lokalen Lipschitz-Bedingung bezüglich \boldmath \(y\)}
\[
:\iff
\forall a \in D \exists \text{Umgebung } U_a:
f_{|_{D \cap U}} \text{ genügt einer Lipschitz-Bedingung bzgl. } y
\]
\end{enumerate}
\end{definition}
\begin{satz}[Satz über die $\alpha$-Norm]
Sei $I = [a,b] \subseteq \MdR, x_o \in I$ und für $y\in C(I, \MdR^n)$ sei $\|y\|_\infty := \max \{\|y(x)\| : x\in I \}$ wie in §17 (also ist $(C(I, \MdR^n), \|\cdot \|_\infty )$ ein Banachraum).
Sei $\alpha > 0$ mit $\varphi_\alpha (x) := e^{-\alpha |x-x_0|}\ (x \in I)$.
Für $y \in C(I, \MdR^n)$ sei $\|y\|_\alpha := \max \{\varphi_\alpha(x)\cdot \|y(x)\| : x\in I \}$.
Dann:
\begin{enumerate}
\item $\|\cdot\|_\alpha$ ist eine Norm auf $C(I,\MdR^n)$.
\item Seien $c_1 := \min \{ \varphi_\alpha(x) : x \in I \},\text{ } c_2 := \max \{ \varphi_\alpha(x) : x \in I \}$. Es gilt:
\[c_1\|y\|_\infty \leq \|y\|_\alpha \leq c_2 \|y\|_\infty \quad \forall y \in C(I, \MdR^n)\]
\item Sei $(g_k)$ eine Folge in $C(I,\MdR^n)$ und $g \in C(I, \MdR^n)$.
\begin{enumerate}
\item Es gilt:
\begin{align*}
\|g_k -g\|_\alpha \stackrel{k \to \infty}\to 0 &\iff \|g_k - g\|_\infty \stackrel{k \to \infty}\to 0\\
&\iff (g_k)\text{ konvergiert auf $I$ gleichmäßig gegen $g$}
\end{align*}
\item $(g_k)$ ist eine Cauchy-Folge in $(C(I,\MdR^n), \|\cdot \|_\alpha)$, genau dann
wenn $(g_k)$ eine Cauchy-Folge in $(C(I,\MdR^n), \|\cdot \|_\infty)$ ist.
\item $(C(I,\MdR^n), \|\cdot \|_\alpha)$ ist ein Banachraum.
\end{enumerate}
\end{enumerate}
\end{satz}
\begin{beweis}
(1), (2) \text{ Nachrechnen.}
(3) \text{ (i) und (ii) folgen aus (2); (iii) folgt aus (i) und (ii).}
\end{beweis}
\textbf{Bezeichnung:} EuE = Existenz und Eindeutigkeit.
\index{Existenz und Eindeutigkeit}
\begin{satz}[EuE-Satz von Picard-Lindelöf (Version I)]
Sei $I = [a,b], x_o \in I, y_0 \in \MdR^n, D:= I \times \MdR^n, f\in C(D, \MdR^n)$
und $f$ genüge auf $D$ einer Lipschitz-Bedingung bezüglich $y$.\\
\\
Dann ist das
\begin{align*}\text{AwP}
\begin{cases}
y'=f(x,y)\\
y(x_0) = y_0\\
\end{cases}
\tag{ii}
\end{align*}
auf $I$ eindeutig lösbar.
Ist $g_0 \in C(I, \MdR^n)$ und $(g_k)$ definiert durch
\[ g_{k+1}(x) := y_0 + \int_{x_0}^x f(t, g_k(t)) \text{d}t \quad (x \in I, k \geq 0), \]
dann konvergiert $(g_k)$ auf $I$ gleichmäßig gegen die Lösung des AwPs (ii).\\
$(g_n)$ heißt Folge der sukzessiven Approximationen.
\end{satz}
\begin{beweis}
Da $f$ auf $D$ einer Lipschitz-Bedingung genügt, gilt:
\[\exists L > 0: \|f(x,y) - f(x, \bar y )\| \leq L \|y- \bar y \| \quad \forall(x,y), (x, \bar y ) \in D.\]
Es sei $\alpha := 2L$; $\varphi_\alpha$ und $\|\cdot\|_\alpha$ seien wie in 21.2, $X := C(I, \MdR^n)$. Definiere $F: X \to X$ durch
\[(F(y))(x) := y_0 + \int_{x_0}^x f(t, y(t))\text{d}t\]
Für $y \in X$ gilt dann:
\begin{align*}
y \text{ ist Lösung des AwP} &\iff F(y) = y\\
F(y) = y &\iff y(x) = y_0 + \int_{x_0}^x f(t, y(t))\text{d}t \quad \forall x \in I \\
&\stackrel{21.1}\iff y \text{ löst das AwP (ii)}
\end{align*}
Wir zeigen: $\|F(y)-F(z)\|_\alpha \leq \frac12 \|y-z\|_\alpha \quad \forall y,z \in X$. \textbf{Alle} Behauptungen folgen dann aus 17.2.
Seien $y,z \in X, x \in I$. Dann ist
\begin{align*}
\|(F(y))(x) - (F(z))(x)\|&= \left\|\int_{x_0}^x (f(t, y(t)) - f(t, z(t)))\text{ d}t \right\|\\
&\stackrel{12.4}\le \left| \int_{x_0}^x \|f(t, y(t)) - f(t,z(t))\| \text{ d}t \right|\\
&\le \left| \int_{x_0}^x L \|y(t)-z(t)\| \text{ d}t \right|\\
&= L \left| \int_{x_0}^x \|y(t)-z(t)\| \text{ d}t \right| \displaybreak[0]\\
&= L \left| \int_{x_0}^x \|y(t)-z(t)\| \varphi_\alpha (t) \cdot \frac1{\varphi_\alpha(t)}\text{ d}t \right| \displaybreak[0]\\
&\le L \left| \int_{x_0}^x \|y-z\|_\alpha \cdot \frac1{\varphi_\alpha(t)}\text{ d}t \right| \displaybreak[0]\\
&\le L \|y-z\|_\alpha \left| \int_{x_0}^x \frac1{\varphi_\alpha(t) }\text{ d}t\right|\\
&= \frac{L}{\alpha} \|y-z\|_\alpha \left(\frac1{\varphi_\alpha(x)} -1 \right)\\
&\le \frac12 \|y-z\|_\alpha \frac{1}{\varphi_\alpha(x)}
\end{align*}
Also gilt:
\begin{align*}
&\|(F(y))(x) - (F(z))(x)\| \leq \frac12 \|y-z\|_\alpha \frac{1}{\varphi_\alpha(x)} \quad \forall x \in I\\
\implies &\varphi_\alpha(x) \|(F(y))(x) - (F(z))(x)\| \leq \frac12 \|y-z\|_\alpha \quad \forall x \in I
\end{align*}
Fazit: $\|F(y)-F(z)\|_\alpha \leq \frac12 \|y-z\|_\alpha$.
\end{beweis}
\textbf{Frage: } Warum haben wir in obigem Beweis nicht die $\|\cdot \|_\infty$-Norm benutzt?
\begin{align*}
\|(F(y))(x) -(F(z))(x)\| &\stackrel{\text{wie oben}}\leq L \left| \int_{x_0}^x \|y(t)-z(t)\| dt \right| \\
&\leq L \left| \int_{x_0}^x \|y-z\|_\infty dt \right| \\
&\leq L \|y-z\|_\infty \left| \int_{x_0}^x 1 \text{d}t \right|\\
&= L \|y-z\|_\infty |x-x_0|\\
&\leq L(b-a) \|y-z\|_\infty \quad \forall x \in I
\end{align*}
Dann: $\|F(y)-F(z)\|_\infty \leq L(b-a)\|y-z\|_\infty$
I.A. wird $L(b-a)$ \textbf{nicht} kleiner 1 sein!
\begin{beispiel}[zu 21.3]
Zeige, dass das
\begin{align*}
\text{AwP}
\begin{cases}
y' = 2x(1+y)\\
y(0) = 0
\end{cases} \end{align*}
\textbf{auf $\mathbb{R}$} genau eine Lösung hat.\\
Sei $a > 0$ und $I := [-a, a]; f(x,y) = 2x(1+y).$ Dann gilt $\forall x \in I, \forall y, \bar y \in \mathbb{R}:$
\begin{align*}
|f(x,y)-f(x, \bar y )|&= |2xy-2x\bar y | \\
&= 2|x||y-\bar y | \\
&\leq 2a|y-\bar y |.
\end{align*}
Aus 21.3 folgt dann: das Anfangswertproblem hat auf $I$ genau eine Lösung $y: [-a, a] \to \mathbb{R}$.
Setze nun $g_0(x) :=0$ und $(g_k)$ sei definiert wie in 21.3.
Induktiv sieht man (Übung!):
\[g_k(x) = x^2 + \frac{x^4}{2!} + \frac{x^6}{3!} + \cdots + \frac{x^{2k}}{k!} \]
Aus 21.3 folgt: $(g_k)$ konvergiert auf $I$ gleichmäßig gegen $y$.\\
Aus Analysis I folgt: $(g_k)$ konvergiert auf $I$ gleichmäßig gegen $e^{x^2} - 1$.\\
Also: Lösung des AwPs auf $[-a,a]$: $y(x) = e^{x^2} -1$.\\
Es war $a > 0$ beliebig, also ist $y(x) = e^{x^2} -1$ \textbf{die} Lösung des AwPs \textbf{auf $\mathbb{R}$}.
\end{beispiel}
\textbf{Ohne} Beweis:
\begin{satz}[EuE-Satz von Picard-Lindelöf (Version II)]
Sei $I=[a,b] \subseteq \MdR, x_0 \in I, y_0 \in \MdR^n, s > 0$, es sei
\[D := \Set{(x,y)\in\MdR^{n+1} | x \in I, \|y-y_0\| \leq s}\]
und $f \in C(D,\MdR^n)$. Weiter sei
\[M := \max\{\|f(x,y)\| : (x,y) \in D \} > 0\]
und $f$ genüge auf $D$ einer Lipschitz-Bedingung bezüglich $y$.
Außerdem sei
\[J := I \cap \left [x_0 - \frac{s}{M}, x_0 + \frac{s}{M} \right ]\]
Dann hat das
\begin{align*}
\text{AwP}
\begin{cases}
y' = f(x,y)\\
y(x_0) = y_0
\end{cases}
\label{(ii)}
\end{align*}
auf \(J\) genau eine Lösung.
\end{satz}
\textbf{Ohne} Beweis:
\begin{satz}[EuE-Satz von Picard-Lindelöf (Version III)]
Es sei $D \subseteq \MdR^{n+1}$ \textbf{offen}, $(x_0, y_0) \in D, f\in C(D, \MdR^n)$ und $f$ genüge auf $D$ einer \textbf{lokalen} Lipschitz-Bedingung bezüglich $y$.
Dann hat das
\begin{align*}
\text{AwP}
\begin{cases}
y' = f(x,y)\\
y(x_0) = y_0
\end{cases}
\label{(ii)}
\end{align*}
genau eine Lösung.
\\
\\
(Nochmals, das heißt: Das AwP (ii) hat eine Lösung $y: J \to \MdR^n\quad(J \subseteq \MdR$
Intervall) und für je zwei Lösungen $\hat y : \hat J \to \MdR, \tilde y : \tilde J \to \MdR$
von (ii) gilt: $\hat y = \tilde y$ auf $\hat J \cap \tilde J \quad (\hat J, \tilde J \text{ Intervalle in } \MdR$))
\end{satz}
\begin{definition}
\index{Fortsetzbarkeit}
Sei $y: J \to \MdR^n$ ($J \subseteq \MdR$ ein Intervall) eine Lösung des AwPs (ii).\\
\(y\) heißt \textbf{nicht fortsetzbar}, genau dann wenn aus $\hat y : \hat J \to \MdR^n
(\hat J$ ein Intervall in $\MdR$) ist Lösung von (ii) stets folgt, dass $\hat J \subseteq J$
und auf $\hat J$ $\hat y = y$ ist.
\end{definition}
\begin{satz}[Eindeutigkeit einer nicht fortsetzbaren Lösung]
Es seien $D, (x_0, y_0)$ und $f$ wie in 21.5. Dann besitzt das AwP (ii) eine eindeutig bestimmte, nicht fortsetzbare Lösung.
\end{satz}
\begin{beweis}
Es sei
\[\mathfrak{M} := \{ (y,I_y) : I_y \subseteq \MdR \text{ Intervall, }
x_0 \in I_y, y: I_y \to \MdR^n \text{ ist Lösung von (ii)} \}\]
Aus 21.5 folgt, dass $\mathfrak{M} \ne \emptyset$ ist und für
$(y_1, I_{y_1}), (y_2, I_{y_2}) \in \mathfrak{M}$ gilt: $y_1 = y_2$ auf
$I_{y_1} \cap I_{y_2}$.
\begin{align*}
I := \bigcup_{(y, I_y) \in \mathfrak{M}} I_y
\end{align*}
ist ein Intervall. Definiere $y: I \to \MdR^n$ wie folgt: zu $x \in I$ existiert
ein $(y_1, I_{y_1}) \in \mathfrak{M}$, sodass für $x \in I_{y_1}$ gilt: $y(x) := y_1(x)$.
\textbf{Übung:} $y: I \to \MdR^n$ leistet das Gewünschte.
\end{beweis}
\chapter{Lineare Systeme}
In diesem Paragraphen sei $I\subseteq\mdr$ ein Intervall, $x_0\in I, y_0\in\mdr^n,
D:=I\times\mdr^n,b:I\to\mdr^n$ stetig und $A:I\to\mdr^{n\times n}$ ebenfalls stetig
(d.h. für $A(x)=(a_{jk}(x))$ sind alle $a_{jk}:I\to\mdr$ stetig).\\
Hier ist für alle $x\in I$ und $y=(y_1,\ldots,y_n)\in\mdr^n$:
\[f(x,y):=A(x)y+b(x)\]
\begin{definition}
\index{linear!System von Differentialgleichungen}
\index{System von Differentialgleichungen!lineares}
\index{homogen!System von Differentialgleichungen}
\index{System von Differentialgleichungen!homogenes}
\index{inhomogen!System von Differentialgleichungen}
\index{System von Differentialgleichungen!inhomogenes}
\index{Anfangswertproblem}
Das System von Differentialgleichungen:
\begin{align*}
y'=A(x)y+b(x)\tag{S}
\end{align*}
heißt ein \textbf{lineares System}. (Fall $n=1$ siehe §19.)\\
Ist $b\equiv 0$, so heißt (S) \textbf{homogen}, anderenfalls \textbf{inhomogen}.\\
Neben (S) betrachten wir auch noch das zu (S) gehörige \textbf{homogene System}
\begin{align*}
y'=A(x)y\tag{H}
\end{align*}
und das
\begin{align*}
\text{AwP}
\tag{A}
\begin{cases}
y'=A(x)y+b(x)\\
y(x_0)=y_0
\end{cases}
\end{align*}
\end{definition}
\begin{satz}[Lösungen]
\begin{enumerate}
\item (A) hat auf $I$ genau eine Lösung.
\item Das System (S) hat Lösungen auf $I$.
\item Ist $J\subseteq I$ ein Intervall und $\hat y:J\to\mdr^n$ eine Lösung von (S),
so gibt es eine Lösung $y:I\to\mdr^n$ von (S) mit $\hat y=y$ auf $J$.
\item Sei $y_s:I\to\mdr^n$ eine spezielle Lösung von (S), dann ist $y:I\to\mdr^n$ genau dann eine
Lösung von (S) auf $I$, wenn eine Lösung $y_h:I\to\mdr^n$ von (H) existiert mit:
\[y=y_h+y_s\]
\end{enumerate}
\end{satz}
\begin{wichtigebemerkung}
Wegen 22.1(3) gehen wir immer davon aus, dass Lösungen von (S) auf ganz $I$ definiert sind.
\end{wichtigebemerkung}
\begin{beweise}
\item \textbf{Fall 1:} $I=[a,b]$\\
Es ist $f(x,y)=A(x)y+b(x)$. Sei $L:=\max\{\|A(x)\|:x\in I\}$. Für alle $(x,y),(x,\overline y)\in D$ gilt:
\begin{align*}
\|f(x,y)-f(x,\overline y) \| &=\|A(x)(y-\overline y)\|\\
&\stackrel{\text{§1}}{\le} \|A(x)\|\cdot\|y-\overline y\|\\
&\le L\|y-\overline y\|
\end{align*}
Die Behauptung folgt aus 21.3.
\textbf{Fall 2:} $I$ beliebig.\\
Sei $\mathfrak{M}:=\Set{K\subseteq I | K\text{ ist kompaktes Intervall, } x_0\in K}$.
Dann ist $I=\bigcup_{K\in\mathfrak{M}} K$.\\
Ist $x\in I$, so existiert ein $K\in\mathfrak{M}$ mit $x\in K$. Nach Fall 1. hat das
AwP auf $K$ genau eine Lösung $y_K:K\to\mdr^n$. Definiere nun $y:I\to\mdr^n$ wie folgt:
\begin{align}
y(x):=y_K(x)\tag{$*$}
\end{align}
Sei $\tilde K\in\mathfrak{M}$ mit $x\in\tilde K$ und sei $y_{\tilde K}$ die eindeutig
bestimmte Lösung von (A) auf $\tilde K$. Dann ist $y_K=y_{\tilde K}$ auf $K\cap\tilde K$, also:
\[y_K(x)=y_{\tilde K}(x)\]
D.h. $y$ ist durch ($*$) wohldefiniert.\\
\textbf{Leichte Übung}: $y$ ist auf $I$ db und löst das AwP auf $I$.\\
Sei $\tilde y:I\to\mdr^n$ eine weitere Lösung von (A) auf $I$ und sei $x\in I$.
Dann existiert ein $K\in\mathfrak{M}$ mit $x\in K$ und nach Definition gilt $y(x)=y_K(x)$.
Da $\tilde y_K$ eine Lösung des AwPs (A) auf $K$ ist, gilt nach Fall 1.: $\tilde y\mid_K=y_K$
Dann gilt also:
\[\tilde y(x)=\tilde y\mid_K(x)=y_K(x)=y(x)\]
\item Folgt aus (1).
\item Sei $\xi \in J,\eta:=\hat y(\xi)$. Dann ist $\hat y$ eine Lösung auf $J$ des AwPs
\begin{align*}
\tag{+}
\begin{cases}
y'=A(x)+b(x)\\
y(\xi)=\eta
\end{cases}
\end{align*}
Aus (1) folgt, dass das AwP auf $I$ eine eindeutig bestimmte Lösung $y:I\to\mdr^n$ hat. Sei $x\in J$.\\
\textbf{Fall $x=\xi$}:\\
In diesem Fall gilt:
\[\hat y(x)=\hat y(\xi)=\eta=y(\xi)=y(x)\]
\textbf{Fall $x>\xi$}:\\
Sei $K:=[\xi,x]$. Da $\hat y$ und $y$ Lösungen des AwPs (+) auf $[\xi,x]$ sind folgt aus
(1), dass $y=\hat y$ auf $K$, also:
\[\hat y(x)=y(x)\]
\textbf{Fall $x<\xi$}:\\
Sei $K:=[x,\xi]$. Da $\hat y$ und $y$ Lösungen des AwPs (+) auf $[x,\xi]$ sind folgt aus
(1), dass $y=\hat y$ auf $K$, also:
\[\hat y(x)=y(x)\]
\item Leichte Übung!
\end{beweise}
\begin{definition}
Setze $\mathbb{L} := \{ y: I\to \MdR^n : y $ ist eine Lösung von (H) auf $I$ $\}$\\
($y \equiv 0$ liegt in $\mathbb{L}$)
\end{definition}
\begin{satz}[Lösungsmenge als Vektorraum]
\begin{enumerate}
\item Sind $y^{(1)}, y^{(2)} \in \mathbb{L}$ und $\alpha \in \MdR$, so
sind $y^{(1)} + y^{(2)} \in \mathbb{L}$ und $\alpha y^{(1)} \in \mathbb
{L}$. $\mathbb{L}$ ist also ein reeller Vektorraum.
\item Seien $y^{(1)}, ..., y^{(k)} \in \mathbb{L}$. Dann sind
äquivalent:
\begin{enumerate}
\item $y^{(1)}, ... , y^{(k)}$ sind in $\mathbb{L}$ linear unabhängig.
\item $\forall x \in I$ sind $y^{(1)}(x), ..., y^{(k)}(x)$ linear
unabhängig im $\MdR^n$.
\item $\exists \xi \in I: y^{(1)}(\xi ), ..., y^{(k)}(\xi )
$ sind linear unabhängig im $\MdR^n$.
\end{enumerate}
\item $\dim \mathbb{L} = n$.
\end{enumerate}
\end{satz}
\begin{beweise}
\item Nachrechnen
\item Der Beweis erfolgt durch Ringschluss:
\begin{enumerate}
\item[(i)$\implies$ (ii)] Sei $x_1 \in I$. Seien $\alpha_1, ...,
\alpha_k \in \MdR$ und
\begin{align*}
0 &= \alpha_1 y^{(1)}(x_1) + \cdots + \alpha_k y^ {(k)}(x_1)\\
\tilde y :&= \alpha_1 y^{(1)} + \cdots + \alpha_k y^{(k)}
\end{align*}
Aus (1) folgt: $\tilde y \in \mathbb{L}$. Weiter ist $\tilde y$ eine
Lösung des AwPs
\begin{align*} \begin{cases}
y' = A(x) y\\
y(x_1) = 0
\end{cases} \end{align*}
Da $y \equiv 0$ dieses AwP ebenfalls löst und aus 22.1 folgt, dass das AwP
eindeutig lösbar ist, muss gelten:
\[0 = \tilde y = \alpha_1 y^{(1)} + \cdots + \alpha_k y^{(k)}\]
Aus der Voraussetzung folgt dann:
\[\alpha_1 = \alpha_2 = \cdots = \alpha_k = 0\]
Also sind $y^{(1)}(x_1), ..., y^{(k)} (x_1)$ sind linear unabhängig im $\MdR^n$.
\item[(ii) $\implies$ (iii)] Klar \checkmark
\item[(iii) $\implies$ (i)]Seien $\alpha_1, ..., \alpha_k \in \MdR$
und $0 = \alpha_1 y^{(1)} + \cdots + \alpha_k y^{(k)}$, dann folgt:
\[0 = \alpha_1 y^{(1)}(\xi ) + \cdots + \alpha_k y^{(k)}(\xi )\]
Aus der Voraussetzung folgt dann: $\alpha_1 = \alpha_2 = \cdots = \alpha_k = 0$
Also sind $y^{(1)}, ..., y^{(k)}$ linear unabhängig in $\mathbb{L}$.
\end{enumerate}
\item Aus (2) folgt, dass $\dim \mathbb{L} \le n$ ist.
Für $j = 1,..., n$ sei $y^{(j)}$ die eindeutig bestimmte Lösung des
AwPs
\begin{align*}
\begin{cases}
y' = A(x) y\\
y(x_0) = e_j
\end{cases}
(e_j = \text{ j-ter Einheitsvektor im }\MdR^n).
\end{align*}
Dann sind $y^{(1)}(x_0), ..., y^{(n)}(x_0)$ linear unabhängig im $
\MdR^n$. Aus (2) folgt, dass $y^{(1)}, ..., y^{(k)}$ linear unabhängig
in $\mathbb{L}$ sind, also ist $\dim \mathbb{L} \ge n$.
\end{beweise}
\begin{definition}
\index{Differenzierbarkeit!einer $n \times n$-Matrix}
Sei $B : I \to \MdR^{n \times n}, B(x) = \left( b_{jk}(x) \right)$ für alle $x\in I$.\\
$B$ heißt \textbf{differenzierbar} auf $I$, genau dann wenn $b_{jk} : I \to \MdR$
auf $I$ differenzierbar sind ($j,k = 1,\ldots, n$).\\
In diesem Fall ist
\[B'(x) := (b'_{jk}(x)) \quad (x\in I)\]
\end{definition}
\begin{definition}
\index{Lösungs-!System}\index{Lösungs-!Matrix}\index{Wronskideterminante}
\index{Fundamental-!Matrix}\index{Fundamental-!System}
\begin{enumerate}
\item Seien $y^{(1)}, ..., y^{(n)} \in \mathbb{L}$. $y^{(1)}, ..., y^{(n)}$
heißt ein \textbf{Lösungssystem} (LS) von (H).
\[Y(x) := (y^{(1)}(x), ..., y^{(n)}(x))\]
(j-te Spalte von $Y$ = $y^{(j)}$) heißt \textbf{Lösungsmatrix} (LM) von (H).
\[W(x) := \det Y(x)\]
heißt \textbf{Wronskideterminante}.
\item Sei $y^{(1)}, ..., y^{(n)}$ ein Lösungssystem von (H). Sind
$y^{(1)}, ..., y^{(n)}$ linear unabhängig in $\mathbb{L}$, so heißt
$y^{(1)}, ..., y^{(n)}$ ein \textbf{Fundamentalsystem} (FS) und
$Y = (y^{(1)}, ..., y^{(n)})$ eine \textbf{Fundamentalmatrix} (FM).
\item Ist $y^{(1)}, ..., y^{(n)}$ ein FS von (H), so lautet die allgemeine Lösung von (H):
\[y(x) = c_1 y^{(1)}(x) + \cdots + c_n y^{(n)} (x) \quad (c_1, ..., c_n \in \MdR)\]
\end{enumerate}
\end{definition}
\begin{satz}[Zusammenhang FS, FM und Wronskideterminante]
$y^{(1)}, ..., y^{(n)}$ sei ein LS von (H). $Y$ und $W$ seien definiert wie oben. Dann:\begin{enumerate}
\item $Y'(x) = A(x)Y(x) \quad \forall x \in I$.
\item $y^{(1)}, ..., y^{(n)}$ ist ein Fundamentalsystem von (H)\\ $\iff Y(x) \text{ invertierbar } \forall x \in I$ \\ $\iff \exists \xi \in I: Y(\xi )$ ist invertierbar \\ $\iff \forall x \in I: W(x) \neq 0$ \\ $\iff \exists \xi \in I: W(\xi ) \neq 0$.
\end{enumerate}
\end{satz}
\begin{beweise}
\item Nachrechnen
\item folgt aus 22.3.
\end{beweise}
\textbf{Spezialfall:} $n=2$. $A(x) = \begin{pmatrix} a_1(x) & -a_2(x) \\ a_2(x) & a_1(x) \end{pmatrix}$; $a_1, a_2 : I \to \MdR$ stetig. Sei $y^{(1)} = (y_1, y_2)$ eine Lösung von
\begin{align*}
\tag{$*$} y' = A(x) y
\end{align*}
auf $I$ und $y^{(1)} \not\equiv 0$. Das heißt:
\begin{align*}
\begin{cases}
y_1' = a_1(x) y_1 - a_2(x) y_2 \\
y_2' = a_2(x) y_1 + a_1(x) y_2
\end{cases}.
\end{align*}
Setze $y^{(2)} := (-y_2, y_1)$. Dann ist:
\begin{align*}
A(x) y^{(2)} = \begin{pmatrix} -a_1(x) y_2 - a_2(x) y_1 \\ -a_2(x) y_2 + a_1(x) y_1 \end{pmatrix} = \begin{pmatrix} -y_2' \\ y_1' \end{pmatrix} = \left( y^{(2)} \right)'
\end{align*}
Das heißt: $y^{(2)}$ löst ebenfalls ($*$) auf $I$, oder: $y^{(1)}, y^{(2)}$ ist ein Lösungssystem von ($*$).
\begin{align*}
Y(x) = \begin{pmatrix} y_1(x) & -y_2(x) \\ y_2(x) & y_1(x) \end{pmatrix}, W(x) = \det Y(x) = y_1(x)^2 + y_2(x)^2 \neq 0
\end{align*}
Mit 22.4 folgt: $y^{(1)}, y^{(2)}$ ist ein Fundamentalsystem von ($*$).
\begin{beispiel} ($n=2$), $A = \begin{pmatrix} 0 & -1 \\ 1 & 0 \end{pmatrix}$;
\begin{align*}
\tag{$*$} y' = Ay
\end{align*}
und $y = (y_1, y_2)$. Also: $\begin{pmatrix} y_1' \\ y_2' \end{pmatrix} = \begin{pmatrix} -y_2 \\ y_1 \end{pmatrix}$.
$y^{(1)}(x) := \begin{pmatrix} \cos(x) \\ \sin(x) \end{pmatrix}$ ist eine Lösung von ($*$) auf $\MdR$.
$y^{(2)}(x) := \begin{pmatrix} -\sin(x) \\ \cos(x) \end{pmatrix}$ ist eine weitere Lösung von ($*$) auf $\MdR$.
$y^{(1)}, y^{(2)}$ ist ein Fundamentalsystem von ($*$).
Allgemeine Lösung von ($*$): $y(x) = \begin{pmatrix} c_1 \cos(x) - c_2 \sin(x) \\ c_1 \sin(x) + c_2 \cos(x) \end{pmatrix}\quad (c_1, c_2 \in \MdR)$.
\end{beispiel}
\textbf{Ohne} Beweis:
\begin{satz}[Spezielle Lösung]
Sei $y^{(1)}, ..., y^{(n)}$ ein Fundamentalsystem von (H), $Y(x)$ sei definiert wie oben. Setze
\begin{align*}
\importantbox{y_s(x) := Y(x) \int Y(x)^{-1} b(x) \text{d}x \quad (x \in I).}
\end{align*}
Dann ist $y_s$ eine spezielle Lösung von (S) auf $I$.
\begin{align*}
W_k(x) := \det \left( y^{(1)}(x), ..., y^{(k-1)}(x), b(x), y^{(k+1)}(x), ..., y^{(n)}(x) \right)\quad (k=1,...,n)
\end{align*}
Dann gilt: $y_s(x) = \sum_{k=1}^n \left( \int \frac{W_k(x)}{W(x)} \text{d}x\right) y^{(k)}(x)$.
\end{satz}
\begin{beispiel}
Bestimme die allgemeine Lösung von
\begin{align*}
\tag{+}
y' = Ay + \begin{pmatrix} -\sin(x) \\ \cos(x) \end{pmatrix},
\end{align*}
wobei
\begin{align*}
A = \begin{pmatrix} 0 & -1 \\ 1 & 0 \end{pmatrix}.
\end{align*}
Bekannt: Fundamentalsystem der homogenen Gleichung $y' = Ay$:
\begin{align*}
y^{(1)}(x) = \begin{pmatrix} \cos(x) \\ \sin(x) \end{pmatrix}, y^{(2)}(x) = \begin{pmatrix} -\sin(x) \\ \cos(x) \end{pmatrix}.
\end{align*}
\begin{align*}
&W(x) = \left| \begin{array}{cc} \cos(x) & -\sin(x) \\ \sin(x) & \cos(x) \end{array} \right| = \cos^2(x) + \sin^2(x) = 1. \\
&W_1(x) = \left| \begin{array}{cc} -\sin(x) & -\sin(x) \\ \cos(x) & \cos(x) \end{array} \right| = 0. \\
&W_2(x) = \left| \begin{array}{cc} \cos(x) & -\sin(x) \\ \sin(x) & \cos(x) \end{array} \right| = 1. \\
&y_s(x) := \left( \int 1 \text{d}x \right) y^{(2)}(x) = xy^{(2)}(x) = \begin{pmatrix} -x \sin(x) \\ x \cos(x) \end{pmatrix} \text{ ist eine spezielle Lösung von (+).}
\end{align*}
Allgemeine Lösung von (+):
\begin{align*}
y(x) &= \underbrace{c_1 \begin{pmatrix} \cos(x) \\ \sin(x) \end{pmatrix} + c_2 \begin{pmatrix} -\sin(x) \\ \cos(x) \end{pmatrix}}_{\text{allg. Lsg. der hom. Glg.}} + \underbrace{\begin{pmatrix} -x \sin(x) \\ x \cos(x) \end{pmatrix}}_{\text{spez. Lsg.}} \\
&= \begin{pmatrix} c_1 \cos(x) - c_2 \sin(x) - x \sin(x) \\ c_1 \sin(x) + c_2 \cos(x) + x \cos(x) \end{pmatrix}\quad(c_1, c_2 \in \MdR)
\end{align*}
Löse das
$\text{AwP}
\begin{cases}
y' = \begin{pmatrix} 0 & -1 \\ 1 & 0 \end{pmatrix}y + \begin{pmatrix} -\sin(x) \\ \cos(x) \end{pmatrix} \\
y(0) = \begin{pmatrix} 0 \\ 0 \end{pmatrix}
\end{cases}$. \\
Es gilt:
\begin{align*}
\begin{pmatrix}0 \\ 0\end{pmatrix} = y(0) = \begin{pmatrix} c_1 \cos(0) - c_2 \sin(0) - 0\cdot\sin(0) \\ c_1 \sin(0) + c_2 \cos(0) + 0\cdot\cos(0) \end{pmatrix} = \begin{pmatrix}c_1 \\ c_2\end{pmatrix}.
\end{align*}
Also: $c_1 = c_2 = 0$, d.h.: \textbf{die} Lösung des AwP ist: $y(x) = \begin{pmatrix} -x \sin(x) \\ x \cos(x) \end{pmatrix}$.
\end{beispiel}
\chapter{Homogene lineare Systeme mit konstanten Koeffizienten}
In diesem Paragraphen sei $A \in \mathbb{R}^{n \times n}$ eine
konstante Matrix. \\
Wir betrachten das homogene System
\begin{align*}
\tag H y'=Ay
\end{align*}
\textbf{Ohne} Beweise geben wir ein "`Kochrezept"' an, wie man zu einem Fundamentalsystem von (H) kommt.
\textbf{Vorbereitungen}:
\index{charakteristisches Polynom}\index{Polynom!charakteristisches}
\begin{enumerate}
\item Es sei stets $p(\lambda) := \det(A - \lambda I)$ das \textbf{charakteristische Polynom}
von $A$ ($I$ = Einheitsmatrix). \\
Sei $\lambda_0 \in \MdC$ ein Eigenwert (EW) von $A$, dann
ist $p(\lambda_0) = 0$. Die Koeffizienten von $p$ sind reell, also ist $p(\overline{\lambda_0}) = 0$
und damit $\overline{\lambda_0}$ ein Eigenwert von $A$.
\item Für $\lambda_0 \in \mdc$ gilt:
\[\kernn(A-\lambda_0 I) \subseteq \kernn((A-\lambda_0 I)^2) \subseteq \kernn((A-\lambda_0 I)^3) \subseteq \ldots\]
\end{enumerate}
\textbf{Kochrezept}:
\begin{enumerate}
\item Bestimme die \textbf{verschiedenen} Eigenwerte $\lambda_1, \ldots, \lambda_r (r \le n)$
von $A$ und deren algebraische Vielfachheiten $k_1, \ldots, k_r$, also:
\[p(\lambda) = (-1)^n (\lambda - \lambda_1)^{k_1} (\lambda - \lambda_2)^{k_2} \cdots (\lambda - \lambda_r)^{k_r}\]
Ordne diese Eigenwerte wie folgt an: $\lambda_1, \ldots, \lambda_m \in \mdr, \lambda_{m+1}, \ldots, \lambda_r \in \mdc \setminus \mdr$.\\
Aus der Liste $\lambda_{m+1}, \ldots, \lambda_r$ entferne jedes $\lambda_j$ mit
$\Im(\lambda_j) < 0$. Es bleibt:
\[M := \{\lambda_1, \ldots, \lambda_m\} \cup \{\lambda_j : m + 1 \le j \le r, \Im(\lambda_j) > 0 \}\]
\item Zu $\lambda_j \in M$ bestimme eine Basis von $V_j := $ Kern$((A-\lambda_j I)^{k_j})$
wie folgt: Bestimme eine Basis von Kern$(A-\lambda_j I)$, ergänze diese Basis zu
einer Basis von Kern$((A-\lambda_j I)^2)$, usw.
\item Sei $\lambda_j \in M$ und $v$ ein Basisvektor von $V_j$. \\
\[y(x) := e^{\lambda_j x} (v+\frac{x}{1!} (A-\lambda_j I)v + \frac{x^2}{2!} (A-\lambda_j I)^2 v + \cdots + \frac{x^{k_j - 1}}{ (k_j - 1)! } (A - \lambda_j I)^{k_j - 1} v )\]
Oder kürzer:
\[\importantbox{y(x) := e^{\lambda_j x} \cdot \left ( \sum_{i=0}^{k_j-1} \frac{x^i}{i!} (A - \lambda_j I)^i \cdot v \right )}\]
\textbf{Fall 1}: $\lambda_j \in \mdr$.\\
Dann ist $y(x) \in \mdr^n \; \forall x \in \mdr$ und y ist eine Lösung von (H). \\
\textbf{Fall 2}: $\lambda_j \in \mdc \setminus \mdr$.\\
Zerlege $y$ komponentenweise in Real- und Imaginärteil:
\[y(x) := y^{(1)}(x) + i y^{(2)}(x)\]
mit $y^{(1)}(x),y^{(2)}(x)\in\mdr^n$. Dann sind $y^{(1)}, y^{(2)}$ linear unabhängige Lösungen von (H).
\item Führt man (3) für \textbf{jedes} $\lambda_j \in M$ und \textbf{jeden} Basisvektor von $V_j$ durch, so erhält man ein Fundamentalsystem von (H).
\end{enumerate}
\begin{definition}
\index{linear!Hülle}\index{Hülle!lineare}
$ [\ldots] $ bezeichne die \textbf{lineare Hülle}.
\end{definition}
\textbf{Beispiele}:
\begin{enumerate}
\item Bestimme ein Fundamentalsystem der Gleichung:
\begin{align*}
\tag{$\ast $} y' = Ay
\end{align*}
mit
\[A:=\begin{pmatrix} 1 & -4 \\ 1 & 1 \end{pmatrix}\]
Es gilt:
\[p(\lambda)=\det(A-\lambda I) = (\lambda - (1 + 2i))(\lambda-(1-2i))\]
\begin{align*}
\lambda_1 &= 1 + 2i &\lambda_2 &= 1-2i\\
k_1 &= 1 &k_2&=1\\
\end{align*}
Also ist $M := \{\lambda_1\}$. Aus $\kernn(A-\lambda_1 I) = \left[ \begin{pmatrix} 2i \\ 1 \end{pmatrix} \right]$
folgt:
\begin{align*}
y(x) &= e^{(1+2i)x} \begin{pmatrix} 2i \\ 1 \end{pmatrix} \\
&= e^x (\cos(2x) + i \sin(2x)) \begin{pmatrix} 2i \\ 1 \end{pmatrix}\\
&= e^x \begin{pmatrix} -2\sin(2x) \\ \cos(2x) \end{pmatrix}
+ ie^x \begin{pmatrix} 2\cos(2x) \\ \sin(2x) \end{pmatrix}
\end{align*}
Sei also:
\begin{align*}
y^{(1)}(x)&:=e^x \begin{pmatrix} -2\sin(2x) \\ \cos(2x) \end{pmatrix}&
y^{(2)}(x)&:=e^x \begin{pmatrix} 2\cos(2x) \\ \sin(2x) \end{pmatrix}
\end{align*}
Dann ist $y^{(1)}, y^{(2)}$ ein Fundamentalsystem von ($\ast$).
\item Bestimme ein Fundamentalsystem der Gleichung:
\begin{align*}
\tag{$\ast $} y' = Ay
\end{align*}
mit
\[A:=\begin{pmatrix} 0 & 1 & -1 \\ -2 & 3 & -1 \\ -1 & 1 & 1 \end{pmatrix}\]
Es gilt:
\[p(\lambda)=\det(A-\lambda I) = -(\lambda - 2)(\lambda - 1)^2\]
\begin{align*}
\lambda_1 &= 2 &\lambda_2&=1\\
k_1&=1 &k_2&=2
\end{align*}
Also ist $M := \{\lambda_1, \lambda_2\}$.\\
\boldmath $\lambda_1 = 2$\unboldmath: Aus $\kernn(A-2I) =
\left[ \begin{pmatrix} 0 \\ 1\\1 \end{pmatrix} \right]$ folgt:
\[y^{(1)}(x) := e^{2x}\begin{pmatrix} 0 \\ 1\\1 \end{pmatrix}\]
\boldmath $\lambda_2 = 1$\unboldmath: Aus $\kernn(A-I) =
\left[ \begin{pmatrix} 1 \\ 1\\0 \end{pmatrix} \right]
\subseteq \left[ \begin{pmatrix} 1\\1\\0 \end{pmatrix},
\begin{pmatrix} 0\\0\\1\end{pmatrix} \right] = $ Kern$((A -I)^2)$ folgt:
\begin{align*}
y^{(2)}(x) := e^x \begin{pmatrix} 1\\1\\0 \end{pmatrix} &&
y^{(3)}(x) := e^x\left( \begin{pmatrix} 0\\0\\1\end{pmatrix} + x(A-I) \begin{pmatrix} 0\\0\\1\end{pmatrix} \right) = e^x \begin{pmatrix} -x \\ -x \\ 1 \end{pmatrix}
\end{align*}
$y^{(1)}, y^{(2)}, y^{(3)}$ ist ein Fundamentalsystem von ($\ast$).
\item Sei $A$ wie in Beispiel (2). Löse das \[
\text{AwP}
\begin{cases}
y'=Ay\\
y(0) = \begin{pmatrix} 1 \\ 0 \\ 1 \end{pmatrix}
\end{cases}\]
Die allgemeine Lösung von $y' = Ay$ lautet:
\[ y(x) = c_1 e^{2x}\begin{pmatrix} 0 \\ 1\\1 \end{pmatrix}
+ c_2 e^x \begin{pmatrix} 1\\1\\0 \end{pmatrix}
+ c_3 e^x \begin{pmatrix} -x \\ -x \\ 1 \end{pmatrix}\quad c_1, c_2, c_3 \in \mdr \]
Es gilt:
\begin{align*}
\begin{pmatrix} 1 \\ 0 \\ 1 \end{pmatrix} \stackrel!= y(0)
= c_1 \begin{pmatrix} 0 \\ 1\\1 \end{pmatrix}
+ c_2 \begin{pmatrix} 1\\1\\0 \end{pmatrix}
+ c_3 \begin{pmatrix} 0 \\ 0 \\ 1 \end{pmatrix}
= \begin{pmatrix} c_2 \\ c_1+c_2\\c_1+c_3 \end{pmatrix}\\
\end{align*}
\begin{align*}
\implies c_1=-1 &&c_2 = 1 && c_3 = 2
\end{align*}
Lösung des AWPs:
\[y(x) = -e^{2x}\begin{pmatrix} 0 \\ 1\\1 \end{pmatrix}
+ e^x \begin{pmatrix} 1\\1\\0 \end{pmatrix}
+ 2e^x \begin{pmatrix} -x \\ -x \\ 1 \end{pmatrix}\]
\item Bestimme die allgemeine Lösung von
\begin{align*}
\tag{$\ast $} y' = Ay + \begin{pmatrix} e^x \\ e^x \end{pmatrix}
\end{align*}
Mit
\[A:=\begin{pmatrix} 1 & 0 \\ 0 & -1 \end{pmatrix}\]
Bestimme dazu zunächst die allgemeine Lösung von $y' = Ay$. Es gilt:
\[p(\lambda)=\det(A-\lambda I) = (1-\lambda)(1+\lambda)\]
\begin{align*}
\lambda_1 &= 1 &\lambda_2 &= -1\\
k_1&=1&k_2&=1
\end{align*}
Da $\kernn(A-I) = \left[ \begin{pmatrix} 1 \\ 0 \end{pmatrix} \right]$ und
$\kernn(A+I) = \left[ \begin{pmatrix} 0 \\ 1 \end{pmatrix} \right]$ ist, ist
\begin{align*}
y^{(1)}(x) &= e^x \begin{pmatrix} 1 \\ 0 \end{pmatrix}
&y^{(2)}(x) &= e^{-x} \begin{pmatrix} 0 \\ 1 \end{pmatrix}
\end{align*}
ein Fundamentalsystem von $y' = Ay$.\\
Sei nun $Y(x) := \begin{pmatrix} e^x & 0 \\ 0 & e^{-x} \end{pmatrix}$ \\
Dann ist
\begin{align*}
y_s(x) &= Y(x) \int Y(x)^{-1} \begin{pmatrix} e^x \\ e^x \end{pmatrix} \text{ d}x\\
&= Y(x) \int \begin{pmatrix} e^{-x} & 0 \\ 0 & e^x \end{pmatrix} \begin{pmatrix} e^x \\ e^x \end{pmatrix} \text{ d}x\\
&= Y(x) \int \begin{pmatrix} 1 \\ e^{2x} \end{pmatrix}\text{ d}x\\
&= \begin{pmatrix} e^x & 0 \\ 0 & e^{-x} \end{pmatrix} \begin{pmatrix} x \\ \frac12e^{2x} \end{pmatrix} = \begin{pmatrix} xe^x \\ \frac12e^x \end{pmatrix}
\end{align*}
eine spezielle Lösung von ($\ast$).
Die allgemeine Lösung von ($\ast$) lautet also:
\[y(x) = c_1 e^x \begin{pmatrix} 1 \\ 0 \end{pmatrix}
+ c_2 e^{-x} \begin{pmatrix} 0 \\ 1 \end{pmatrix}
+ \begin{pmatrix} xe^x \\ \frac12e^x \end{pmatrix}\quad c_1, c_2 \in \mdr\]
\end{enumerate}
\chapter{Lineare Differentialgleichungen n-ter Ordnung}
\index{linear!Differentialgleichung n-ter Ordnung}\index{Differentialgleichung!lineare (n-ter Ordnung)}
\index{homogen!Differentialgleichung n-ter Ordnung}\index{Differentialgleichung!homogene (n-ter Ordnung)}
\index{inhomogen!Differentialgleichung n-ter Ordnung}\index{Differentialgleichung!inhomogene (n-ter Ordnung)}
\index{Anfangswertproblem}
In diesem Paragraphen sei $n\in\mdn, I\subseteq\mdr$ ein Intervall und $a_0,\ldots,a_{n-1},b:I\to\mdr$
stetig. Für $y\in C^n(I,\mdr)$ setze $Ly:=y^{(n)}+a_{n-1}(x)y^{(n-1)}+\cdots+a_0(x)y$.
Die Differenzialgleichung
\begin{align*}
\tag D Ly=b
\end{align*}
heißt eine \textbf{lineare Dgl $n$-ter Ordnung}. Sie heißt \textbf{homogen}, falls $b\equiv 0$,
anderenfalls \textbf{inhomogen}.\\
Setze $b_0(x):=(0,\ldots,0,b(x))^T (\in\mdr^n)$ und
\begin{align*}
A(x):=
\begin{pmatrix}
0&1&0&\cdots&0\\
\vdots&\ddots&\ddots&\ddots&\vdots\\
\vdots&&\ddots&\ddots&0\\
0&\ldots&\ldots&0&1\\
-a_0(x)&\ldots&\ldots&\ldots&-a_{n-1}(x)
\end{pmatrix}
\end{align*}
Damit erhalten wir das System:
\begin{align*}
\tag S z'=A(x)z+b_0(x)
\end{align*}
\begin{satz}[Lösungen]
\begin{enumerate}
\item Ist $y:I\to\mdr$ eine Lösung von (D) auf $I$, so ist $z:=(y,y',\ldots,y^{(n-1)})$
eine Lösung von (S) auf $I$.
\item Ist $z:=(z_1,\ldots,z_n)$ eine Lösung von (S) auf $I$, so ist $y:=z_1$ eine Lösung von (D) auf $I$.
\end{enumerate}
\end{satz}
\begin{beweis}
Nachrechnen!
\end{beweis}
Wir betrachten auch noch die zu (D) gehörende \textbf{homogene} Gleichung
\begin{align*}
\tag H Ly=0
\end{align*}
Sind $y_0,\ldots,y_{n-1}\in\mdr$ und $x_0\in I$, so heißt
\begin{align*}
\tag A \begin{cases}
Ly=b\\
y(x_0)=y_0,\ldots,y^{(n-1)}(x_0)=y_{n-1}
\end{cases}
\end{align*}
ein \textbf{Anfangswertproblem} (AwP).
Die folgenden Sätze 24.2 und 24.3 folgen aus 24.1 und den Sätzen aus §21.
\begin{satz}[Lösungsmenge als Vektorraum]
\begin{enumerate}
\item Das AwP (A) hat auf $I$ genau eine Lösung.
\item (D) hat Lösungen auf $I$.
\item Sei $y_s$ eine spezielle Lösung von (D) auf $I$. Für $y:I\to\mdr$ gilt:\\
$y$ ist eine Lsg von (D) auf $I$, genau dann wenn eine Lösung $y_h$ von (H) existiert:
\[y=y_h+y_s\]
\item Ist $J\subseteq I$ ein Intervall, $\hat y:J\to\mdr$ eine Lsg von (D) auf $J$,
so existiert eine Lsg $y:I\to\mdr$ mit $\hat y=y|_J$.
\item Sei $\mathbb{L}$ die Menge aller Lösungen von (H) auf $I$. Dann ist $\mathbb{L}$
ein reeller Vektorraum und $\dim\mathbb{L}=n$.\\
Für $y_1,\ldots,y_k\in\mathbb{L}$ sind äquivalent:
\begin{enumerate}
\item $y_1,\ldots,y_k$ sind linear unabhängig in $\mathbb{L}$.
\item Für alle $x\in I$ sind die Vektoren $(y_j(x),y_j'(x),\ldots,y_j^{(n-1)}(x)) (j=1,\ldots,k)$
linear unabhängig im $\mdr^n$.
\item Es existiert ein $\xi\in I$ sodass die Vektoren $(y_j(\xi),\ldots,y_j^{(n-1)}(\xi)) (j=1,\ldots,k)$
linear unabhängig sind im $\mdr^n$.
\end{enumerate}
\end{enumerate}
\end{satz}
\begin{definition}
\index{Wronskideterminante}
\index{Fundamental-!System}
Seien $y_1,\ldots,y_n\in\mathbb{L}$.
\begin{align*}
W(x):= \det\begin{pmatrix}
y_1(x)&\cdots&y_n(x)\\
\vdots& &\vdots\\
y_1^{(n-1)}(x)&\cdots&y_n^{(n-1)}(x)
\end{pmatrix}
\end{align*}
heißt \textbf{Wronskideterminante}. Sind $y_1,\ldots,y_n$ linear unabhängig in $\mathbb{L}$,
so heißt $y_1,\ldots,y_n$ ein \textbf{Fundamentalsystem} (FS) von (H). I.d. Fall
lautet die allgemeine Lösung von (H):
\[y=c_1y_1+\cdots+c_ny_n \quad (c_1,\ldots,c_n\in\mdr)\]
Aus 24.2 folgt für $y_1,\ldots,y_n\in\mathbb{L}$:\\
$y_1,\ldots,y_n\in\mathbb{L}$ ist genau dann ein FS von (H), wenn gilt:
\begin{align*}
\forall x\in I: W(x)\ne 0 \iff \exists\xi\in I:W(\xi)\ne 0
\end{align*}
\end{definition}
\begin{satz}[Spezielle Lösung]
Sei $y_1,\ldots,y_n$ ein FS von (H) und $W$ wie oben. Für $k=1,\ldots,n$ sei
$W_k(x)$ die Determinante die entsteht, wenn man die $k$-te Spalte von $W(x)$
ersetzt durch $(0,\ldots,0,b(x))^T$. Setze
\[y_s(x):=\sum_{k=1}^n\left(y_k(x)\cdot \int \frac{W_k(x)}{W(x)}\text{ d}x\right)\]
Dann ist $y_s$ eine spezielle Lösung von (D).
\end{satz}
\begin{beispiel}[Spezialfall $n=2$]
Die homogene Gleichung hat die Form
\begin{align*}
\tag H y''+a_1(x)y'+a_0(x)y=0
\end{align*}
Sei $y_1$ eine Lsg von (H) mit $y_1\ne 0\forall x\in I$. Sei $z\not\equiv$ eine Lsg von
\[z'=-\left(a_1(x)+\frac{2y_1'(x)}{y_1(x)}\right)z, \text{ \quad so ist}\]
\[y_2(x):=y_1(x)\cdot\int z(x)\text{ d}x\]
eine weitere Lsg von (H) und $y_1,y_2$ ist ein FS von (H).
\end{beispiel}
\begin{beweis}
Nachrechnen: $y_2$ ist Lsg von (H).\\
Aus $y_2'=y_1'\cdot\int z(x)\text{ d}x+y_1z(x)$ folgt:
\begin{align*}
W(x)&=\det\begin{pmatrix}
y_1(x)&y_1(x)\cdot\int z(x)\text{ d}x\\
y_1'(x)&y_1'(x)\int z(x)\text{ d}x+y_1z(x)
\end{pmatrix}\\
&= y_1y_1'\cdot\int z(x)\text{ d}x+y_1^2z(x)-y_1y_1'\cdot\int z(x)\text{ d}x\\
&= y_1^2z(x)
\end{align*}
Da $z\not\equiv 0$ ist, existiert ein $\xi\in I$ mit $z(\xi)\ne 0$, also $W(\xi)\ne 0$.
D.h. $y_1,y_2$ sind linear unabhängig in $\mathbb{L}$.
\end{beweis}
\begin{beispiele}
\item Bestimme die allg. Lösung der Gleichung (mit $I=(1,\infty)$)
\begin{align*}
\tag{$*$} y''+\frac{2x}{1-x^2}y'-\frac{2}{1-x^2}y=0
\end{align*}
Offensichtlich ist $y_1(x)=x$ eine Lsg von ($*$) auf $I$. Die Gleichung erster Ornung lautet:
\begin{align*}
\tag{$**$} z'=-\left(\frac{2x}{1-x^2}+\frac 2x\right)z=\frac 2{x(x^2-1)} z
\end{align*}
Es ist $\int\frac2{x(x^2-1)}\text{ d}x=\log(1-\frac1{x^2})$, daraus ergibt sich die allgemeine
Lösung von ($**$):
\[z(x)=ce^{\log(1-\frac1{x^2})}=c(1-\frac1{x^2})\quad (c\in\mdr)\]
Sei also:
\[y_2(x):=y_1(x)\cdot\int 1-\frac1{x^2}\text{ d}x=1+x^2\]
Damit ist $y_1,y_2$ ein Fundamentalsystem von ($*$) und die allgemeine Lösung lautet:
\[y(x)=c_1x+c_2(1+x^2)\quad (c_1,c_2\in\mdr)\]
\item Bestimme die allg. Lösung der Gleichung
\begin{align*}
\tag{+} y''+\frac{2x}{1-x^2}y'-\frac{2}{1-x^2}y=x^2-1
\end{align*}
Die allg. Lösung der homogenen Gleichung lautet
\[y(x)=c_1x+c_2(1+x^2)\]
Es ist also $y_1(x)=x$ und $y_2(x)=1+x^2$. Damit gilt:
\begin{align*}
W(x)&=\det\begin{pmatrix}
x&1+x^2\\
1&2x
\end{pmatrix}=2x^2-(1+x^2)=x^2-1\\
W_1(x)&=\det\begin{pmatrix}
0&1+x^2\\
x^2-1&2x
\end{pmatrix}=-(1+x^2)(x^2-1)\\
W_2(x)&=\det\begin{pmatrix}
x&0\\
1&x^2-1
\end{pmatrix}=x^3-x
\end{align*}
Es folgt:
\begin{align*}
\frac{W_1(x)}{W(x)}=-1-x^2 &&\frac{W_2(x)}{W(x)}=x
\end{align*}
Daraus ergibt sich nun eine spezielle Lösung von (+):
\[y_s(x)=y_1(x)\cdot\int(-1-x^2)\text{ d}x+y_2(x)\cdot\int x\text{ d}x=\frac16 x^4-\frac12 x^2\]
Die allgemeine Lösung von (+) lautet:
\[y(x)=c_1x+c_2(1+x^2)+\frac16 x^4-\frac12 x^2\quad (c_1,c_2\in\mdr)\]
\item Löse das
\begin{align*}
\text{AwP}
\begin{cases}
y''+\frac{2x}{1-x^2}y'-\frac{2}{1-x^2}y=x^2-1\\
y(0)=0, y'(0)=1
\end{cases}
\end{align*}
Die allgemeine Lösung der Dgl lautet:
\[y(x)=c_1x+c_2(1+x^2)+\frac16 x^4-\frac12 x^2\quad (c_1,c_2\in\mdr)\]
Also ist:
\[y'(x)=c_1+2c_2x+\frac23x^3-x\]
Außerdem gilt:
\begin{align*}
0\stackrel!= y(0)=c_2&&1\stackrel!=y'(0)=c_1
\end{align*}
Daraus folgt für die Lösung des AwPs:
\[y(x)=x+\frac16x^4-\frac12x^2\]
\end{beispiele}
\chapter{Lineare Differentialgleichungen n-ter Ordnung mit konstanten Koeffizienten}
In diesem Paragraphen sei $n\in\mdn, a_0,\ldots,a_{n-1}\in\mdr, I\subseteq\mdr$ ein Intervall
und $b:I\to\mdr$ stetig.
\index{homogen!Differentialgleichung}\index{Differentialgleichung!homogene}
\index{charakteristisch!Polynom}\index{Polynom!charakteristisches}
Wir betrachten zunächst die \textbf{homogene Gleichung}
\begin{align*}
\tag H y^{(n)}+a_{n-1}y^{(n-1)}+\cdots+a_0y=0
\end{align*}
und geben \textbf{ohne} Beweis ein "`Kochrezept"' an, wie man zu einem FS von (H) kommt.
\[p(\lambda):=\lambda^n+a_{n-1}\lambda^{n-1}+\cdots+a_1\lambda+a_0\]
heißt das \textbf{charakteristische Polynom} von (H).
\textbf{Übung:}\\
Ist
\[A:=\begin{pmatrix}
0&1&0&\cdots&0\\
\vdots&\ddots&\ddots&\ddots&\vdots\\
\vdots&&\ddots&\ddots&0\\
0&\cdots&\cdots&0&1\\
-a_0&\cdots&\cdots&\cdots&-a_{n-1}
\end{pmatrix}\]
so ist $\det(\lambda I-A)=p(\lambda)$.
\textbf{Kochrezept:}
\begin{enumerate}
\item Bestimme die verschiedenen Nullstellen $\lambda_1,\ldots,\lambda_r (r\le n)$ von $p$
und deren Vielfachheiten $k_1,\ldots,k_r$, also:
\[p(\lambda)=(\lambda-\lambda_1)^{k_1}\cdots(\lambda-\lambda_r)^{k_r}\]
Es seien $\lambda_1,\ldots,\lambda_m\in\mdr$ und $\lambda_{m+1},\ldots,\lambda_r\in\mdc\setminus\mdr$.
\[M:=\Set{\lambda_1,\ldots,\lambda_m}\cup\Set{\lambda_j | m+1\le j\le r,\Im(\lambda_j)>0}\]
\item Sei $\lambda_j\in M$.\\
\textbf{Fall 1:} $\lambda_j\in\mdr$\\
Dann sind
\[e^{\lambda_jx},xe^{\lambda_jx},\ldots,x^{k_j-1}e^{\lambda_jx}\]
$k_j$ linear unabhängige Lösungen von (H).\\
\textbf{Fall 2:} $\lambda_j\in\mdc\setminus\mdr$, etwa $\lambda_j=\alpha+i\beta$ $(\alpha,\beta\in\mdr,\beta>0)$\\
Dann sind
\begin{align*}
e^{\alpha x}\cos(\beta x), xe^{\alpha x}\cos(\beta x),\ldots,x^{k_j-1}e^{\alpha x}\cos(\beta x)\\
e^{\alpha x}\sin(\beta x), xe^{\alpha x}\sin(\beta x),\ldots,x^{k_j-1}e^{\alpha x}\sin(\beta x)
\end{align*}
$2k_j$ linear unabhängige Lösungen von (H).
\item Führt man (2) für jedes $\lambda_j\in M$ durch, so erhält man ein FS von (H).
\end{enumerate}
\begin{beispiele}
\item Bestimme die allg. Lösung der Gleichung
\begin{align*}
\tag{$*$} y^{(6)}-6y^{(5)}+9y^{(4)}=0
\end{align*}
Es gilt:
\[p(\lambda)=\lambda^6-6\lambda^5+9\lambda^4=\lambda^4(\lambda^2-6\lambda+9)=\lambda^4(\lambda-3)^2\]
Sei also:
\begin{align*}
\lambda_1&:=0&\lambda_2&:=3\\
k_1&:=4&k_2&:=2
\end{align*}
Ein FS von ($*$) lautet: $1,x,x^2,x^3,e^{3x},xe^{3x}$. Das bedeutet für die allgemeine Lösung von ($*$):
\[y(x)=c_1+c_2x+c_3x^2+c_4x^3+c_5e^{3x}+c_6xe^{3x}\quad(c_1,\ldots,c_6\in\mdr)\]
\item Bestimme die allgemeine Lösung der Gleichung:
\begin{align*}
\tag{$*$} y'''-2y''+y'-2y=0
\end{align*}
Es gilt:
\[p(\lambda)=\lambda^3-2\lambda^2+\lambda-2=(\lambda^2+1)(\lambda-2)=(\lambda-2)(\lambda+i)(\lambda-i)\]
Sei also:
\begin{align*}
\lambda_1&:=2&\lambda_2&:=i&\lambda_3&:=-i\\
k_1&:=1&k_2&:=1&k_3&:=1
\end{align*}
Dann ist $M:=\{2,i\}$ und ein FS von ($*$) lautet: $e^{2x},\cos(x),\sin(x)$. Das bedeutet für
die allgemeine Lösung von ($*$):
\[y(x)=c_1e^{2x}+c_2\cos(x)+c_3\sin(x)\quad (c_1,c_2,c_3\in\mdr)\]
\item Löse das
\begin{align*}
\text{AwP}
\begin{cases}
y'''-2y''+y'-2y=0\\
y(0)=0,y'(0)=1,y''(0)=0
\end{cases}
\end{align*}
Die allgemeine Lösung der Dgl lautet:
\[y(x)=c_1e^{2x}+c_2\cos(x)+c_3\sin(x)\]
Es ist:
\begin{align*}
y'(x)&=2c_1e^{2x}-c_2\sin(x)+c_3\cos(x)\\
y''(x)&=4c_1e^{2x}-c_2\cos(x)-c_3\sin(x)
\end{align*}
Außerdem gilt:
\begin{align*}
0&\stackrel!=y(0)=c_1+c_2&1&\stackrel!=y'(0)=2c_1+c_3&0&\stackrel!=4c_1-c_2
\end{align*}
Daraus folgt:
\begin{align*}
c_1&=0&c_2&=0&c_3&=1
\end{align*}
Also lautet die Lösung des AwPs:
\[y(x)=\sin(x)\]
\end{beispiele}
\index{inhomogen!Differentialgleichung}\index{Differentialgleichung!inhomogene}
Wir betrachten auch noch die \textbf{inhomogene Gleichung}
\begin{align*}
\tag{IH} y^{(n)}+a_{n-1}y^{(n-1)}+\cdots+a_0y=b(x)
\end{align*}
\begin{definition}
\index{nullfache Nullstelle}\index{Nullstelle!nullfache}
$\mu\in\mdc$ heißt eine \textbf{nullfache Nullstelle} von $p$, genau dann wenn
$p(\mu)\ne 0$ ist.
\end{definition}
\textbf{Regel} (ohne Beweis):\\
Seien $\alpha,\beta\in\mdr,m,q\in\mdn_0$ und $b$ von der Form:
\begin{align*}
&b(x)=(b_0+b_1x+\cdots+b_mx^m)e^{\alpha x}\cos(\beta x)\quad\text{, oder}\\
&b(x)=(b_0+b_1x+\cdots+b_mx^m)e^{\alpha x}\sin(\beta x)
\end{align*}
Ist $\alpha+\beta i$ eine $q$-fache Nullstelle von $p$, so gibt es eine spezielle Lösung
$y_s$ von (IH) der Form:
\[y_s(x)=x^qe^{\alpha x}\left[(A_0+A_1x+\cdots+A_mx^m)\cos(\beta x)+(B_0+B_1x+\cdots+B_mx^m)\sin(\beta x)\right]\]
\begin{beispiel}
Bestimme die allgemeine Lösung der Gleichung
\begin{align*}
y'''-y'=x+1\tag{$*$}
\end{align*}
\begin{enumerate}
\item Bestimme die allgemeine Lösung der homogenen Gleichung
\begin{align*}
y'''-y'=0\tag{$**$}
\end{align*}
Es gilt:
\[p(\lambda)=\lambda^3-\lambda=\lambda(\lambda^2-1)=\lambda(\lambda+1)(\lambda-1)\]
Also ist ein FS von ($**$): $1,e^x,e^{-x}$. Damit lautet die allgemeine Lösung der homogenen
Gleichung:
\[y_h(x)=c_1+c_2e^x+c_3e^{-x}\quad(c_1,c_2,c_3\in\mdr)\]
\item Bestimme eine allgemeine Lösung der inhomogenen Gleichung ($*$).\\
Es ist $m=1,\alpha=\beta=0,q=1$. Ansatz:
\begin{align*}
&y_s(x)=x(A_0+A_1x)=A_0x+A_1x^2\\
&y_s'(x)=A_0+2A_1x\\
&y_s''(x)=2A_1\\
&y_s'''(x)=0
\end{align*}
Mit Einsetzen in ($*$) folgt:
\[0-(A_1+2A_1x)=x+1\]
Also ist:
\begin{align*}
A_0=-1&&A_1=-\frac12
\end{align*}
D.h. eine spezielle Lösung von (IH) lautet:
\[y_s(x)=-x-\frac12 x^2\]
\end{enumerate}
Damit lautet die allgemeine Lösung von (IH):
\[y(x)=c_1+c_2e^x+c_3e^{-x}-x-\frac12 x^2\quad(c_1,c_2,c_3\in\mdr)\]
\end{beispiel}
\appendix
\chapter{Satz um Satz (hüpft der Has)}
\listtheorems{satz,wichtigedefinition}
\renewcommand{\indexname}{Stichwortverzeichnis}
\addcontentsline{toc}{chapter}{Stichwortverzeichnis}
\printindex
\chapter{Credits für Analysis II}
Abgetippt haben die folgenden Paragraphen:\\
\textbf{§ 1: Der Raum $\MdR^n$}: Wenzel Jakob, Joachim Breitner\\
\textbf{§ 2: Konvergenz im $\MdR^n$}: Joachim Breitner und Wenzel Jakob\\
\textbf{§ 3: Grenzwerte bei Funktionen, Stetigkeit}: Wenzel Jakob, Pascal Maillard\\
\textbf{§ 4: Partielle Ableitungen}: Joachim Breitner und Wenzel Jakob\\
\textbf{§ 5: Differentiation}: Wenzel Jakob, Pascal Maillard, Jonathan Picht\\
\textbf{§ 6: Differenzierbarkeitseigenschaften reellwertiger Funktionen}: Jonathan Picht, Pascal Maillard, Wenzel Jakob\\
\textbf{§ 7: Quadratische Formen}: Wenzel Jakob\\
\textbf{§ 8: Extremwerte}: Wenzel Jakob\\
\textbf{§ 9: Der Umkehrsatz}: Wenzel Jakob und Joachim Breitner\\
\textbf{§ 10: Implizit definierte Funktionen}: Wenzel Jakob\\
\textbf{§ 11: Extremwerte unter Nebenbedingungen}: Pascal Maillard\\
\textbf{§ 12: Wege im $\MdR^n$}: Joachim Breitner, Wenzel Jakob und Pascal Maillard\\
\textbf{§ 13: Wegintegrale}: Pascal Maillard und Joachim Breitner\\
\textbf{§ 14: Stammfunktionen}: Joachim Breitner und Ines Türk\\
\textbf{§ 15: Vorgriff auf Analysis III}: Rebecca Schwerdt\\
\textbf{§ 16: Folgen, Reihen und Potenzreihen in $\MdC$}: Rebecca Schwerdt\\
\textbf{§ 17: Normierte Räume, Banachräume, Fixpunktsatz}: Rebecca Schwerdt\\
\textbf{§ 18: Differentialgleichungen: Grundbegriffe}: Rebecca Schwerdt\\
\textbf{§ 19: Lineare Differentialgleichungen 1. Ordnung}: Rebecca Schwerdt\\
\textbf{§ 20: Differentialgleichungen mit getrennten Veränderlichen}: Rebecca Schwerdt\\
\textbf{§ 21: Systeme von Differentialgleichungen 1. Ordnung}: Peter Pan\\
\textbf{§ 22: Lineare Systeme}: Rebecca Schwerdt, Peter Pan\\
\textbf{§ 23: Homogene lineare Systeme mit konstanten Koeffizienten}\\
\textbf{§ 24: Lineare Differentialgleichungen n-ter Ordnung}: Rebecca Schwerdt\\
\textbf{§ 25: Lineare Differentialgleichungen n-ter Ordnung mit konstanten Koeffizienten}: Rebecca Schwerdt\\
\end{document}