Sei $n\in\MdN$. $\MdR^n=\{(x_1, \ldots, x_n) : x_1,\ldots, x_n \in\MdR\}$ ist mit der üblichen Addition und Skalarmultiplikation ein reeller Vektorraum.\\
\item[(4)] O.B.d.A: $y\ne0$ also $\|y\|>0$. $a:=x\cdot x=\|x\|^2,\ b:=xy,\ c:=\|y\|^2=y\cdot y,\ \alpha:=\frac{b}{c}.\ 0\le\sum_{j=1}^n(x_j-\alpha y_j)^2=\sum_{j=1}^n(x_j^2-2\alpha x_jy_j+\alpha^2y_j^2)=a-2\alpha b +\alpha^2 c=a-2\frac{b}{c}b+\frac{b^2}{c^2}c=a-\frac{b^2}{c}\folgt0\le ac-b^2\folgt b^2\le ac\folgt(xy)^2\le\|x\|^2\|y\|^2$.
\item[(5)]$\|x+y\|^2=(x+y)(x+y)\gleichnach{(1)}x\cdot x +2xy+y \cdot y=\|x\|^2+2xy+\|y\|^2\le\|x\|^2+2|xy|+\|y\|^2\overset{\text{(4)}}{\le}\|x\|^2+2\|x\|\|y\|+\|y\|^2=(\|x\|+\|y\|)^2$.
\item$x_0\in\MdR^n$ heißt ein \begriff{Häufungspunkt} (HP) von $A$$:\equizu$$\forall\delta > 0: (U_\delta(x_0)\backslash\{x_0\})\cap A \ne\emptyset$. $\H(A) :=\{ x\in\MdR^n: x \text{ ist Häufungspunkt von } A\}$.
\item$x_0\in\MdR^n$ heißt ein \begriff{Berührungspunkt} (BP) von $A$$:\equizu$$\forall\delta>0: U_\delta(x_0)\cap A \ne\emptyset$. $\bar{A}:=\{x\in\MdR^n: x \text{ ist ein Berührungspunkt von } A\}$ heißt der \begriff{Abschluss} von $A$.\\
Klar: $A\subseteq\bar{A}$. Zur Übung: $\bar{A}= A \cup\H(A)$.
\item\indexlabel{abgeschlossen!Menge}$A$ heißt \textbf{abgeschlossen}$:\equizu$$A=\bar{A}$. Zur Übung: $\bar{A}$ ist abgeschlossen.
\item$x_0\in\MdR^n$ heißt ein \begriff{Randpunkt} von $A$$:\equizu$$\forall\delta>0: U_\delta(x_0)\cap A \ne\emptyset$ und $U_\delta(x_0)\cap(\MdR^n\backslash A)\ne\emptyset$. $\partial A :=\{x\in\MdR^n: x \text{ ist ein Randpunkt von } A \}$ heißt der \begriff{Rand} von $A$. Zur Übung: $\partial A =\bar{A}\backslash A^\circ$.
\end{liste}
\end{definition}
\begin{beispiele}
\index{abgeschlossen!Kugel}
\item$\MdR^n$ ist abgeschlossen, $\emptyset$ ist abgeschlossen; \\
$\bar{A}=\overline{U_\delta(x_0)}=\{x\in\MdR^n: \|x-x_0\|\le\delta\}$ (\textbf{abgeschlossene Kugel} um $x_0$ mit Radius $\delta$)
\glqq$\impliedby$\grqq: Annahme: $\subset\bar{A}\folgt\ \exists x_0\in\bar{A}: x_0\notin A$; also $x_0\in\MdR^n\backslash A$. Voraussetzung $\folgt\ \exists\delta > 0: U_\delta(x_0)\subseteq\MdR^n\backslash A \folgt U_\delta(x_0)\cap A =\emptyset\folgt x_0\notin\bar{A}$, Widerspruch!
\item Sei $(A_\lambda)_{\lambda\in M}$ eine Familie offener Mengen und $V :=\bigcup_{\lambda\in M} A_\lambda$. Sei $x_0\in V \folgt\exists\lambda_0\in M: x_0\in A_{\lambda_0}$. $A_{\lambda_0}$ offen $\folgt\ \exists\delta > 0: U_\delta(x_0)\subseteq A_{\lambda_0}\subseteq V$
\item folgt aus (1) und (2) (Komplemente!)
\item$D:=\bigcap_{j=1}^mA_j$. Sei $x_0\in D$. $\forall j\in\{1,\ldots,m\}: x_0\in A_j$, also eixistiert $\delta_j>0: U_\delta(x_0)\subseteq A_j$. $\delta :=\min\{\delta_j,\ldots,\delta_m\}\folgt U_\delta(x_0)\subseteq D$
\item folgt aus (1) und (4)
\end{beweise}
\chapter{Konvergenz im $\MdR^n$}
Sei $(a^{(k)})$ eine Folge in $\MdR^n$, also $(a^{(k)})=( a^{(1)}, a^{(2)}, \ldots)$ mit $a^{(k)}=(a_1^{(k)}, \ldots a_n^{(k)})\in\MdR^n$. Die Begriffe \begriff{Teilfolge} und \begriff{Umordnung} definiert man wie in Analysis I. $(a^{(k)})$ heißt beschränkt $:\equizu$$\exists c\ge0: \|a^{(k)}\|\le c \ \forall k\in\MdN$.
\begin{definition*}[Grenzwert und Beschränktheit]
\indexlabel{Konvergenz}$(a^{(k)})$ heißt \textbf{konvergent}$:\equizu$$\exists a\in\MdR^n: \|a^{(k)}- a\|\to0\ (k\to\infty)$ ($\equizu\ \exists a\in\MdR^n: \forall\ep>0\exists k_0\in\MdN: \|a^{(k)}- a\|<\ep\ \forall k\ge k_0$). In diesem Fall heißt $a$ der \begriff{Grenzwert} (GW) oder \begriff{Limes} von $(a^{(k)})$ und man schreibt: $a=\lim_{k\to\infty}a^{(k)}$ oder $a^{(k)}\to a \ (k\to\infty)$
\end{definition*}
\begin{beispiel}
$(n=2)$: $a^{(k)}=(\frac{1}{k}, 1+\frac{1}{k^2})$ (Erinnerung: $\frac{1}{n}$ konvergiert gegen 0); $a :=(0,1)$; $\|a^{(k)}- a \|=\|(\frac{1}{k} , \frac{1}{k^2})\|=(\frac{1}{k^2}+\frac{1}{k^4})^\frac{1}{2}\to0\folgt a^{(k)}\to(0,1)$
\end{beispiel}
%satz 2.1
\begin{satz}[Konvergenz]
Sei $(a^{(k)})$ eine Folge in $\MdR^n$.
\begin{liste}
\item Sei $a^{(k)}=(a_1^{(k)}, \ldots, a_n^{(k)})$ und $a =(a_1,\ldots,a_n)\in\MdR^n$. Dann:
\item Der Grenzwert einer konvergenten Folge ist eindeutig bestimmt.
\item Ist $(a^{(k)})$ konvergent $\folgt\ a^{(k)}$ ist beschränkt und jede Teilfolge und jede Umordnung von $(a^{(k)})$ konvergiert gegen $\lim a^{(k)}$.
\item Sei $(b^{(k)})$ eine weitere Folge, $a,b\in\MdR^n$ und $\alpha\in\MdR$. Es gelte $a^{(k)}\to a$, $b^{(k)}\to b$ Dann: $$\|a^{(k)}\|\to\|a\|$$$$a^{(k)}+ b ^{(k)}\to a+b$$$$\alpha a^{(k)}\to\alpha a$$$$a^{(k)}\cdot b^{(k)}\to a\cdot b$$
\item\begriff{Bolzano-Weierstraß}: Ist $(a^{(k)})$ beschränkt, so enthält $(a^{(k)})$ eine konvergente Teilfolge.
\item\glqq$\folgt$\grqq: wie in Analysis 1. \glqq$\impliedby$\grqq: 1.1(7) $\folgt |a_j^{(k)}-a_j^{(l)}| \le\|a^{(k)}-a^{(l)}\|\ (j=1,\ldots,n)\ \folgt$ jede Folge $(a_j^{(k)})$ ist eine Cauchyfolge in $\MdR$, also konvergent $\overset{(1)}{\folgt}(a^{(k)})$ konvergiert.
\end{beweise}
\begin{satz}[Häufungswerte und konvergente Folgen]
Sei $A\subseteq\MdR^n$
\begin{liste}
\item$x_0\in\H(A)\equizu\ \exists$ Folge $(x^{(k)})$ in $A\ \backslash\ \{x_0\}$ mit $x^{(k)}\to x_0$.
\item$x_0\in\bar A\equizu\ \exists$ Folge $(x^{(k)})$ in $A$ mit $x^{(k)}\to x_0$.
\item[(3)]\glqq$\folgt$\grqq: Sei $(a^{(k)})$ eine konvergente Folge in $A$ und $x_0:=\lim a^{(k)}\overset{(2)}{\folgt} x_0\in\bar A \overset{\text{Vor.}}{=}A$. \glqq$\impliedby$\grqq: z.z: $\bar A \subseteq A$. Sei $x_0\in\bar A \overset{(2)}{\folgt}x_0\in A$. Also: $A=\bar A$.
\item\begriff{Überdeckungssatz von Heine-Borel}: Ist $(G_\lambda)_{\lambda\in M}$ eine Familie offener Mengen mit $A \subseteq\displaystyle\bigcup_{\lambda\in M} G_\lambda$, dann existieren $\lambda_1, \ldots, \lambda_m \in M: A\subseteq\displaystyle\bigcup_{j=1}^m G_{\lambda_j}$.
\item Sei $\ep>0$. Annahme: Die Behauptung ist falsch. Sei $a^{(1)}\in A$. Dann: $A\nsubseteq U_{\ep}(a^{(1)})\folgt\exists a^{(2)}\in A: a^{(2)}\notin U_\ep(a^{(1)})\folgt\|a^{(2)}-a^{(1)}\|\ge\ep$. $A\nsubseteq U_\ep(a^{(1)})\cup U_\ep(a^{(2)})\folgt\exists a^{(3)}\in A: \|a^{(3)}-a^{(2)}\|\ge\ep,\ \|a^{(3)}-a^{(1)}\|\ge\ep$ etc.. Wir erhalten so eine Folge $(a^{(k)})$ in A: $\|a^{(k)}-a^{(l)}\|\ge\ep$ für $k\ne l$. 2.2(4) $\folgt(a^{(k)})$ enthält eine konvergente Teilfolge $\folgtnach{2.1(6)}\ \exists j_0\in\MdN:\ \|a^{(k_j)}-a^{(k_l)}\|<\ep\ \forall j,l\ge j_0$, Widerspruch!
\item Sei $j\in\MdN$. $\ep:=\frac{1}{j}$. (1) $\folgt\exists$ endl. Teilmenge $B_j$ von $A$ mit $(*)\ A\subseteq\displaystyle\bigcup_{x \in B_j}U_{\frac{1}{j}}(x)$. $B:=\displaystyle\bigcup_{j\in\MdN}B_j\folgt B\subseteq A$ und $B$ ist abzählbar. Dann: $\bar B\subseteq\bar A\gleichnach{Vor.}A$. Noch zu zeigen: $A\subseteq\bar B$. Sei $x_0\in A$ und $\delta>0$: zu zeigen: $U_\delta(x_0)\cap B\ne\emptyset$. Wähle $j\in\MdN$ so, da"s $\frac{1}{j}<\delta\ (*)\folgt\exists x \in B_j\subseteq B:\ x_0\in U_{\frac{1}{j}}(x)\folgt\|x_0-x\|<\frac{1}{j}<\delta\folgt x\in U_\delta(x_0)\folgt x\in U_\delta(x_0)\cap B$.
\item Teil 1: Behauptung: $\exists\ep>0:\ \forall a \in A\ \exists\lambda\in M: U_\ep(a)\subseteq G_\lambda$. Beweis: Annahme: Die Behauptung ist falsch. $\forall k\in\MdN\ \exists a^{(k)}\in A:\ (**) U_{\frac{1}{k}}(a^{(k)})\nsubseteq G_\lambda\ \forall\lambda\in M$. 2.2(4) $\folgt(a^{(k)})$ enthält eine konvergente Teilfolge $(a^{(k_j)})$ und $x_0:=\displaystyle\lim_{j\to\infty}a^{k_j}\in A\folgt\exists\lambda_0\in M: x_0\in G_{\lambda_0};\ G_{\lambda_0}$ offen $\folgt\exists\delta>0: U_\delta(x_0)\subseteq G_{\lambda_0}.\ a^{(k_j)}\to x_0\ (j\to\infty)\folgt\exists m_0\in\MdN: a^{(m_0)}\in U_{\frac{\delta}{2}}(x_0)$ und $m_0\ge\frac{2}{\delta}$. Sei $x\in U_{\frac{1}{m_0}}(a^{(m_0)})\folgt\|x-x_0\|=\|x-a^{(m_0)}+a^{(m_0)}-x_0\|\le\|x-a^{(m_0)}\|+\|a^{(m_0)}-x_0\|\le\frac{1}{m_0}+\frac{\delta}{2}\le\frac{\delta}{2}+\frac{\delta}{2}=\delta\folgt x\in U_\delta(x_0)\folgt x \in G_{\lambda_0}$. Also: $U_{\frac{1}{m_0}}(a^{(m_0)})\subseteq G_{\lambda_0}$, Widerspruch zu $(**)$!\\
Teil 2: Sei $\ep>0$ wie in Teil 1. (1) $\folgt\exists a^{(1)},\ldots,a^{(m)}\in A: A\subseteq\displaystyle\bigcup_{j=1}^mU_\ep(a^{(j)})$. Teil 1 $\folgt\exists\lambda_j\in M: U_\ep(a^{(j)})\subseteq G_{\lambda_j}\ (j=1,\ldots,m)\folgt A\subseteq\displaystyle\bigcup_{j=1}^m G_{\lambda_j}$
\indexlabel{vektorwertige Funktion}Stets in dem Paragraphen: Sei $\emptyset\ne D \subseteq\MdR^n$ und $f: D\to\MdR^m$ eine (\textbf{vektorwertige}) Funktion. Für Punkte $(x_1, x_2)\in\MdR^2$ schreiben wir auch $(x,y)$. Für Punkte $(x_1, x_2, x_3)\in\MdR^3$ schreiben wir auch $(x, y, z)$. Mit $x=(x_1,\ldots,x_n)\in D$ hat $f$ die Form $f(x)=f(x_1,\ldots,x_n)=(f_1(x_1,\ldots,x_n),\ldots,f_m(x_1,\ldots,x_n))$, wobei $f_j:D\to\MdR\ (j=1,\ldots,m)$. Kurz: $f=(f_1,\ldots,f_m)$.
\item Sei $y_0\in\MdR^m$. $\displaystyle\lim_{x\to x_0}f(x)=y_0 :\equizu$ für \textbf{jede} Folge $(x^{(k)})$ in $D\ \backslash\ \{x_0\}$ mit $x^{(k)}\to x_0$ gilt: $f(x^{(k)})\to y_0$. In diesem Fall schreibt man: $f(x)\to y_0(x\to x_0)$.
\item$f(x,y)=(x+y,xy,xe^y); \displaystyle\lim_{(x,y)\to(1,1)}f(x,y)=(2,1,e)$, denn: ist $((x_k, y_n))$ eine Folge mit $(x_k,y_k)\to(1,1)\folgtnach{2.1}x_k\to1, y_k\to1\folgt x_k+y_k\to2, x_ky_k\to1, x_ke^{y_k}\to e\folgtnach{2.1}(x_k,y_k)\to(2,1,e)$.
\item\indexlabel{Stetigkeit}Sei $x_0\in D$. $f$ heißt \textbf{stetig} in $x_0$ gdw. für jede Folge $(x^{(k)})$ in $D$ mit $(x^{(k)})\to x_0$ gilt: $f(x^{(k)})\to f(x_0)$. Wie in Ana I: Ist $x_0\in D \cap\H(D)$, so gilt: $f$ ist stetig in $x_0\equizu\displaystyle{\lim_{x \to x_0}} f(x)= f(x_0)$.
\item\indexlabel{Stetigkeit!auf einem Intervall}$f$ heißt auf $D$ stetig gdw. $f$ in jedem $x \in D$ stetig ist. In diesem Fall schreibt man: $f \in C(D,\MdR^m)\ (C(D)= C(D,\MdR)).$
\item\indexlabel{Stetigkeit!gleichmäßige}$f$ heißt auf $D$\textbf{gleichmäßig} (glm) stetig gdw. gilt:\\
\item Sei $x_0\in D$ und $f =(f_1,\ldots,f_m).$ Dann ist $f$ stetig in $x_0$ gdw. alle $f_j$ stetig in $x_0$ sind. Entsprechendes gilt für "`stetig auf $D$"', "`glm stetig auf $D$"', "`Lipschitzstetig auf $D$"'.
\item Die Aussagen des Satzes Ana I, 17.1 gelten sinngemäß für Funktionen von mehreren Variablen.
\item Sei $x_0\in D$. $f$ ist stetig in $x_0$ gdw. zu jeder Umgebung $V$ von $f(x_0)$ eine Umgebung $U$ von $x_0$ existiert mit $f(U \cap D)\subseteq V$.
\item Sei $\emptyset\ne E \subseteq\MdR^m$, $f(D)\subseteq E$, $g: E \to\MdR^p$ eine Funktion, $f$ stetig in $x_0\in D$ und $g$ stetig in $f(x_0)$. Dann ist $g \circ f: D \to\MdR^p$ stetig in $x_0$.
\end{liste}
\end{satz}
\begin{beweise}
\item folgt aus 2.1
\item wie in Ana 1
\item Übung
\item wie in Ana 1
\end{beweise}
\begin{beispiele}
\item$f(x,y) :=\begin{cases}
\frac{xy}{x^2+y^2}, & (x,y) \ne (0,0)\\
0, & (x,y) = (0,0)
\end{cases}\quad(D = \MdR^2)$
$f(\frac{1}{k},\frac{1}{k})=\frac{1}{2}\to\frac{1}{2}\ne0= f(0,0)\folgt f$ ist in $(0,0)$\emph{nicht} stetig.
\item$f(x,y) :=\begin{cases}
\frac{1}{y}\sin(xy), & y \ne 0\\
x, & y = 0
\end{cases}$
Für $y \ne0: |f(x,y)- f(0,0)| =\frac{1}{|y|}|\sin(xy)| \le\frac{1}{|y|}|xy| = |x|.$
Also gilt: $|f(x,y)- f(0,0)| \le |x|\ \forall(x,y)\in\MdR^2\folgt f(x,y)\to f(0,0)\ ((x,y)\to(0,0))\folgt f$ ist stetig in $(0,0)$.
\item Sei $\Phi\in C^1(\MdR),\ \Phi(0)=0,\ \Phi'(0)=2$ und $a \in\MdR$.
$f(x,y)=0\ \forall(x,y)\in\MdR^2\backslash\{(0,0)\}\folgt f$ ist in $(0,0)$ nicht stetig.
Fall 2: $a \ne0$
$r := x^2+ y^2.\ (x,y)\to(0,0)\equizu\|(x,y)\|\to0\equizu r \to0$, Sei $(x,y)\ne(0,0)$. Dann gilt:
$f(x,y)=\frac{\Phi(ar)}{r}=\frac{\Phi(ar)-\Phi(0)}{r -0}= a \frac{\Phi(ar)-\Phi(0)}{ar -0}\overset{r \to0}{\to} a \Phi'(0)=2a$. Das heißt: $f(x,y)\to2a\ ((x,y)\to(0,0))$.
Daher gilt: $f$ ist stetig in $(0,0)\equizu2a =\frac{1}{2}\equizu a =\frac{1}{4}$.
\end{beispiele}
\begin{definition*}[Beschränktheit einer Funktion]
\indexlabel{Beschränktheit!einer Funktion}
$f:D \to\MdR^m$ heißt \textbf{beschränkt} (auf $D$) gdw. $f(D)$ beschränkt ist $(\equizu\exists c \ge0: \|f(x)\|\le c\ \forall x \in D)$.
\end{definition*}
\begin{satz}[Funktionen auf beschränkten und abgeschlossenen Intervallen]
$D$ sei beschränkt und abgeschlossen und es sei $f \in C(D,\MdR^m)$.
\begin{liste}
\item$f(D)$ ist beschränkt und abgeschlossen.
\item$f$ ist auf $D$ gleichmäßig stetig.
\item Ist $f$ injektiv auf $D$, so gilt: $f^{-1}\in C(f(D),\MdR^n)$.
\item Ist $m =1$, so gilt: $\exists a,b \in D: f(a)\le f(x)\le f(b)\ \forall x \in D$.
\end{liste}
\end{satz}
\begin{beweis}
wie in Ana I.
\end{beweis}
\begin{satz}[Fortsetzungssatz von Tietze]
Sei $D$ abgeschlossen und $f \in C(D,\MdR^m)\folgt\exists F \in C(\MdR^n,\MdR^m): F=f$ auf $D$.
\end{satz}
\begin{satz}[Lineare Funktionen und Untervektorräume von $\MdR^n$]
\begin{liste}
\item Ist $f:\MdR^n \to\MdR^m$ und \emph{linear}, so gilt: $f$ ist Lipschitzstetig auf $\MdR^n$, insbesondere gilt: $f \in C(\MdR^n,\MdR^m)$.
\item Ist $U$ ein Untervektorraum von $\MdR^n$, so ist $U$ abgeschlossen.
\end{liste}
\end{satz}
\begin{beweise}
\item Aus der Linearen Algebra ist bekannt: Es gibt eine $(m \times n)$-Matrix $A$ mit $f(x)= Ax$. Für $x,y \in\MdR^n$ gilt: $\|f(x)-f(y)\|=\|Ax - Ay\|=\|A(x-y)\|\le\|A\|\cdot\|x-y\|$
\item Aus der Linearen Algebra ist bekannt: Es gibt einen UVR $V$ von $\MdR^n$ mit: $\MdR^n = U \oplus V$. Definiere $P: \MdR^n \to\MdR^n$ wie folgt: zu $x \in\MdR^n$ existieren eindeutig bestimmte $u \in U,\ v \in V$ mit: $x = u+v;\ P(x) := u$.
Nachrechnen: $P$ ist linear.
$P(\MdR^n)= U$ (Kern $P = V,\ P^2= P$). Sei $(u^{(k)})$ eine konvergente Folge in $U$ und $x_0 :=\lim u^{(k)}$, z.z.: $x_0\in U$.
Aus (1) folgt: $P$ ist stetig $\folgt P(u^{(k)})\to P(x_0)\folgt x_0=\lim u^{(k)}=\lim P(u^{(k)})= P(x_0)\in P(\MdR^n)= U$.
\end{beweise}
\begin{definition*}[Abstand eines Vektor zu einer Menge]
\indexlabel{Abstand!zwischen Vektor und Menge}
Sei $\emptyset\ne A \subseteq\MdR^n,\ x \in\MdR^n.\ d(x,A) :=\inf\{\|x-a\|:a \in A\}$ heißt der \textbf{Abstand} von $x$ und $A$.
Klar: $d(a,A)=0\ \forall a \in A$.
\end{definition*}
\begin{satz}[Eigenschaften des Abstands zwischen Vektor und Menge]
\item Der Beweis erfolgt duch Implikation in beiden Richtungen:
\begin{itemize}
\item["`$\impliedby$"':] Sei $x \in\overline{A}\folgtnach{2.2}\exists$ Folge $(a^{(k)})$ in $A: a^{(k)}\to x \folgtnach{(1)} d(a^{(k)},A)\to d(x,A)\folgt d(x,A)=0$.
\item["`$\implies$"':] Sei $d(x,A)=0.\ \forall k \in\MdN\ \exists a^{(k)}\in A: \|a^{(k)}- x\| < \frac{1}{k}\folgt a^{(k)}\to x \folgtnach{2.2} x \in\overline{A}$.
\end{itemize}
\end{beweise}
\chapter{Partielle Ableitungen}
Stets in diesem Paragraphen: $\emptyset\ne D\subseteq\MdR^n$, $D$ sei offen und $f:D\to\MdR$ eine reellwertige Funktion. $x_0=(x_1^{(0)}, \ldots, x_n^{(0)})\in D$. Sei $j\in\{1,\ldots,n\}$ (fest).
Die Gerade durch $x_0$ mit der Richtung $e_j$ ist gegeben durch folgende Menge: $\{x_0+te_j:t\in\MdR\}$. $D$ offen $\folgt$$\exists\delta>0: U_\delta(x_0)\subseteq D$. $\|x_0+te_j - x_0\|=\|te_j\|= |t| \folgt x_0+e_j \in D $ für $t\in(-\delta,\delta)$. $g(t) := f(x_0+te_j)$$(t\in(-\delta,\delta))$
Es ist $g(t)= f(x_1^{(0)}, \ldots, x_{j-1}^{(0)}, x_j^{(0)}+ t, x_{j+1}^{(0)}, \ldots, x_n^{(0)})$
\begin{definition}
$f$ heißt in $x_0$\textbf{partiell differenzierbar} nach $x_j$ :\equizu es exisitert
der Grenzwert
$$\lim_{t\to0}\frac{f(x_0+te_j)- f(x_0)}t$$
und ist $\in\MdR$. In diesem Fall heißt obiger Grenzwert die \textbf{partielle Ableitung
von $f$ in $x_0$} nach $x_j$ und man schreibt für diesen Grenzwert:
$$f_{x_j}(x_0)\text{ oder }\frac{\partial f}{\partial x_j}(x_0)$$
Im Falle $n=2$ oder $n=3$ schreibt man $f_x$, $f_y$, $f_z$ bzw. $\frac{\partial f}{\partial x}$, $\frac{\partial f}{\partial y}$, $\frac{\partial f}{\partial z}$
Sei $x\ne0$: $f_{x_j}(x)=\frac{1}{2\sqrt{x_1^2+\cdots+ x_n^2}}2x_j =\frac{x_j}{\|x\|}$
Sei $x=0$: $\frac{f(t,0,\ldots,0)- f(0,0,\ldots,0)}{t}=\frac{|t|}{t}=\begin{cases}1, &t>0\\-1,&t<0\end{cases}\folgt f$ ist in $(0,\ldots,0)$ nicht partiell differenzierbar nach $x_1$. Analog: $f$ ist in $(0,\ldots,0)$ nicht partiell differenzierbar nach $x_2,\ldots,x_n$
$\frac{f(t,0)- f(0,0)}{t}=0\to0\ (t\to0)\folgt f$ ist in $(0,0)$ partiell differenzierbar nach $x$ und $f_x(0,0)=0$. Analog: $f$ ist in $(0,0)$ partiell differenzierbar nach $y$ und $f_y(0,0)=0$. Aber: $f$ ist in $(0,0)$ nicht stetig.
\end{beispiele}
\def\grad{\mathop{\rm grad}\nolimits}
\begin{definition}
\indexlabel{partiell!Differenzierbarkeit}
\indexlabel{partiell!Ableitung}
\indexlabel{Differenzierbarkeit!partielle}
\indexlabel{Ableitung!partielle}
\begin{liste}
\item$f$ heißt in $x_0$\textbf{partiell differenzierbar}$:\equizu$$f$ ist in $x_0$
partiell differenzierbar nach allen Variablen $x_1,\ldots, x_n$. In diesem Fall heißt
$\grad f(x_0) :=\nabla f(x_0) :=(f_{x_1}(x_0),\ldots, f_{x_n}(x_0))$ der \textbf{Gradient} von
$f$ in $x_0$. \indexlabel{Gradient}
\item$f$ ist auf $D$\textbf{partiell differenzierbar} nach $x_j$ oder $f_{x_j}$ ist auf $D$ vorhanden :\equizu$f$ ist in jedem $x\in D$ partiell differenzierbar nach $x_j$. In diesem Fall wird durch $x\mapsto f_{x_j}(x)$ eine Funktion $f_{x_j}: D\to\MdR$ definiert die \textbf{partielle Ableitung} von $f$ auf $D$ nach $x_j$.
\item$f$ heißt \textbf{partiell differenzierbar} auf $D$ :\equizu$f_{x_1},\ldots,f_{x_n}$ sind auf $D$ vorhanden.
\item$f$ heißt auf $D$\textbf{stetig partiell differenzierbar} :\equizu$f$ ist auf $D$ partiell differenzierbar und $f_{x_1},\ldots,f_{x_n}$ sind auf $D$ stetig. In diesem Fall schreibt man $f\in C^1(D,\MdR)$.
\end{liste}
\end{definition}
\begin{beispiele}
\item Sei $f$ wie in obigem Beispiel (3). $f$ ist in $(0,0)$ partiell differenzierbar und $\grad f(0,0)=(0,0)$
\item Sei $f$ wie in obigem Beispiel (2). $f$ ist auf $\MdR^n\backslash\{0\}$ partiell differenzierbar und $\grad f(x)=(\frac{x_1}{\|x_n\|},\ldots,\frac{x_n}{\|x_n\|})=\frac{1}{\|x\|} x \ (x\ne0)$
\end{beispiele}
\begin{definition}
Seien $j,k\in\{1,\ldots,n\}$ und $f_{x_j}$ sei auf $D$ vorhanden. Ist $f_{x_j}$ in
$x_0\in D$ partiell differenzierbar nach $x_k$, so heißt
Übungsblatt: $f_{xy}(0,0)$, $f_{yx}(0,0)$ existieren, aber $f_{xy}(0,0)\ne f_{yx}(0,0)$
\end{beispiele}
\begin{definition}
Sei $m\in\MdN$. $f$ heißt auf $D$\textbf{$m$-mal stetig partiell differenzierbar} :\equizu alle partiellen Ableitungen von $f$ der Ordnung $\le m$ sind auf $D$ vorhanden und auf $D$ stetig. In diesem Fall schreibt man: $f\in C^m(D,\MdR)$
O.B.d.A: $n=2$ und $x_0=(0,0)$. Zu zeigen: $f_{xy}(0,0)=f_{yx}(0,0)$. $D$ offen $\folgt\exists\delta>0: U_\delta(0,0)\subseteq D$. Sei $(x,y)\in U_\delta(0,0)$ und $x\ne0\ne y$. $$\nabla:=f(x,y)-f(x,0)-(f(0,y)-f(0,0)),\quad\varphi(t):=f(t,y)-f(t,0)$$ für $t$ zwischen $0$ und $x$. $\varphi$ ist differenzierbar und $\varphi'(t)=f_x(t,y)-f_x(t,0)$. $\varphi(x)-\varphi(0)=\nabla$. MWS, Analysis 1 $\folgt\exists\xi=\xi(x,y)$ zwischen $0$ und $x$: $\nabla=x\varphi'(\xi)=x(f_x(\xi,y)-f_x(\xi,0))$. $g(s):=f_x(\xi,s)$ für s zwischen $0$ und $y$; $g$ ist differenzierbar und $g'(s)=f_{xy}(\xi,s)$. Es ist $\nabla=x(g(y)-g(0))\gleichnach{MWS}xyg'(\eta),\ \eta=\eta(x,y)$ zwischen $0$ und $y$. $\folgt\nabla=xyf_{xy}(\xi,\eta).$ (1)\\
$\psi(t):=f(x,t)-f(0,t)$, $t$ zwischen $0$ und $y$. $\psi'(t)=f_y(x,t)-f_y(0,t)$. $\nabla=\psi(y)-\psi(0)$. Analog: $\exists\bar\eta=\bar\eta(x,y)$ und $\bar\xi=\bar\xi(x,y)$, $\bar\eta$ zwischen $0$ und $y$, $\bar\xi$ zwischen $0$ und $x$. $\nabla=xyf_{yx}(\bar\xi,\bar\eta).$ (2)\\
Aus (1), (2) und $xy\ne0$ folgt $f_{xy}(\xi,\eta)=f_{yx}(\bar\xi,\bar\eta)$. $(x,y)\to(0,0)\folgt\xi,\bar\xi,\eta,\bar\eta\to0\folgtwegen{f\in C^2}f_{xy}(0,0)=f_{yx}(0,0)$
\end{beweis}
\chapter{Differentiation}
\def\grad{\mathop{\rm grad}\nolimits}
\begin{vereinbarung}
Stets in dem Paragraphen: $\emptyset\ne D\subseteq\MdR^n$, $D$ offen und $f:D\to\MdR^m$ eine Funktion, also $f=(f_1,\ldots,f_m)$
\end{vereinbarung}
\begin{definition*}
\begin{liste}
\item Sei $k\in\MdN$. $f\in C^k(D,\MdR^m) :\equizu f_j\in C^k(D,\MdR)\ (j=1,\ldots,m)$
\item Sei $x_0\in D$. $f$ hei"st \textbf{partiell differenzierbar} in $x_0 :\equizu$ jedes $f_j$ ist in $x_0$ partiell differenzierbar. In diesem Fall hei"st
\item$f$ hei"st differenzierbar auf $D\ :\equizu f$ ist in jedem $x\in D$ differenzierbar.
\end{liste}
\end{definition*}
\begin{bemerkungen}
\item$f$ ist differenzierbar in $x_0\equizu\exists(m \times n)$-Matrix $A$: $$\ds\lim_{x\to x_0}\frac{f(x)-f(x_0)-A(x-x_0)}{\|x-x_0\|}=0$$
\item Ist $m=1$, so gilt: $f$ ist differenzierbar in $x_0$
\begin{align*}
\equizu\exists a \in\MdR^n:\ds\lim_{h\to 0}\frac{f(x_0+h)-f(x_0)-ah}{\|h\|}=0\ \tag{$**$}
\end{align*}
\item Aus 2.1 folgt: $f$ ist differenzierbar in $x_0\equizu$ jedes $f_j$ ist differenzierbar in $x_0$.
\end{bemerkungen}
\begin{satz}[Differenzierbarkeit und Stetigkeit]
$f$ sei in $x_0\in D$ differenzierbar
\begin{liste}
\item$f$ ist in $x_0$ stetig
\item$f$ ist in $x_0$ partiell differenzierbar und die Matrix A in $(*)$ ist eindeutig bestimmt: \\$A=J_f(x_0)$. $f'(x_0):=A=J_f(x_0)$ (\begriff{Ableitung} von $f$ in $x_0$).
\end{liste}
\end{satz}
\begin{beweis}
Sei A wie in $(*)$, $A=(a_{jk})$, $\varrho(h):=\frac{f(x_0+h)-f(x_0)-Ah}{\|h\|}$, also: $\varrho(h)\to0\ (h\to0)$. Sei $\varrho=(\varrho_1,\ldots,\varrho_m)$. 2.1 $\folgt\varrho_j(h)\to0\ (h\to0)\ (j=1,\ldots,m)$
\item Sei $j\in\{1,\ldots,m\}$ und $k\in\{1,\ldots,n\}$. Zu zeigen: $f_j$ ist partiell differenzierbar und $\frac{\partial f_j}{\partial x_k}(x_0)=a_{jk}$. $\varrho_j(h)=\frac{1}{\|h\|}(f_j(x_0+h)-f_j(x_0)-(a_{j1},\ldots,a_{jn})\cdot h)\to0\ (h \to0)$. Für $t\in\MdR$ sei $h=te_k\folgt\varrho(h)=\frac{1}{|t|}(f(x_0+te_k)-a_{jk}t)\to0\ (t\to0)\folgt\left|\frac{f(x_0+te_k)-f(x_0)}{t}-a_{jk}\right|\to0\ (t\to0)\folgt f_j$ ist in $x_0$ partiell differenzierbar und $\frac{\partial f_j}{\partial x_k}(x_0)=a_{jk}$.
Bekannt: $f$ ist in $(0,0)$\textbf{nicht} stetig, aber partiell differenzierbar und $\grad f(0,0)=(0,0)$ 5.1 $\folgt f$ ist in $(0,0)$\textbf{nicht} differenzierbar.
$\frac{f(t,0)-f(0,0)}{t}=\frac{1}{t}t^2\sin\frac{1}{|t|}=t\sin\frac{1}{|t|}\to0\ (t\to0)\folgt f$ ist in $(0,0)$ partiell differenzierbar nach $x$ und $f_x(0,0)=0$. Analog: $f$ ist in $(0,0)$ partiell differenzierbar nach $y$ und $f_y(0,0)=0$. $\varrho(h)=\frac{1}{\|h\|}f(h)\gleichwegen{h=(h_1,h_2)}\frac{1}{\sqrt{h_1^2+h_2^2}}(h_1^2+h_2^2)\sin\frac{1}{h_1^2+h_2^2}=\sqrt{h_1^2+h_2^2}\underbrace{\sin\frac{1}{\sqrt{h_1^2+h_2^2}}}_{\text{beschränkt}}\to0\ (h\to0)\folgt f$ ist differenzierbar in $(0,0)$ und $f'(0,0)=\grad f(0,0)=(0,0)$
Für $h_2= h_1 > 0: \rho(h)=\frac{-h_1^3}{(\sqrt{2})^3 h_1^3}=-\frac{1}{(\sqrt{2})^3}\folgt\rho(h)\nrightarrow0\ (h \to0)\folgt f$ ist in $(0,0)$\emph{nicht} db.
\end{beispiele}
\begin{satz}[Stetigkeit aller partiellen Ableitungen]
Sei $x_0\in D$ und \emph{alle} partiellen Ableitungen $\frac{\partial f_j}{\partial x_k}$ seien auf $D$ vorhanden und in $x_0$ stetig $(j=1,\ldots,m,\ k=1,\ldots,n)$. Dann ist $f$ in $x_0$ db.
\end{satz}
\begin{beweis}
O.B.d.A: $m=1$ und $x_0=0$. Der Übersicht wegen sei $n=2$.
Für $h =(h_1,h_2)\ne(0,0):$$$\rho(h) :=\frac{1}{\|h\|}(f(h)- f(0,0)-(\underbrace{h_1 f_x(0,0)+ h_2 f_y(0,0)}_{=\grad f(0,0)\cdot h}))$$
\item Sei $I \subseteq\MdR$ ein Intervall und $g =(g_1,\ldots,g_m): I \to\MdR^m;\ g_1,\ldots,g_m: I \to\MdR.$
$g$ ist in $t_0\in I$ db $\equizu g_1,\ldots,g_m$ sind in $t_0\in I$ db. In diesem Fall gilt: $g'(t_0)=(g_1'(t_0),\ldots,g_m'(t_0)).$
\item[(4.1)]$m =2: g(t)=(\cos t,\sin t),\ t \in[0,2\pi].\ g'(t)=(-\sin t,\cos t).$
\item[(4.2)] Seien $a,b \in\MdR^m,\ g(t)= a+t(b-a),\ t \in[0,1],\ g'(t)= b-a$.
\end{beispiele}
\begin{satz}[Kettenregel]
$f$ sei in $x_0\in D$ db, $\emptyset\ne E \subseteq\MdR^m,\ E$ sei offen, $f(D)\subseteq E$ und $g:E \to\MdR^p$ sei db in $y_0 := f(x_0)$. Dann ist $g \circ f: D \to\MdR^p$ db in $x_0$ und $$(g \circ f)'(x_0)= g'(f(x_0))\cdot f'(x_0)\text{(Matrizenprodukt)}$$
\end{satz}
\begin{beweis}
$A := f'(x_0),\ B := g'(y_0)= g'(f(x_0)),\ h := g \circ f.$
$$\tilde{g}(y)=\begin{cases}
\frac{g(y)-g(y_0)-B(y-y_0)}{\|y-y_0\|}&\text{, falls } y \in E\backslash\{y_0\}\\
0 &\text{, falls } y = y_0
\end{cases}$$
$g$ ist db in $y_0\folgt\tilde{g}(y)\to0\ (y \to y_0).$ Aus Satz 5.1 folgt, dass $f$ stetig ist in $x_0\folgt f(x)\to f(x_0)= y_0\ (x \to x_0)\folgt\tilde{g}(f(x))\to0\ (x \to x_0)$
Es ist $g(y)- g(y_0)=\|y-y_0\|\tilde{g}(y)= B(y-y_0)\ \forall y \in E.$
$\Phi(x):=Ax (x \in\MdR^n). \text{ Lin. Alg.}\folgt\Phi\text{ ist linear, }
\Phi:\MdR^n \to\MdR^m. \folgtnach{(i)}\Phi\text{ ist injektiv, also }
Kern \Phi = {0}. \text{ (ii) Sei }z \in\MdR^m, x:=Bz \folgtnach{(ii)} z = ABz = Ax = \Phi(x) \folgt\Phi\text{ ist surjektiv. Dann: } n = \dim\MdR^n \gleichnach{LA}\dim\kernn\Phi + \text{dim}\Phi(\MdR^n) = m.$
\end{beweis}
\begin{satz}[Injektivität und Dimensionsgleichheit]
$f:D\to\MdR^m$ sei db auf $D$, es sei $f(D)$ offen, $f$ injektiv auf $D$ und $f^{-1}:f(D)\to\MdR^n$ sei db auf $f(D)$. Dann:
\item[(1)]$m = n$
\item[(2)]$\forall x \in D:f'(x)$ ist eine invertierbare Matrix und $f'(x)^{-1}=(f^{-1})'(f(x))$
\end{satz}
\textbf{Beachte:}
\begin{itemize}
\item[(1)] Ist $D$ offen und $f:D\to\MdR^m$ db, so muss i. A. $f(D)$ nicht offen sein. Z.B.: $f(x)=\sin x, D =\MdR, f(D)=[-1,1]$
\item[(2)] Ist $D$ offen, $f:D\to\MdR^m$ db und injektiv, so muss i.A. $f^{-1}$\underline{nicht} db sein. Z.B.: $f(x)= x^3, D =\MdR, f^{-1}$ ist in 0 \underline{nicht} db.
\end{itemize}
\begin{beweis} von 5.5: $g:=f^{-1}; x_0\in D, z_0:=f(x_0)(\folgt x_0= g(z_0))$
Es gilt: $g(f(x))= x \forall x \in D, f(g(z))= z \forall z \in f(D)\folgtnach{5.4} g'(f(x))\cdot f'(x)= I \forall x \in D; f'(g(z))\cdot g'(z)=\tilde{I}
\forall z \in f(D) \folgt\underbrace{g'(z_0)}_{=:B}\cdot\underbrace{f'(x_0)}_{=:A} = I, f'(x_0)\cdot g'(z_0) = \tilde{I}\folgtnach{5.5} m = n$ und $f'(x_0)^{-1} = g'(z_0) = (f^{-1})'(f(x_0))$.
\item$M\subseteq\MdR^n$ heißt \textbf{konvex}$:\equizu$\ aus $a,b \in M$ folgt
stets: $S[a,b]\subseteq M$
\item Sei $k \in\MdN$ und $x^{(0)},\ldots,x^{(k)}\in\MdR^n.\ S[x^{(0)},\ldots,x^{(k)}]:=\bigcup_{j=1}^{k}S[x^{(j-1)}, x^{(j)}]$ heißt \begriff{Streckenzug} durch $x^{(0)},\ldots,x^{(k)}$ (in dieser Reihenfolge!)
\item Sei $G \subseteq\MdR^n$. $G$ heißt \begriff{Gebiet}$:\equizu\ G$ ist offen und aus $a,b \in G$ folgt: $\exists x^{(0)},\ldots,x^{(k)}\in G: x^{(0)}=a, x^{(k)}=b$ und $S[x^{(0)},\ldots,x^{(k)}]\subseteq G$.
\end{liste}
\end{definition}
\begin{vereinbarung}
Ab jetzt in diesem Paragraphen: $\emptyset\ne D \subseteq\MdR^n$, $D$ offen und
$f:D\to\MdR$ eine Funktion.
\end{vereinbarung}
\begin{satz}[Der Mittelwertsatz]
$f:D\to\MdR$ sei differenzierbar auf $D$, es seien $a,b \in D$ und $S[a,b]\subseteq D$. Dann: $$\exists\ \xi\in S[a,b]: f(b)-f(a)=f'(\xi)\cdot(b-a)$$
$$%Bug
\end{satz}
\begin{beweis}
Sei $g(t):=a+t\cdot(b-a)$ für $t\in[0,1]$. $g([0,1])=S[a,b]\subseteq D$. $\Phi(t):=f(g(t))(t \in[0,1])$ 5.4 $\folgt\Phi$ ist differenzierbar auf $[0,1]$ und $\Phi'(t)= f'(g(t))\cdot g'(t)= f'(a+t(b-a))\cdot(b-a)$. $f(b)-f(a)=\Phi(1)-\Phi(0)\folgtnach{MWS, AI}\Phi'(\eta)= f'(\underbrace{a+\eta(b-a)}_{=:\xi\in S})\cdot(b-a), \eta\in[0,1]$
\end{beweis}
\begin{folgerungen}
Sei $D$ ein \textbf{Gebiet} und $f,g:D\to\MdR$ seien differenzierbar auf $D$.
\begin{liste}
\item Ist $f'(x)=0\ \forall x \in D \folgt f$ ist auf $D$ konstant.
\item Ist $f'(x)=g'(x)\forall x \in D \folgt\exists c \in\MdR: f=g+c$ auf $D$.
5.4 $\folgt g$ ist differenzierbar auf $\MdR^n$ und $g'(x)=2(\Phi(x)-ax)(\Phi'(x)-a)=0\ \forall x \in\MdR^n$.
6.2(1) $\folgt g(x)=g(0)=0\ \forall x\in\MdR^n \folgt\Phi(x)=a\cdot x\ \forall x \in\MdR^n.$
\end{beweis}
\paragraph{Die Richtungsableitung}
\indexlabel{Richtung}
\indexlabel{Richtungs-!Vektor}
\indexlabel{Richtungs-!Ableitung}
Sei $\emptyset\ne D \subseteq\MdR^n,\ D$ offen, $f:D \to\MdR$ und $x_0\in D$. Ist $a \in\MdR^n$ und $\|a\|=1$, so heißt $a$ eine \textbf{Richtung} (oder ein \textbf{Richtungsvektor}).
Sei $a \in\MdR^n$ eine Richtung. $D$ offen $\folgt\exists\delta>0: U_\delta(x_0)\subseteq D$. Gerade durch $x_0$ mit Richtung $a:\{x_0+ta:t\in\MdR\}.\ \|x_0+ta-x_0\|=\|ta\|= |t|$. Also: $x_0+ta \in D$ für $t \in(-\delta,\delta),\ g(t) := f(x_0+ta)\ (t \in(-\delta,\delta))$.
$f$ heißt \textbf{in $x_0$ in Richtung $a$ db}, gdw. der Grenzwert $$\lim_{t\to0}\frac{f(x_0+ta)-f(x_0)}{t}$$ existiert und $\in\MdR$ ist. In diesem Fall heißt $$\frac{\partial f}{\partial a}(x_0) :=\lim_{t\to0}\frac{f(x_0+ta)-f(x_0)}{t}$$ die \textbf{Richtungsableitung von $f$ in $x_0$ in Richtung $a$}.
\begin{beispiele}
\item$f$ ist in $x_0$ partiell db nach $x_j \equizu f$ ist in $x_0$ db in Richtung $e_j$. In diesem Fall gilt: $\frac{\partial f}{\partial x_j}(x_0)=\frac{\partial f}{\partial e_j}(x_0)$.
$x_0=(0,0).$ Sei $a=(a_1,a_2)\in\MdR^2$ eine Richtung, also $a_1^2+a_2^2=1;\ \frac{f(ta)-f(0,0)}{t}=\frac{1}{t}\frac{t^2a_1a_2}{t^2a_1^2+t^2a_2^2}=\frac{a_1a_2}{t}$. D.h.: $\frac{\partial f}{\partial a}(0,0)$ ex. $\equizu a_1a_2=0\equizu a \in\{(1,0),(-1,0),(0,1),(0,-1)\}$. In diesem Fall: $\frac{\partial f}{\partial a}(0,0)=0.$
$x_0=(0,0)$. Sei $a =(a_1,a_2)\in\MdR$ eine Richtung. $\frac{f(ta)-f(0,0)}{t}=\frac{1}{t}\frac{t^3a_1a_2^2}{t^2a_1^2+t^4a_2^4}=\frac{a_1a_2^2}{a_1^2+t^2a_2^4}\overset{t \to0}{\to}\begin{cases}
D.h. $\frac{\partial f}{\partial a}(0,0)$ existiert für \emph{jede} Richtung $a \in\MdR^2$. Z.B.: $a =\frac{1}{\sqrt{2}}(1,1): \frac{\partial f}{\partial a}(0,0)=\frac{1}{\sqrt{2}}.$
$f(x,\sqrt{x})=\frac{x^2}{2x^2}=\frac{1}{2}\ \forall x>0\folgt f$ ist in $(0,0)$\emph{nicht} stetig.
\end{beispiele}
\begin{satz}[Richtungsableitungen]
Sei $x_0\in D,\ a \in\MdR^n$ eine Richtung, $f:D \to\MdR$.
\begin{liste}
\item$\frac{\partial f}{\partial a}(x_0)$ existiert $\equizu\frac{\partial f}{\partial(-a)}(x_0)$ existiert. In diesem Fall ist: $$\frac{\partial f}{\partial(-a)}(x_0)=-\frac{\partial f}{\partial a}(x_0)$$
\item$f$ sei in $x_0$ db. Dann:
\begin{enumerate}
\item[(i)]$\frac{\partial f}{\partial a}(x_0)$ existiert und $$\frac{\partial f}{\partial a}(x_0)= a\cdot\grad f(x_0).$$
\item[(i)]$g(t) := f(x_0+ta)$ ($|t|$ hinreichend klein). Aus Satz 5.4 folgt: $g$ ist db in $t=0$ und $g'(0)= f'(x_0)\cdot a \folgt\frac{\partial f}{\partial a}(x_0)$ existiert und ist $= g'(0)=\grad f(x_0)\cdot a$
Sei $\frac{\partial f}{\partial a}(x_0)=\frac{\partial f}{\partial a_0}(x_0)\folgtnach{(i),(ii)} a\cdot\grad f(x_0)=\|\grad f(x_0)\|\folgt a\cdot a_0=1\folgt\|a-a_0\|^2=(a-a_0)(a-a_0)= a\cdot a -2a\cdot a_0+ a_0\cdot a_0=1-2+1=0\folgt a=a_0.$
\end{enumerate}
\end{liste}
\end{beweis}
\paragraph{Der Satz von Taylor}
Im Folgenden sei $f:D \to\MdR$ zunächst "`genügend oft partiell db"', $x_0\in D$ und $h=(h_1,\ldots,h_n)\in\MdR^n$. Wir führen folgenden Formalismus ein.
In diesem Paragraphen sei $A$ stets eine reelle und symmetrische $(n\times n)$-Matrix, $(A=A^\top)$. Also: $A=(a_{jk})$, dann $a_{jk}=a_{kj}\ (k,j=1,\ldots,n)$
\item$A$ sei positiv definit \alt{negativ definit}. Dann existiert ein $\ep>0$ mit: Ist $B=(b_{jk})$ eine weitere symmetrische $(n\times n)$-Matrix und gilt: $(*)\ |a_{jk}-b_{jk}|\le\ep\ (j,k=1,\ldots, n)$, so ist B positiv definit \alt{negativ definit}.
\item$A$ sei indefinit. Dann existieren $u,v\in\MdR^n$ und $\ep>0$ mit: ist $B=(b_{jk})$ eine weitere symmetrische $(n\times n)$-Matrix und gilt: $(*)\ |a_{jk}-b_{jk}|\le\ep\ (j,k=1,\ldots,n)$, so ist $Q_B(u)>0, Q_B(v)<0$. Insbesondere: $B$ ist indefinit.
\item$A$ sei positiv definit $\folgtnach{7.1}\exists c>0: Q_A(x)\ge c\|x\|^2\ \forall x\in\MdR^n$. $\ep:=\frac{c}{2n^2}$. Sei $B=(b_{jk})$ eine symmetrische Matrix mit $(*)$. Für $x=(x_1,\ldots,x_n)\in\MdR^n:\ Q_A(x)-Q_B(x)\le|Q_A(x)-Q_B(x)|=\left|\ds\sum_{j,k=1}^m(a_{jk}-b_{jk})x_jx_k\right|\le\ds\sum_{j,k=1}^n\underbrace{|a_{jk}-b_{jk}|}_{\le\ep}\underbrace{|x_j|}_{\le\|x\|}\underbrace{|x_k|}_{\le\|x\|}\le\ep\|x\|^2n^2=\frac{c}{2n^2}\|x\|^2n^2=\frac{c}{2}\|x\|^2$
\item$A$ sei indefinit. $\exists u,v\in\MdR^n:\ Q_A(u)>0, Q_A(v)<0$. $\alpha:=\min\left\{\frac{Q_A(u)}{\|u\|^2},\ -\frac{Q_A(v)}{\|v\|^2}\right\}\folgt\alpha>0$. $\ep:=\frac{\alpha}{2n^2}$. Sei $B=(b_{jk})$ eine symmetrische Matrix mit $(*)$.\\
$Q_A(u)-Q_B(u)\overset{\text{Wie bei (1)}}{\le}\ep u^2\|u\|^2=\frac{\alpha}{2n^2}n^2\|u\|^2=\frac{\alpha}{2}\|u\|^2\le\frac{1}{2}\frac{Q_A(u)}{\|u\|^2}\|u\|^2=\frac{1}{2}Q_A(u)\folgt Q_B(u)\ge\frac{1}{2}Q_A(u)>0$. Analog: $Q_B(v)<0$.
\end{beweise}
\chapter{Extremwerte}
\def\grad{\mathop{\rm grad}\nolimits}
\begin{vereinbarung}
In diesem Paragraphen sei $\emptyset\ne D \subseteq\MdR^n, f:D\to\MdR$ und $x_0\in D$
\end{vereinbarung}
\begin{definition*}
\indexlabel{lokal!Maximum}
\indexlabel{lokal!Minimum}
\indexlabel{lokal!Extremum}
\indexlabel{stationärer Punkt}
\begin{liste}
\item
$f$ hat in $x_0$ ein \textbf{lokales Maximum}$:\equizu\exists\delta>0:\ f(x)\le f(x_0)\ \forall x\in D \cap U_\delta(x_0)$.\\
$f$ hat in $x_0$ ein \textbf{lokales Minimum}$:\equizu\exists\delta>0:\ f(x)\ge f(x_0)\ \forall x\in D \cap U_\delta(x_0)$.\\
\textbf{lokales Extremum} = lokales Maximum oder lokales Minimum
Sei $D$ offen, $f\in C^2(D,\MdR)$ und $\grad f(x_0)=0$.
\begin{liste}
\item[(i)]
Ist $H_f(x_0)$ positiv definit $\folgt f$ hat in $x_0$ ein lokales Minimum.
\item[(ii)]
Ist $H_f(x_0)$ negativ definit $\folgt f$ hat in $x_0$ ein lokales Maximum.
\item[(iii)]
Ist $H_f(x_0)$ indefinit $\folgt f$ hat in $x_0$\underline{kein} lokales Extremum.
\end{liste}
\end{satz}
\begin{beweis}
\begin{liste}
\item[(i),]
(ii) $A:=H_f(x_0)$ sei positiv definit oder negativ definit oder indefinit. Sei $\ep>0$ wie in 7.2. $f\in C^2(D,\MdR)\folgt\exists\delta>0: U_\delta(x_0)\subseteq D$ und $(*)\ |f_{x_jx_k}(x)-f_{x_jx_k}(x_0)|\le\ep\ \forall x\in U_\delta(x_0)\ (j,k=1,\ldots,n)$. Sei $x\in U_\delta(x_0)\ \backslash\ \{x_0\}, h:=x-x_0\folgt x=x_0+h, h\ne0$ und $S[x_0,x_0+h]\subseteq U_\delta(x_0)$ 6.7$\folgt\exists\eta\in[0,1]:\ f(x)=f(x_0+h)=f(x_0)+\underbrace{h\cdot\grad f(x_0)}_{=0}+\frac{1}{2}Q_B(h)$, wobei $B=H_f(x_0+\eta h)$. Also: $(**)\ f(x)=f(x_0)+\frac{1}{2}Q_B(h)$. $A$ sei positiv definit \alt{negativ definit}$\folgtnach{7.2} B$ ist positiv definit \alt{negativ definit}. $\folgtwegen{h\ne0}Q_B(h)\stackrel{(<)}{>}0\folgtwegen{(**)}f(x)\stackrel{(<)}{>}f(x_0)\folgt f$ hat in $x_0$ ein lokales Minimum \alt{Maximum}.
\item[(iii)]$A$ sei indefinit und es seien $u, v\in\MdR^n$ wie in 7.2. Wegen 7.1 OBdA: $\|u\|=\|v\|=1$. Dann: $x_0+tu, x_0+tv \in U_\delta(x_0)$ für $t\in(-\delta, \delta)$. Sei $t\in(-\delta, \delta), t\ne0$. Mit $h:=t\stackrel{(v)}{u}$ folgt aus 7.2 und $(**):\ f(x_0+t\stackrel{(v)}{u})=f(x_0)+\frac{1}{2}Q_B(t\stackrel{(v)}{u})=f(x_0)+\frac{t^2}{2}\underbrace{Q_B(\stackrel{(v)}{u})}_{>0\text{/}<0\text{(7.2)}}\stackrel{(>)}{<}f(x_0)\folgt f$ hat in $x_0$ kein lokales Extremum.
Sei $x_0\in\MdR^n$ und $U\subseteq\MdR^n$. $U$ ist eine Umgebung von $x_0\equizu\exists\delta>0:U_\delta(x_0)\subseteq U$
\end{erinnerung}
\begin{wichtigerhilfssatz}[Offenheit des Bildes]
Sei $\delta>0, f:U_\delta(0)\subseteq\MdR^n\to\MdR^n$ stetig, $f(0)=0$ und $V$ sei eine offene Umgebung von $f(0)\ (=0)$. $U:=\{x\in U_\delta(0):f(x)\in V\}$. Dann ist $U$ eine offene Umgebung von $0$.
\begriff{Cramersche Regel}: Sei $A$ eine reelle $(n\times n)$-Matrix, $\det A\ne0$, und $b\in\MdR^n$. Das lineare Gleichungssystem $Ax=b$ hat genau eine Lösung: $x=(x_1,\ldots,x_n)=A^{-1}b$. Ersetze in $A$ die $j$-te Spalte durch $b^\top$. Es entsteht eine Matrix $A_j$. Dann: $x_j=\frac{\det A_j}{\det A}$.
Sei $\emptyset\ne D\subseteq\MdR^n, D$ offen, $f\in C^1(D,\MdR^n)$. $f$ sei auf $D$ injektiv und es sei $f(D)$ offen. Weiter sei $\det f'(x)\ne0\ \forall x\in D$ und $f^{-1}$ sei auf $f(D)$ differenzierbar. Dann: $f^{-1}\in C^1(f(D),\MdR^n)$.
\end{satz}
\begin{beweis}
Sei $f^{-1}=g=(g_1,\ldots,g_n), g=g(y)$. Zu zeigen: $\frac{\partial g_j}{\partial y_k}$ sind stetig auf $f(D)$. 5.6\folgt$g'(y)\cdot f'(x)=I$$(n\times n\text{-Einheitsmatrix})$, wobei $y=f(x)\in f(D)\folgt$
$\folgt\grad g_j(y)\cdot f'(x)=e_j\folgt f'(x)^\top\cdot\grad g_j(y)^\top=e_j^\top$. Ersetze in $f'(x)^\top$ die $k$-te Spalte durch $e_j^\top$. Es entsteht die Matrix $A_k(x)=A_k(f^{-1}(y))$. Cramersche Regel $\folgt\frac{\partial g_j}{\partial y_k}(y)=\frac{\det A_k(f^{-1}(y))}{\det f'(x)}=\frac{\det A_k(f^{-1}(y))}{\det f'(f^{-1}(y))}$. $f\in C^1(D,\MdR), f^{-1}$ stetig $\folgt$ obige Definitionen hängen stetig von y ab $\folgt\frac{\partial g_j}{\partial y_k}\in C(f(D),\MdR)$.
Sei $\emptyset\ne D \subseteq\MdR^n$, $D$ sei offen, $f\in C^1(D, \MdR^n)$, $x_0\in D$ und $\det f'(x_0)\ne0$. Dann existiert eine offene Umgebung $U$ von $x_0$ und eine offene Umgebung $V$ von $f(x_0)$ mit:
\begin{liste}
\item[(a)]$f$ ist auf $U$ injektiv, $f(U)=V$ und $\det f'(x)\ne0\ \forall x\in U$
\item[(b)] Für $f^{-1}: V\to U$ gilt: $f^{-1}$ ist stetig differenzierbar auf $V$ und $$(f^{-1})'(f(x))=(f'(x))^{-1}\ \forall x\in U$$
\end{liste}
\end{satz}
\begin{folgerung}[Satz von der offenen Abbildung]
$D$ und $f$ seien wie in 9.3 und es gelte: $\det f'(x)\ne0\ \forall x\in D$. Dann ist $f(D)$ offen.
\end{folgerung}
\begin{beweis}
O.B.d.A: $x_0=0$, $f(x_0)= f(0)=0$ und $f'(0)= I$ (=$(n\times n)$-Einheitsmatrix)
Die Abbildungen $x \mapsto\det f'(x)$ und $x\mapsto\|f'(x)- I\|$ sind auf D stetig, $\det f'(0)\ne0$, $\| f'(0)- I \|=0$. Dann existiert ein $\delta > 0$: $K := U_\delta(0)\subseteq D$, $\overline{K}=\overline{U_\delta(0)}\subseteq D$ und
\begin{liste}
\item$\det f'(x)\ne0\ \forall x\in\overline{K}$ und
\item$\|f'(x)- I \|\le\frac{1}{2n}\ \forall x\in\overline{K}$
\item\textbf{Behauptung:}$\frac{1}{2}\|u-v\|\le\|f(u)- f(v)\|\ \forall u,v\in\overline{K}$, insbesondere ist $f$ injektiv auf $\overline{K}$
\item$f^{-1}$ ist stetig auf $f(\overline{K})$: Seien $\xi, \eta\in f(\overline{K})$, $u:=f^{-1}(\xi)$, $v:= f^{-1}(\eta)\folgt u,v \in\overline{K}$ und $\|f^{-1}(\xi)- f^{-1}(\eta)\|=\|u-v\|\stackrel{\text{(3)}}{\le}2\|f(u)- f(v)\|=2\|\xi-\eta\|$
\end{liste}
Beweis zu (3): $h(x) := f(x)- x \ (x\in D)\folgt h\in C^1(D,\MdR^n)$ und $h'(x)= f'(x)- I $. Sei $h=(h1,\ldots,h_n)$. Also: $h' =\begin{pmatrix} h_1' \\\vdots\\ h_n' \end{pmatrix}$. Seien $u,v\in\overline{K}$ und $j\in\{1,\ldots,n\}$.
$V:=U_{\frac{\delta}{4}}(0)$ ist eine offene Umgebung von $f(0)\ (=0)$. $U:=\{x\in K: f(x)\in V\}$ Klar: $U\subseteq K \subseteq\overline{K}$, $0\in U$, 9.1 $\folgt$$U$ ist eine offene Umgebung von 0. (3) $\folgt$$f$ ist auf $U$ injektiv. (1) $\folgt\det f'(x)\ne0\ \forall x\in U$. (4) $\folgt$$f^{-1}$ ist stetig auf $f(U)$. Klar: $f(U)\subseteq V$. Für (a) ist noch zu zeigen: $V\subseteq f(U)$.
Sei $y\in V$. $w(x) :=\| f(x)- y\|^2=(f(x)- y)\cdot(f(x)-y)\folgt w\in C^1(D,\MdR)$ und (nachzurechnen) $w'(x)=2(f(x)-y)\cdot f'(x)$. $\overline K$ ist beschränkt und abgeschlossen $\folgtnach{3.3}\exists x_1\in\overline K: \text{(5)} w(x_1)\le w(x)\ \forall x\in\overline K$.
\textbf{Behauptung:}$x_1\in K$. \\
Annahme: $x_1\ne K \folgt x_1\in\partial K \folgt\| x_1\|=\delta$. $2\sqrt{w(0)}=2\|f(0)- y\|=2\|y\|\le2\frac{\delta}4=\frac\delta2=\frac{\|x_1\|}2=\frac12\|x_1-0\|\stackrel{\text{(3)}}{\le}\|f(x_1)- f(0)\|=\|f(x_1)- y + y - f(0)\|\le\|f(x_1)-y\|-\|f(0)- y\|=\sqrt{w(x_1)}+\sqrt{w(0)}\folgt\sqrt{w(0)} < \sqrt{w(x_1)}\folgt w(0) < w(x_1)\overset{\text{(5)}}{\le} w(0)$, Widerspruch. Also: $x_1\in K$
(5) $\folgt w(x_1)\le w(x)\ \forall x\in K$. 8.1 $\folgt w'(x_1)=0\folgt\left( f(x_1)- y \right)\cdot f'(x_1)=0$; (1) $\folgt f'(x_1)$ ist invertierbar $\folgt y = f(x_1)\folgt x_1\in U \folgt y=f(x_1)\in f(U)$. Also: $f(U)= V$. Damit ist (a) gezeigt.
% Laut Schmöger 5.6, bei uns 5.5. Wessen Zählung ist falsch? Wer Lust hat, mal überprüfen
(b): Wegen 5.5 und 9.2 ist nur zu zeigen: $f^{-1}$ ist differenzierbar auf $V$. Sei $y_1\in V$, $y \in V\backslash\{y_1\}$, $x_1 := f^{-1}(y_1)$, $x := f^{-1}(y)$; $L(y) :=\frac{f^{-1}(y)- f^{-1}(y_1)- f'(x_0)^{-1}(y-y_1)}{\|y-y_1\|}$. zu zeigen: $L(y)\to0\ (y-y_1)$. $\varrho(x) := f(x)-f(x_1)-f'(x_1)(x-x_1)$. $f$ ist differenzierbar in $x_1$$\folgt\frac{\varrho(x)}{\|x-x_1\|}\to0\ (x\to x_1)$.
$$\folgt L(y)=-f'(x_1)^{-1}\frac{\varrho(x)}{\|y-y_1\|}=- f'(x_1)^{-1}\underbrace{\frac{\varrho(x)}{\|x-x_1\|}}_{\to0\ (x\to x_1)}\cdot\underbrace{\frac{\|x-x_1\|}{\|f(x)-f(x_1)}}_{\le2, \text{ nach (3)}}$$
Für $y\to y_1$, gilt (wegen (4)) $x\to x_1\folgt L(y)\to0$.
\end{beweis}
\begin{beispiel}
$$f(x,y)=(x \cos y, x \sin y)$$
$$f'(x,y)=\begin{pmatrix}\cos y &-x \sin y \\\sin y & x \cos y \end{pmatrix}, \det f'(x,y)= x \cos^2 y + x \sin^2 y = x$$
$D:=\{(x,y)\in\MdR^2: x\ne0\}$. Sei $(\xi, \eta)\in D$ 9.3 $\folgt\exists$ Umgebung $U$ von $(\xi, \eta)$ mit: $f$ ist auf $U$ injektiv $(*)$. z.B. $(\xi, \eta)=(1, \frac{\pi}{2})\folgt f(1,\frac{\pi}2)=(0,1)$. $f'(1,\frac{\pi}2)=\begin{pmatrix}0&-1\\1&0\end{pmatrix}$, $(f^{-1})(0,1)= f'(1,\frac{\pi}{2})^{-1}=\begin{pmatrix}0&1\\-1&0\end{pmatrix}$.
\end{beispiel}
\paragraph{Beachte:}$f$ ist auf $D$ "`lokal"' injektiv (im Sinne von $(*)$), aber $f$ ist auf $D$\emph{nicht} injektiv, da $f(x,y)= f(x,y+2 k\pi)\ \forall x,y\in\MdR\ \forall k\in\MdZ$.
Sei $(x_0, y_0)\in\MdR^2$ mit $f(x_0, y_0)=0$ und $y_0\overset{(<)}{>}0$. Dann existiert eine Umgebung $U$ von $x_0$ und genau eine Funktion $g:U\to\MdR$ mit $g(x_0)=y_0$ und $f(x,g(x))=0\ \forall x \in U$, nämlich $g(x)=\overset{(-\sqrt{\cdots})}{\sqrt{1-x^2}}$
\textbf{Sprechweisen}: \glqq$g$ ist implizit durch die Gleichung $f(x,y)=0$ definiert\grqq\ oder\ \glqq die Gleichung $f(x,y)=0$ kann in der Form $y=g(x)$ aufgelöst werden\grqq
\item$f(x,y,z)=y+z+\log(x+z)$. Wir werden sehen: $\exists$ Umgebung $U\subseteq\MdR^2$ von $(0,1)$ und genau eine Funktion $g:U\to\MdR$ mit $g(0,-1)=1$ und $f(x,y,g(x,y))=0\ \forall\ (x,y)\in U$.
\end{beispiele}
\textbf{Der allgemeine Fall}:
Es seien $p,n\in\MdN,\ \emptyset\ne D\subseteq\MdR^{n+p},\ D$ offen, $f=(f_1,\ldots, f_p)\in C^1(D,\MdR^p)$. Punkte in $D$ (bzw. $\MdR^{n+p}$) bezeichnen wir mit $(x,y)$, wobei $x=(x_1,\ldots, x_n)\in\MdR^n$ und $y=(y_1,\ldots, y_p)\in\MdR^p$, also $(x,y)=(x_1,\dots,x_n,y_1,\ldots,y_p)$. Damit:
Sei $(x_0, y_0)\in D, f(x_0, y_0)=0$ und $\det\frac{\partial f}{\partial y}(x_0, y_0)\ne0$. Dann existiert eine offene Umgebung $U\subseteq\MdR^n$ von $x_0$ und genau eine Funktion $g:U\to D \subseteq\MdR^p$ mit:
Definition: $F:D\to\MdR^{n+p}$ durch $F(x,y):=(x,f(x,y))$. Dann: $F\in C^1(D,\MdR^{n+p})$ und
$$
F'(x,y)=\left(\begin{array}{c|c}
\begin{array}{ccc}
1 && 0 \\
&\ddots&\\
0 && 1 \\
\end{array}&
\begin{array}{ccc}
0 &\cdots& 0 \\
\vdots&&\vdots\\
0 &\cdots& 0 \\
\end{array}\\
\hline\\
\ds\frac{\partial f}{\partial x}(x,y)&
\ds\frac{\partial f}{\partial y}(x,y)
\end{array}
\right)$$
Dann: \begin{liste}
\item[(I)]$\det F'(x,y)\gleichnach{LA}\det\frac{\partial f}{\partial y}(x,y)\ ((x, y)\in D)$, insbesondere: $\det F'(x_0, y_0)\ne0$. Es ist $F(x_0, y_0)=(x_0, 0)$. 9.3$\folgt\exists$ eine offene Umgebung $\MdU$ von $(x_0, y_0)$ mit: $\MdU\subseteq D, f(\MdU)=\vartheta$. $F$ ist auf $\MdU$ injektiv, $F^{-1}:\vartheta\to\MdU$ ist stetig differenzierbar und
\textbf{Definition}: $g:U\to\MdR^p$ durch $g(x):=v(x,0)$, für $x\in U$ gilt: $(x,0)\in\vartheta\folgt F^{-1}(x,0)=(x,v(x,0))=(x,g(x))\in\MdU$. Dann gelten: (1), (2), (3) und (4). (5) folgt aus (II).
$f(x,y,z)=y+z+\log(x+z)$. Zeige: $\exists$ offene Umgebung $U$ von $(0,1)$ und genau eine stetig differenzierbare Funktion $g:U\to\MdR$ mit $g(0,-1)=1$ und $f(x,y,g(x,y))=0\ \forall(x,y)\in U$. Berechne $g'$ an der Stelle $(0,-1)$.\\
$f(0,-1,1)=0$, $f_z=1+\frac{1}{x+z}$; $f_z(0,-1,1)=2\ne0$. Die Behauptung folgt aus dem Satz über impliziert definierte Funktionen. Also: $0=y+g(x,y)+\log(x+g(x,y))\ \forall(x,y)\in U$.\\
Differentiation nach $x$: $0=g_x(x,y)+\frac{1}{x+g(x,y)}(1+g_x(x,y))\ \forall(x,y)\in U\overset{(x,y)=(0,-1)}{\folgt}0=g_x(0,-1)+\frac{1}{1}(g_x(0,-1)+1)\folgt g_x(0,-1)=-\frac{1}{2}$.\\
Differentiation nach $y$: $0=1+g_y(x,y)+\frac{1}{x+g(x,y)}g_y(x,y)\ \forall(x,y)\in U \folgtnach{(x,y)=(0,-1)}g_y(0,-1)=-\frac{1}{2}$. Also: $g'(0,-1)=(-\frac{1}{2},-\frac{1}{2})$.
\end{beispiel}
\chapter{Extremwerte unter Nebenbedingungen}
\begin{definition}
\indexlabel{Einschränkung einer Funktion}
Seien $M,N$ Mengen $\ne\emptyset,\ f:M\to N$ eine Funktion und $\emptyset\ne T \subseteq M$. Die Funktion $f_{|_T}: T \to N,\ f_{|_T}(x) := f(x)\ \forall x \in T$ heißt die \textbf{Einschränkung} von $f$ auf $T$.
\end{definition}
In diesem Paragraphen gelte stets: $\emptyset\ne D \subseteq\MdR^n,\ D$ offen, $f \in C^1(D,\MdR),\ p \in\MdN,\ p<n$ und $\varphi=(\varphi_1,\ldots,\varphi_p)\in C^1(D,\MdR^p)$. Es sei $T:=\{x\in D: \varphi(x)=0\}\ne\emptyset.$
\begin{definition}
\indexlabel{lokal!Extremum unter einer Nebenbedingung}
$f$ hat in $x_0\in D$ ein \textbf{lokales Extremum unter der Nebenbedingung $\varphi=0$}$:\equizu x_0\in T$ und $f_{|_T}$ hat in $x_0$ ein lokales Extremum.
\end{definition}
Wir führen folgende Hilfsfunktion ein: Für $x=(x_1,\ldots,x_n)\in D$ und $\lambda=(\lambda_1,\ldots,\lambda_p)\in\MdR^p$ gilt: $$H(x,\lambda) := f(x)+\lambda\cdot\varphi(x)= f(x)+\lambda_1\varphi_1(x)+\cdots+\lambda_p\varphi_p(x)$$
Es ist $$H_{x_j}= f_{x_j}+\lambda_1\frac{\partial\varphi_1}{\partial x_j}+\cdots+\lambda_p\frac{\partial\varphi_p}{\partial x_j}\ (j=1,\ldots,n),\ H_{\lambda_j}=\varphi_j$$
Für $x_0\in D$ und $\lambda_0\in\MdR^p$ gilt:
$H'(x_0,\lambda_0)=0\equizu f'(x_0)+\lambda_0\varphi'(x_0)=0$ und $\varphi(x_0)=0$\\
$\equizu f'(x_0)+\lambda_0\varphi'(x_0)=0$ und $x_0\in T$ (I)
\begin{satz}[Multiplikationenregel von Lagrange]
\indexlabel{Multiplikator}
$f$ habe in $x_0\in D$ eine lokales Extremum unter der Nebenbedingung $\varphi=0$ und es sei Rang $\varphi'(x_0)= p$. Dann existiert ein $\lambda_0\in\MdR^p$ mit: $H'(x_0,\lambda_0)=0$ ($\lambda_0$ heißt \textbf{Multiplikator}).
\end{satz}
\begin{folgerung}
$T$ sei beschränkt und abgeschlossen. Wegen 3.3 gilt: $\exists a,b \in T: f(a)=\max f(T),\ f(b)=\min f(T).$ Ist Rang $\varphi'(\underset{b}{a})= p \folgt\exists\lambda_0\in\MdR^p: H'(\underset{b}{a},\lambda_0)=0$.
Rang $\varphi'(x_0)= p \folgt$ o.B.d.A.: $\det A \ne0.$
Für $x=(x_1,\ldots,x_n)\in D$ schreiben wir $x=(y,z)$, wobei $y=(x_1,\dots,x_p),\ z=(x_{p+1},\ldots,x_n).$ Insbesondere ist $x_0=(y_0,z_0)$. Damit gilt: $\varphi(y_0,z_0)=0$ und $\det\frac{\partial\varphi}{\partial y}(y_0,z_0)\ne0$.
Aus 10.1 folgt: $\exists$ offene Umgebung $U \subseteq\MdR^{n-p}$ von $z_0,\ \exists$ offene Umgebung $V \subseteq\MdR^p$ von $y_0$ und es existiert $g \in C^1(U,\MdR^p)$ mit:
$\folgt0=2(Ax_0+\lambda_0 x_0)\folgt Ax_0=(-\lambda_0) x_0,\ x_0\ne0\folgt-\lambda_0$ ist ein EW von $A$.
\end{beweis}
\chapter{Wege im $\MdR^n$}
\indexlabel{Weg-}
\indexlabel{Bogen}
\indexlabel{Anfangspunkt}
\indexlabel{Endpunkt}
\indexlabel{Weg-!inverser}
\indexlabel{Inverser Weg}
\indexlabel{Parameter-!Intervall}
\begin{definition}
\begin{liste}
\item Sei $[a,b]\subseteq\MdR$ und $\gamma: [a,b]\to\MdR^n$ sei stetig. Dann heißt $\gamma$ ein \textbf{Weg} im $\MdR^n$
\item Sei $\gamma :[a,b]\to\MdR^n$ ein Weg. $\Gamma_\gamma :=\gamma([a,b])$ heißt der zu $\gamma$ gehörende \textbf{Bogen}, $\Gamma_\gamma\subseteq\MdR^n$. 3.3 \folgt{}$\Gamma_\gamma$ ist beschränkt und abgeschlossen.
$\gamma(a)$ heißt der \textbf{Anfangspunkt} von $\gamma$, $\gamma(b)$ heißt der \textbf{Endpunkt} von $\gamma$. $[a,b]$ heißt \textbf{Parameterintervall} von $\gamma$. \\
\item$\gamma^-:[a,b]\to\MdR^n$, definiert durch $\gamma^-(t):=\gamma(b+a-t)$ heißt der zu $\gamma$\textbf{inverse Weg}. Beachte: $\gamma^-\ne\gamma$, aber $\Gamma_\gamma=\Gamma_{\gamma^-}$.
\end{liste}
\end{definition}
\begin{beispiele}
\item Sei $x_0, y_0\in\MdR^n$, $\gamma(t) := x_0+ t(y_0-x_0)$, $t\in[0,1]$. $\Gamma_\gamma=S[x_0,y_0]$
\item Sei $r>0$ und $\gamma(t) :=(r \cos t, r \sin t)$, $t\in[0,2\pi]$\\$\Gamma_\gamma=\{(x,y)\in\MdR^2: x^2+y^2=r^2\}=\partial U_r(0)$\\
$\tilde\gamma(t) :=(r \cos t, r \sin t)$, $t\in[0,4\pi]$. $\tilde\gamma\ne\gamma$, aber $\Gamma_{\tilde\gamma}=\Gamma_\gamma$.
\item Sei $f:[a,b]\to\MdR$ stetig und $\gamma(t) :=(t, f(t))\quad(t \in[a,b])$. Dann: $\Gamma_\gamma=$ Graph von $f$.
\end{beispiele}
\begin{erinnerung}
$\Z$ ist die Menge aller Zerlegungen von $[a,b]$
\end{erinnerung}
\begin{definition}
Sei $\gamma:[a,b]\to\MdR^n$ ein Weg. Sei $Z=\{t_0, \ldots, t_m\}\in\Z$.\\
Übung: Sind $Z_1,Z_2\in\Z$ und gilt $Z_1\subseteq Z_2\folgt L(\gamma,Z_1)\le L(\gamma,Z_2)$
$\gamma$ heißt \textbf{rektifizierbar} (rb) \indexlabel{Rektifizierbarkeit}$:\equizu$$\exists M\ge0: L(\gamma,Z)\le M\ \forall Z\in\Z$. In diesem Fall heißt $L(\gamma) :=\sup\{L(\gamma,Z): Z\in\Z\}$ die \textbf{Länge} von $\gamma$\indexlabel{Länge}.
Ist $n=1$, so gilt: $\gamma$ ist rektifizierbar $\equizu$$\gamma\in\BV[a,b]$. In diesem Fall: $L(\gamma)= V_\gamma([a,b])$.
\end{definition}
\begin{satz}[Rektifizierbarkeit und Beschränkte Variation]
Sei $\gamma=(\eta_1, \ldots, \eta_n):[a,b]\to\MdR^n$ ein Weg. $\gamma$ ist rektifizierbar $\equizu$\mbox{$\eta_1,\ldots,\eta_n\in\BV[a,b]$}.
\end{satz}
\begin{beweis}
Sei $Z =\{t_0,\ldots,t_n\}\in\Z$ und $J=\{1,\ldots,n\}$.\\
\paragraph{Übung:}$\gamma$ ist rektifizierbar $\equizu$$\gamma^-$ ist rektifizierbar. In diesem Fall: \mbox{$L(\gamma)= L(\gamma^-)$}
\paragraph{Summe von Wegen:}Gegeben: $a_0, a_1,\ldots a_l \in\MdR$, $a_0<a_1<a_2<\ldots<a_l$ und Wege $\gamma_k:[a_{k-1},a_k]\to\MdR^n$$(k=1,\ldots,l)$ mit : $\gamma_k(a_k)=\gamma_{k+1}(a_k)$$(k=1,\ldots,l-1)$.
Definiere $\gamma:[a_0,a_l]\to\MdR^n$ durch $\gamma(t):=\gamma_k(t)$, falls $t\in[a_{k-1},a_k]$. $\gamma$ ist ein Weg im $\MdR^n$, $\Gamma_\gamma=\Gamma_{\gamma_1}\cup\Gamma_{\gamma_2}\cup\cdots\cup\Gamma_{\gamma_l}$. $\gamma$ heißt die Summe der Wege $\gamma_1,\ldots,\gamma_l$ und wird mit. $\gamma=\gamma_1\oplus\gamma_2\oplus\cdots\oplus\gamma_l$ bezeichnet. \indexlabel{Summe von Wegen}
\begin{bemerkung}
Ist $\gamma:[a,b]\to\MdR^n$ ein Weg und $Z=\{t_0,\ldots,t_m\}\in\Z$ und $\gamma_k:=\gamma_{|_{[t_{k-1},t_k]}}$$(k=1,\ldots,m)$$\folgt$$\gamma=\gamma_1\oplus\cdots\oplus\gamma_m$. Aus Analysis I, 25.1(7) und 12.1 folgt:
\end{bemerkung}
\begin{satz}[Summe von Wegen]
Ist $\gamma=\gamma_1\oplus\cdots\oplus\gamma_m$, so gilt: $\gamma$ ist rektifizierbar $\equizu$$\gamma_1,\ldots,\gamma_m$ sind rektifizierbar. In diesem Fall: $L(\gamma)=L(\gamma_1)+\cdots+ L(\gamma_m)$
\end{satz}
\begin{definition}
\index{Weg-!Längenfunktion}
Sei $\gamma:[a,b]\to\MdR^n$ ein rektifizierbarer Weg. Sei $t\in(a,b]$. Dann: $\gamma_{|_{[a,t]}}$ ist rektifizierbar (12.2).
$$s(t):=\begin{cases}L(\gamma_{|_{[a,t]}}),&\text{falls }t\in(a,b]\\0, &\text{falls }t=a\end{cases}$$ heißt die zu $\gamma$ gehörende \textbf{Weglängenfunktion}.
\end{definition}
\begin{satz}[Eigenschaften der Weglängenfunktion]
Sei $\gamma:[a,b]\to\MdR^n$ ein rektifizierbarer Weg. Dann:
\begin{liste}
\item$s\in C[a,b]$
\item$s$ ist wachsend.
\end{liste}
\end{satz}
\begin{beweis}
\begin{liste}
\item\textbf{\color{red}In der großen Übung}
\item Sei $t_1, t_2\in[a,b]$ und $t_1<t_2$. $\gamma_1:=\gamma_{|_{[a,t_1]}}$, $\gamma_2:=\gamma_{|_{[t_1,t_2]}}$, $\gamma_3:=\gamma_{|_{[a,t_2]}}$. Dann $\gamma_3=\gamma_1\oplus\gamma_2$. 12.2 $\folgt$$\gamma_1,\gamma_2,\gamma_3$ sind rektifizierbar und $\underbrace{L(\gamma_3)}_{=s(t_2)}=\underbrace{L(\gamma_1)}_{s(t_1)}+\underbrace{L(\gamma_2)}_{\ge0}\folgt s(t_2)\ge s(t_1)$.
\end{liste}
\end{beweis}
\begin{satz}[Rechenregeln für Wegintegrale]
Sei $f=(f_1,\ldots,f_n):[a,b]\to\MdR^n$ und $f_1,\ldots,f_n\in R[a,b]$.
\item$\gamma=(\eta_1,\ldots,\eta_n)$, $\eta_j\in C^1[a,b]\folgtnach{A1,25.1}\eta_j\in\text{BV}[a,b]\folgtnach{12.1}\gamma$ ist rektifizierbar.
\item Sei $t_0\in[a,b)$. Wir zeigen:
$$\frac{s(t)-s(t_0)}{t-t_0}\to\|\gamma'(t_0)\|\ (t\to t_0+0)\text{. (analog zeigt man :}\frac{s(t)-s(t_0)}{t-t_0}\to\|\gamma'(t_0)\|\ (t\to t_0-0)\text{).}$$
Sei $t\in(t_0, b];\ \gamma_1:=\gamma_{|_{[a,t_0]}}, \gamma_2:=\gamma_{|_{[t_0,t]}}, \gamma_3:=\gamma_{|_{[a,t]}}$. Dann: $\gamma_3=\gamma_1\oplus\gamma_2$ und $\underbrace{L(\gamma_3)}_{=s(t)}=\underbrace{L(\gamma_1)}_{=s(t_0)}+L(\gamma_2)\folgt s(t)-s(t_0)=L(\gamma_2)\ (I).$\\
$\tilde{Z}:=\{t_0, t\}$ ist eine Zerlegung von $[t_0,t]\folgt\|\gamma(t)-\gamma(t_0)\|=L(\gamma_2,\tilde{Z})\le L(\gamma_2)$\\
\textbf{Definition}: $F:[a,b]\to\MdR$ durch $F(t)=\ds\int_a^t\|\gamma'(\tau)\|\text{d}\tau$. 2.Hauptsatz der Differential- und Integralrechnung $\folgt F$ ist differenzierbar und $F'(t)=\|\gamma'(t)\|\ \forall t\in[a,b]$. Sei $Z=\{\tau_0,\ldots,\tau_m\}$ eine beliebige Zerlegung von $[t_0, t]$.
\item Sei $f:[a,b]\to\MdR$ stetig und $\gamma(t):=(t, f(t)), t\in[a,b]$. $\gamma$ ist ein Weg im $\MdR^2$. $\gamma$ ist rektifizierbar $\equizu f \in\text{BV}[a,b]$. $\Gamma_\gamma=$Graph von $f$. Jetzt sei $f\in C^1[a,b]\folgtnach{12.5} L(\gamma)=\ds\int_a^b\|\gamma'(t)\|\text{d}t=\ds\int_a^b (1+f'(t)^2)^{\frac{1}{2}}\text{d}t$.
Ist $\gamma=\gamma_1\oplus\cdots\oplus\gamma_l$ stückweise stetig differenzierbar, mit stetig differenzierbaren Wegen $\gamma_1,\ldots,\gamma_l\folgt\gamma$ ist rektifizierbar und $L(\gamma)=L(\gamma_1)+\cdots+L(\gamma_l)$.
\item[(2)]\textbf{\color{red}In den gro"sen Übungen.}
\item[(1)] Es genügt zu zeigen: Aus $\gamma_2$ rektifizierbar folgt: $\gamma_1$ ist rektifizierbar und $L(\gamma_1)\le L(\gamma_2)$. Sei $Z=\{t_0,\ldots,t_m\}\in\Z\folgt\tilde{Z}:=\{h(t_0),\ldots, h(t_m)\}$ ist eine Zerlegung von $[\alpha,\beta]$.
Es sei $\gamma:[a,b]\to\MdR^n$ ein \emph{glatter} Weg. 12.5 $\folgt\gamma$ ist rb. $L:=L(\gamma)$. 12.5 $\folgt s \in C^1[a,b]$ und $s'(t)=\|\gamma'(t)\| > 0\ \forall t\in[a,b].\ s$ ist also \emph{streng wachsend}. Dann gilt: $s([a,b])=[0,L],\ s^{-1}:[0,L]\to[a,b]$ ist streng wachsend und stetig db. $(s^{-1})'(\sigma)=\frac{1}{s'(t)}$ für $\sigma\in[0,L],\ s(t)=\sigma.$
$\tilde{\gamma}[0,L]\to\MdR^n$ durch $\tilde{\gamma}(\sigma) :=\gamma(s^{-1}(\sigma)),$ also $\tilde{\gamma}=\gamma\circ s^{-1};\ \tilde{\gamma}$ ist ein Weg im $\MdR^n$ und $\tilde{\gamma}\sim\gamma;\ \Gamma_\gamma=\Gamma_{\tilde{\gamma}}.$
12.7 $\folgt\tilde{\gamma}$ ist rb, $L(\tilde{\gamma})=L(\gamma)=L,\ \tilde{\gamma}$ ist stetig db. $\tilde{\gamma}$ hei"st Parameterdarstellung von $\Gamma_\gamma$ mit der Weglänge als Parameter. Warum?
Darum: Sei $\tilde{s}$ die zu $\tilde{\gamma}$ gehörende Weglängenfunktion. $\forall\sigma\in[0,L]: \tilde{\gamma}(\sigma)=\gamma(s^{-1}(\sigma)).$ Sei $\sigma\in[0,L],\ t:= s^{-1}(\sigma)\in[a,b],\ s(t)=\sigma.$
$\tilde{\gamma}(\sigma)=(s^{-1})'(\sigma)\cdot\gamma'(s^{-1}(\sigma))=\frac{1}{s'(t)}\gamma'(t)\gleichnach{12.5}\frac{1}{\|\gamma'(t)\|}\gamma'(t)\folgt\|\gamma'(\sigma)\|=1$ ($\folgt\tilde{\gamma}$ ist glatt).
$\gamma(t)=\frac{e^t}{\sqrt{2}}(\cos t,\sin t),\ t \in[0,1];\ \gamma$ ist stetig db; Nachrechnen: $\|\gamma'(t)\|=e^t\ \forall t \in[0,1]\folgt\gamma$ ist glatt.
$\gamma,\Gamma,f$ seien wie oben, $g:\Gamma\to\MdR^n$ sei stetig, $\hat\gamma=(\hat{\gamma}_1,\ldots,\hat{\gamma}_n): [\alpha,\beta]\to\MdR^n$ sei rektifizierbar und $\xi,\eta\in\MdR$.
\item Sei $\hat{\gamma}=\gamma\circ h,\ h:[\alpha,\beta]\to[a,b]$ stetig und streng wachsend. $h(\alpha)= a,\ h(\beta)= b$. Nur für $\gamma$ und $h$ stetig db. Dann ist $\hat{\gamma}$ stetig db.
$\gamma,\Gamma$ seien wie immer in diesem Paragraphen. $s$ sei die zu $\gamma$ gehörende Weglängenfunktion und $g:\Gamma\to\MdR$ stetig. 12.4 $\folgt s$ ist wachsend $\folgtnach{Ana I} s \in BV[a,b];\ g\circ\gamma$ stetig $\folgtnach{Ana I, 26.6} g\circ\gamma\in R_s[a,b]$.
$\text{AH}(\gamma_1,\ldots,\gamma_m) :=\{\gamma:\gamma$ ist ein rektifizierbarer Weg im $\MdR^n$ mit: $\Gamma_\gamma=\Gamma$, $L(\gamma)=L(\gamma_1)+\cdots+L(\gamma_m)$ und $\int_\gamma f(x)\cdot dx =\int_{\gamma_1}f(x)\cdot dx+\cdots+\int_{\gamma_m}f(x)\cdot dx$ für \emph{jedes} stetige $f:\Gamma\to\MdR^n\}.$
Ist $\gamma\in\text{AH}(\gamma_1,\ldots,\gamma_m)$, so sagt man $\gamma$ entsteht durch \indexlabel{Aneinanderhängung}\textbf{Aneinanderhängen} der Wege $\gamma_1,\ldots,\gamma_m$.
\begin{satz}[Stetige Differenzierbarekeit der Aneinanderhängung]
$\gamma_1,\ldots,\gamma_m$ seien wie oben. Dann: $\text{AH}(\gamma_1,\ldots,\gamma_m)\ne\emptyset$. \\
Sind $\gamma_1,\ldots,\gamma_m$ stetig differenzierbar, so existiert ein stückweise stetig differenzierbarer Weg $\gamma\in\text{AH}(\gamma_1,\ldots,\gamma_m)$.
\end{satz}
\begin{beweis}
O.B.d.A: $m=2$.
Def. $h:[b_1,c]\to[a_2,b_2]$ linear wie folgt: $h(x)=px+q$, $h(b_1)=a_2$, $h(c)=b_2$. $\hat\gamma_2 :=\gamma_2\circ h$. Dann: $\gamma_2\sim\hat\gamma_2$. $\gamma :=\gamma_1\oplus\hat\gamma_2$. 12.2, 12.7, 13.2 $\folgt$$\gamma\in\text{AH}(\gamma_1,\gamma_2)$.
\end{beweis}
\begin{beispiel}
In allen Beispielen sei $f(x,y)=(y,x-y)$ und $t\in[0,1]$.
\begin{liste}
\item$\gamma_1(t)=(t,0)$, $\gamma_2(t)=(1,t)$.
Sei $\gamma\in\text{AH}(\gamma_1,\gamma_2)$. Anfangspunkt von $\gamma$ ist (0,0), Endpunkt von $\gamma$ ist (1,1). Nachrechnen: $\int_{\gamma_1}f(x,y)\cdot d(x,y)=0$, $\int_{\gamma_2}f(x,y)\cdot d(x,y)=\frac{1}{2}$. Also: $\int_\gamma f(x,y)\cdot d(x,y)=\frac{1}{2}$
\item$\gamma_1(t)=(0,t)$, $\gamma_2(t)=(t,1)$.
Sei $\gamma\in\text{AH}(\gamma_1,\gamma_2)$, Anfangspunkt von $\gamma$ ist (0,0), Endpunkt von $\gamma$ ist (1,1). Nachrechnen: $\int_{\gamma}f(x,y)\cdot d(x,y)=\frac{1}{2}$
\item$\gamma(t)=(t,t^3)$. Anfangspunkt von $\gamma$ ist (0,0), Endpunkt von $\gamma$ ist (1,1). Nachrechnen: $\int_\gamma f(x,y)\cdot d(x,y)=\frac{1}{2}$
\end{liste}
\end{beispiel}
\chapter{Stammfunktionen}
In diesem Paragraphen sei stets: $\emptyset\ne G \subseteq\MdR^n$, $G$ ein \emph{Gebiet} und $f=(f_1,\ldots,f_n): G\to\MdR^n$ stetig.
\begin{definition}
Eine Funktion $\varphi:G\to\MdR$ heißt eine \textbf{Stammfunktion (SF) von $f$ auf $G$}\indexlabel{Stammfunktion}$:\equizu$$\varphi$ ist auf $G$ partiell differenzierbar und $\grad\varphi= f$ auf $G$. Also: $\varphi_{x_j}= f_j$ auf $G$ ($j=1,\ldots,n$).
\end{definition}
\begin{bemerkung}
\
\vspace{-1.5em}
\begin{liste}
\item Ist $\varphi$ eine Stammfunktion von $f$ auf $G$$\folgt$$\grad\varphi= f \folgt\varphi\in C^1(G,\MdR)\folgtnach{5.3}\varphi$ ist auf $G$ differenzierbar und $\varphi' = f$ auf $G$.
\item Sind $\varphi_1$, $\varphi_2$ Stammfunktionen von $f$ auf $G$$\folgtnach{(1)}$$\varphi_1'=\varphi_2'$ auf $G$$\folgtnach{6.2}\exists c\in\MdR: \varphi_1=\varphi_2+c$ auf $G$
\item Ist $n=1$$\folgt$$G$ ist ein offenes Intervall. AI, 23.14 $\folgt$\emph{jedes} stetige $f:G\to\MdR$ besitzt auf $G$ eine Stammfunktion! Im Falle $n\ge2$ ist dies \emph{nicht} so.
\end{liste}
\end{bemerkung}
\begin{beispiele}
\item$G=\MdR^2$, $f(x,y)=(y,-x)$.
Annahme: $f$ besitzt auf $\MdR^2$ die Stammfunktion $\varphi$. Dann: $\varphi_x = y$, $\varphi_y =-x$ auf $G$$\folgt$$\varphi\in C^2(\MdR^2,\MdR)$ und $\varphi_{xy}=1\ne-1=\varphi_{yx}$. Widerspruch zu 4.1. Also: $f$ besitzt auf $\MdR^2$\emph{keine} Stammfunktion.
\item$G=\MdR^2$, $f(x,y)=(y,x-y)$.
Ansatz für eine Stammfunktion $\varphi$ von $f$: $\varphi_x=y \folgt\varphi=xy+c(y)$, $c$ differenzierbar, $\folgt$$\varphi_y\stackrel{!}{=}x+c'(y)= x-y \folgt c'(y)=-y$, etwa $c(y)=-\frac{1}{2}y^2$. Also: $\varphi(x,y)= xy -\frac{1}{2}y^2$. Probe: $\varphi_x=y$, $\varphi_y=x-y$, also: $\grad\varphi=f$. $\varphi$ ist also eine Stammfunktion von $f$ auf $\MdR^2$.
%Weiß wer warum man da ne Probe braucht?
%Braucht man nicht, war nur um uns zu überzeugen
\end{beispiele}
\vspace{2em}% ntheorembugumgehung
\begin{satz}[Hauptsatz der mehrdimensionalen Integralrechnung]
$f$ besitzt auf $G$ die Stammfunktion $\varphi$; $\gamma:[a,b]\to\MdR^n$ ein ein stückweise stetig differenzierbarer Weg mit $\Gamma_\gamma\subseteq G$. Dann:
Das heißt: $\int_\gamma f(x)\cdot dx$ hängt nur vom Anfangs- und Endpunkt von $\gamma$ ab.
Ist $\gamma$\emph{geschlossen}, das heißt $\gamma(a)=\gamma(b)$, dann gilt $\int_\gamma f(x)\cdot dx =0$.
\end{satz}
\begin{beweis}
O.B.d.A.: $\gamma$ ist stetig differenzierbar. $\Phi(t):=\varphi(\gamma(t))$, $t\in[a,b]$. $\Phi$ ist stetig differenzierbar und $\Phi'(t)=\varphi'(\gamma(t))\cdot\gamma'(t)= f(\gamma(t))\cdot\gamma(t)$ Dann: $\int_\gamma f(x)\cdot dx \gleichnach{13.1}\int_a^bf(\gamma(t))\cdot\gamma'(t)dt =\int_a^b\Phi'(t)dt \gleichnach{AI}\Phi(b)-\Phi(a)=\varphi(\gamma(b))-\varphi(\gamma(a))$.
\end{beweis}
\begin{wichtigerhilfssatz}
Es seien $x_0,y_0\in G$. Dann existiert ein stückweise stetig differenzierbarer Weg $\gamma$ mit: $\Gamma_\gamma\subseteq G$ und Anfangspunkt von $\gamma= x_0$ und Endpunkt von $\gamma=y_0$.
$\int f(x)\cdot\text{d}x$ hei"st \textbf{in G wegunabhängig} (wu) $:\equizu$ für je zwei Punkte $x_0, y_0\in G$ gilt: für jeden stückweise stetig differenzierbaren Weg $\gamma:[a,b]\to\MdR^n$ mit $\Gamma_\gamma\subseteq G$, $\gamma(a)=x_0$ und $\gamma(b)=y_0$ hat das Integral $\ds\int_\gamma f(x)\cdot\text{d}x$ stets denselben Wert. In diesem Fall: $\ds\int_{x_0}^{y_0}f(x)\cdot\text{d}x:=\ds\int_\gamma f(x)\cdot\text{d}x$.
\textbf{14.1 lautet dann}: besitzt f auf G die Stammfunktion $\varphi\folgt\ds\int f(x)\cdot\text{d}x$ ist in $G$ wegunabhängig und $\int_{x_0}^{y_0}=\varphi(y_0)-\varphi(x_0)$ (Verallgemeinerung von Analysis 1, 23.5).
\glqq$\folgt$\grqq: 14.1\quad\glqq$\impliedby$\grqq: Sei $x_0\in G$ und $\varphi$ wie in $(*)$. Zu zeigen: $\varphi$ ist auf $G$ differenzierbar und $\varphi'=f$ auf G. Sei $z_0\in G, h\in\MdR^n,h\ne0$ und $\|h\|$ so klein, dass $z_0+th\in G\ \forall t\in[0,1].\ \gamma(t):=z_0+th\ (t\in[0,1]), \Gamma_\gamma=s[z_0, z_0+h]\subseteq G$. $\rho(h):=\frac{1}{\|h\|}(\varphi(z_0+h)-\varphi(z_0)-f(z_0)\cdot h)$. Zu zeigen: $\rho(h)\to0\ (h\to0)$. 14.2 $\folgt$ es existieren stückweise stetig differenzierbare Wege $\gamma_1, \gamma_2$ mit: $\Gamma_{\gamma_1},\Gamma_{\gamma_2}\subseteq G$. Anfangspunkt von $\gamma_1=x_0=$Anfangspunkt von $\gamma_2$. Endpunkt von $\gamma_1=z_0$, Endpunkt von $\gamma_2=z_0+h$. Sei $\gamma_3\in\text{AH}(\gamma_1,\gamma)$ stückweise stetig differenzierbar (13.4!). Dann:
wobei $x_n\in\Gamma_\gamma=S[z_0,z_0+h]\folgt |\rho(h)|\le\|f(x_n)-f(z_0)\|$. Für $h\to0: x_n\to z_0\folgtnach{f stetig}\|f(x_n)-f(z_0)\|\to0\folgt\rho(h)\to0$.
Sei $\varphi$ eine Stammfunktion von $f$ auf $G\folgt\varphi$ ist differenzierbar auf $G$ und $\varphi_{x_j}=f_j$ auf $G\ (j=1,\ldots,n)$. $f\in C^1(G,\MdR^n)\folgt\varphi\in C^2(G,\MdR)$
$$\folgt\frac{\partial f_j}{\partial x_k}=\varphi_{x_jx_k}\gleichnach{4.7}\varphi_{x_kx_j}=\frac{\partial f_k}{\partial x_j}\text{ auf G.}$$$$
Sei $x\in G$ (fest), $h(t):=t\cdot f_1(tx)\ (t\in[0,1])$. $h$ ist stetig differenzierbar und $h'(t)=f_1(tx)+tf_1'(tx)\cdot x\folgt\varphi_{x_1}(x)=\ds\int_0^1 h'(t)\text{d}t\gleichnach{A1}h(1)-h(0)=f_1(x)$.
\end{beweis}
\chapter{Vorgriff auf Analysis III}
In Analysis III werden wir für gewisse Mengen $A\subseteq\MdR^n$ und gewisse Funktionen
\chapter{Systeme von Differentialgleichungen 1. Ordnung}
In diesem Paragraphen sei $D \subseteq\MdR^{n+1}$ und $f =(f_1, \ldots, f_n): D \to\MdR^n$. Für Punkte im $\MdR^{n+1}$ schreiben wir $(x,y)$, wobei $x \in\MdR$ und $y =(y_1,...,y_n)\in\MdR^n$.
\begin{definition}
\index{System von Differentialgleichungen}\index{Differentialgleichung!System von}
\index{Anfangswertproblem}
Ein \textbf{System von Differentialgleichungen 1. Ordnung} hat die Form:
Sei $I =[a,b]\subseteq\MdR, x_o \in I$ und für $y\in C(I, \MdR^n)$ sei $\|y\|_\infty :=\max\{\|y(x)\| : x\in I \}$ wie in §17 (also ist $(C(I, \MdR^n), \|\cdot\|_\infty)$ ein Banachraum).
Sei $\alpha > 0$ mit $\varphi_\alpha(x) := e^{-\alpha |x-x_0|}\ (x \in I)$.
Für $y \in C(I, \MdR^n)$ sei $\|y\|_\alpha :=\max\{\varphi_\alpha(x)\cdot\|y(x)\| : x\in I \}$.
Dann:
\begin{enumerate}
\item$\|\cdot\|_\alpha$ ist eine Norm auf $C(I,\MdR^n)$.
\item Seien $c_1 :=\min\{\varphi_\alpha(x) : x \in I \},\text{} c_2 :=\max\{\varphi_\alpha(x) : x \in I \}$. Es gilt:
\[c_1\|y\|_\infty\leq\|y\|_\alpha\leq c_2\|y\|_\infty\quad\forall y \in C(I, \MdR^n)\]
\item Sei $(g_k)$ eine Folge in $C(I,\MdR^n)$ und $g \in C(I, \MdR^n)$.
Sei $I =[a,b], x_o \in I, y_0\in\MdR^n, D:= I \times\MdR^n, f\in C(D, \MdR^n)$ und $f$ genüge auf $D$ einer Lipschitz-Bedingung bezüglich $y$. Dann ist das
Es sei $D \subseteq\MdR^{n+1}$\textbf{offen}, $(x_0, y_0)\in D, f\in C(D, \MdR^n)$ und $f$ genüge auf $D$ einer \textbf{lokalen} Lipschitz-Bedingung bezüglich $y$.
\begin{satz}[Zusammenhang FS, FM und Wronskideterminante]
$y^{(1)}, ..., y^{(n)}$ sei ein LS von (H). $Y$ und $W$ seien definiert wie oben. Dann:\begin{enumerate}
\item$Y'(x)= A(x)Y(x)\quad\forall x \in I$.
\item$y^{(1)}, ..., y^{(n)}$ ist ein Fundamentalsystem von (H)\\$\iff Y(x)\text{ invertierbar }\forall x \in I$\\$\iff\exists\xi\in I: Y(\xi)$ ist invertierbar \\$\iff\forall x \in I: W(x)\neq0$\\$\iff\exists\xi\in I: W(\xi)\neq0$.
\textbf{Spezialfall:}$n=2$. $A(x)=\begin{pmatrix} a_1(x)&-a_2(x)\\ a_2(x)& a_1(x)\end{pmatrix}$; $a_1, a_2 : I \to\MdR$ stetig. Sei $y^{(1)}=(y_1, y_2)$ eine Lösung von