mirror of
https://github.com/MartinThoma/LaTeX-examples.git
synced 2025-04-19 11:38:05 +02:00
documents/Warteschlangen: real umlauts, to make the PDF searchable
This commit is contained in:
parent
292712ec48
commit
e6b89f74ee
3 changed files with 300 additions and 298 deletions
3
documents/Warteschlangen/README.md
Normal file
3
documents/Warteschlangen/README.md
Normal file
|
@ -0,0 +1,3 @@
|
|||
Das hier angebotene Skript wurde von Karl Grill erstellt.
|
||||
Das original ist [hier](http://www.ci.tuwien.ac.at/~grill/) zu finden. Die hier
|
||||
angebotene Version wurde (in Kleinigkeiten) von Martin Thoma überarbeitet.
|
|
@ -1,26 +1,26 @@
|
|||
|
||||
%-----------------------------------------------------------------------------------------------------------------
|
||||
\chapter{Absch"atzungen und N"aherungen}
|
||||
\chapter{Abschätzungen und Näherungen}
|
||||
%-----------------------------------------------------------------------------------------------------------------
|
||||
\section{Absch"atzungen}
|
||||
\section{Abschätzungen}
|
||||
%------------------------------------------------------------------------------------------------------------------
|
||||
Die Ergebnisse des vorigen Abschnittes sind deswegen etwas unbefriedigend, weil die angestrebte Zerlegung nur in
|
||||
Spezialf"allen m"oglich ist. Im allgemeinen Fall m"ussen wir uns darauf beschr"anken, Absch"atzungen und
|
||||
n"aherungsweise L"osungen zu finden.
|
||||
Die Ergebnisse des vorigen Abschnittes sind deswegen etwas unbefriedigend, weil die angestrebte Zerlegung nur in
|
||||
Spezialfällen möglich ist. Im allgemeinen Fall müssen wir uns darauf beschränken, Abschätzungen und
|
||||
näherungsweise Lösungen zu finden.
|
||||
|
||||
Wir gehen wieder von unserer Rekursionsgleichung aus:
|
||||
\[w_{n+1} = (w_{n}+u_{n})_{+} \]
|
||||
Wir f"uhren eine neue Zufallsvariable $y_{n}$ ein, die den entsprechenden Negativteil darstellt:
|
||||
Wir führen eine neue Zufallsvariable $y_{n}$ ein, die den entsprechenden Negativteil darstellt:
|
||||
\[y_{n} = (w_{n}+u_{n})_{-} ~ ~ ~ ~ ~ ((x)_{-} := (-x)_{+}) ~. \]
|
||||
Damit erhalten wir
|
||||
\[ w_{n+1}-y_{n} = w_{n}+u_{n} ~.\]
|
||||
Das gibt f"ur die Erwartungswerte:
|
||||
Das gibt für die Erwartungswerte:
|
||||
\[\E(w_{n+1})-\E(y_{n}) = \E(w_{n})+\E(u_{n}) ~.\]
|
||||
F"ur $n$ $\rightarrow$ $\infty$ ergibt sich
|
||||
Für $n$ $\rightarrow$ $\infty$ ergibt sich
|
||||
\[-\E(y) = \E(u) = \E(x) - \E(t) \qquad \mbox{oder} \qquad \E(y) = \E(t) - \E(x) ~.\]
|
||||
Leider haben wir keine Beziehung f"ur die Wartezeit (Anmerkung: in den letzten Gleichungen steht nur eine Beziehung f"ur die Verteilungen).
|
||||
Leider haben wir keine Beziehung für die Wartezeit (Anmerkung: in den letzten Gleichungen steht nur eine Beziehung für die Verteilungen).
|
||||
|
||||
Als n"achstes quadrieren wir die Ausgangsgleichung
|
||||
Als nächstes quadrieren wir die Ausgangsgleichung
|
||||
\[ w_{n+1}^{2}+y_{n}^{2}-2w_{n+1}y_{n}=w_{n}^{2}+2w_{n}u_{n}+u_{n}^{2} ~.\]
|
||||
Wegen \( (x)_{+}(x)_{-} = 0 \) ist \( w_{n+1}y_{n} = 0 ~,\) also
|
||||
\[w_{n+1}^2 + y_{n}^2 = w_{n}^2+2w_{n}u_{n}+u_{n}^2 ~.\]
|
||||
|
@ -29,104 +29,104 @@ Wenn wir wieder die Erwartungswerte berchnen und \(n \rightarrow \infty \) gehen
|
|||
\E(w^{2})+\E(y^{2})&=&\E(w^{2})+2\E(wu)+\E(u^{2}) = \\
|
||||
&=&\E(w^{2})+2\E(w)\E(u)+\E(u^{2}) \\
|
||||
\end{eqnarray*}
|
||||
($w_{n}$ und $u_{n}$ sind ja unabh"angig).
|
||||
($w_{n}$ und $u_{n}$ sind ja unabhängig).
|
||||
|
||||
Schlie"slich haben wir
|
||||
Schließlich haben wir
|
||||
\[\E(w) = \frac{\E(u^{2})-\E(y^{2})}{-2\E(u)} \qquad [\E(u) \mbox{ ist ja negativ}] ~.\]
|
||||
Wir erhalten eine obere Absch"atzung, wenn wir $\E(y^{2})$ nach unten absch"atzen. Dazu verhilft uns die Ungleichung
|
||||
Wir erhalten eine obere Abschätzung, wenn wir $\E(y^{2})$ nach unten abschätzen. Dazu verhilft uns die Ungleichung
|
||||
\[\E(y^{2}) \geq (\E(y))^{2} = (\E(u))^{2} \qquad \mbox{also }\]
|
||||
\[\E(w^{2}) \leq \frac{{\bf Var}(u)}{-2\E(u)} = \frac{{\bf Var}(x)+{\bf Var}(t)}{-2\E(u)} ~.\]
|
||||
F"ur eine obere Absch"atzung f"ur $\E(y^{2})$ beachten wir, da"s
|
||||
Für eine obere Abschätzung für $\E(y^{2})$ beachten wir, daß
|
||||
\[y=(w+u)_{-} \leq (u)_{-} \quad \mbox{da} \quad w \geq 0 ~.\]
|
||||
Wegen$ \quad u^{2} = ((u)_{+}-(u)_{-})^{2} = ((u)_{+})^{2}+((u)_{-})^{2} \quad $erhalten wir
|
||||
\[\E(w) \geq \frac{(\E((u)_{+}))^{2}}{-2\E(u)} ~.\]
|
||||
Ein weiterer Weg, eine untere Absch"atzung zu finden ist folgender:
|
||||
\[\E(w_{n+1}) = \E(w_{n}+u_{n})_{+} = \E[\E((w_{n}+u_{n})_{+}\vert w_{n})] ~.\]
|
||||
Wenn wir f"ur die Verteilungsfunktion von $u_{n}$
|
||||
Ein weiterer Weg, eine untere Abschätzung zu finden ist folgender:
|
||||
\[\E(w_{n+1}) = \E(w_{n}+u_{n})_{+} = \E[\E((w_{n}+u_{n})_{+}\vert w_{n})] ~.\]
|
||||
Wenn wir für die Verteilungsfunktion von $u_{n}$
|
||||
\[C(y)=\PP(u_{n} \leq y) \]
|
||||
setzen, erhalten wir
|
||||
\[\E((w_{n}+u_{n})_{+} \vert w_{n} = y) = \int_{-y}^{\infty}(u+z)dC(z) = \int_{-y}^{\infty}(1-C(z))dz =: g(y) ~.\]
|
||||
Also
|
||||
\[\E(w_{n+1}) = \E(g(w_{n}))\]
|
||||
$g$ ist konvex ($g'$ ist monoton), also k"onnen wir die JENSEN'sche Ungleichung anwenden:
|
||||
$g$ ist konvex ($g'$ ist monoton), also können wir die JENSEN'sche Ungleichung anwenden:
|
||||
\[\E(g(w_{n})) \geq g(\E(w_{n}))~.\]
|
||||
F"ur $n \rightarrow \infty$ ergibt sich
|
||||
Für $n \rightarrow \infty$ ergibt sich
|
||||
\[\E(w) \geq g(\E(w)) ~.\]
|
||||
Wir betrachten die Gleichung
|
||||
Wir betrachten die Gleichung
|
||||
\[g(y) = y ~.\]
|
||||
Die Funktion $y-g(y)$ hat die Ableitung $G(-y) \geq 0$, ist also monoton.\\
|
||||
Weiters ist $g(0) = \E((u_{n})_{+}) > 0 \mbox{ falls } W(u_{n} > 0) > 0$ ist (andernfalls ist $w = 0$).\\
|
||||
F"ur $n \rightarrow \infty$ ist $g(y) \rightarrow \E(u) < 0$, es gibt also eine eindeutig bestimmte L"osung $y_{0}$, f"ur die $g(y_{0}) = y_{o}$, und
|
||||
Für $n \rightarrow \infty$ ist $g(y) \rightarrow \E(u) < 0$, es gibt also eine eindeutig bestimmte Lösung $y_{0}$, für die $g(y_{0}) = y_{o}$, und
|
||||
\[\E(w) \geq g(y_{o}) ~.\]
|
||||
|
||||
%------------------------------------
|
||||
\section{N"aherungen}
|
||||
\section{Näherungen}
|
||||
%------------------------------------
|
||||
\bigskip
|
||||
"Ahnlich wie die Absch"atzungen des vorigen Kapitels sollen uns die N"aherungen dieses Abschnittes dazu dienen, ungef"ahre Aussagen "uber das qualitative
|
||||
Verhalten einer Warteschlange zu treffen. Eine M"oglichkeit besteht darin, die auftretenden Verteilungen durch solche zu ersetzen, f"ur die wir exakte Ergebnisse
|
||||
kennen. Dazu k"onnen wir etwa folgende Klassen von Verteilungen verwenden:
|
||||
Ähnlich wie die Abschätzungen des vorigen Kapitels sollen uns die Näherungen dieses Abschnittes dazu dienen, ungefähre Aussagen über das qualitative
|
||||
Verhalten einer Warteschlange zu treffen. Eine Möglichkeit besteht darin, die auftretenden Verteilungen durch solche zu ersetzen, für die wir exakte Ergebnisse
|
||||
kennen. Dazu können wir etwa folgende Klassen von Verteilungen verwenden:
|
||||
\begin{enumerate}
|
||||
|
||||
\item {\bf Verteilungen mit rationaler Laplacetransformation}
|
||||
|
||||
Man kann jede Verteilung durch Verteilungen mit rationalen Laplacetransformationen ann"ahern. F"ur diese Verteilungen kann \\
|
||||
man die Spektralzerlegung f"ur $G/G/1$ 'leicht' durchf"uhren: \\
|
||||
man findet die Nullstellen von Z"ahler und Nenner und ordnet sie, je nachdem in welcher Halbebene sie liegen, entweder
|
||||
Man kann jede Verteilung durch Verteilungen mit rationalen Laplacetransformationen annähern. Für diese Verteilungen kann \\
|
||||
man die Spektralzerlegung für $G/G/1$ 'leicht' durchführen: \\
|
||||
man findet die Nullstellen von Zähler und Nenner und ordnet sie, je nachdem in welcher Halbebene sie liegen, entweder
|
||||
der Funktion $\Psi^{+}$ oder $\Psi^{-}$zu.
|
||||
|
||||
\item {\bf Diskrete Verteilungen}
|
||||
|
||||
"Ahnlich wie unter $1.$ kann man jede Verteilung durch eine diskrete Verteilung ann"ahern. Das folgende Beispiel zeigt, wie die diskreten Verteilungen behandelt
|
||||
werden k"onnen:\\
|
||||
Es sei
|
||||
Ähnlich wie unter $1.$ kann man jede Verteilung durch eine diskrete Verteilung annähern. Das folgende Beispiel zeigt, wie die diskreten Verteilungen behandelt
|
||||
werden können:\\
|
||||
Es sei
|
||||
\begin{eqnarray*}
|
||||
\PP(t_{n}=1)=a, \quad \PP(t_{n}=2)=1-a \\
|
||||
\PP(x_{n}=1)=b, \quad \PP(x_{n}=2)=1-b
|
||||
\PP(x_{n}=1)=b, \quad \PP(x_{n}=2)=1-b
|
||||
\end{eqnarray*}
|
||||
[$b>a$].
|
||||
|
||||
F"ur $u_{n}=x_{n}-t_{n+1}$ ergibt sich:
|
||||
Für $u_{n}=x_{n}-t_{n+1}$ ergibt sich:
|
||||
\begin{eqnarray*}
|
||||
\PP(u_{n}=-1)&=&b(1-a) \\
|
||||
\PP(u_{n}=1)&=&a(1-b) \\
|
||||
\PP(u_{n}=0)&=&ab+(1-a)(1-b) ~.
|
||||
\end{eqnarray*}
|
||||
F"ur die station"are Verteilung der Wartezeit $w$ ergibt sich die Rekursion
|
||||
Für die stationäre Verteilung der Wartezeit $w$ ergibt sich die Rekursion
|
||||
\begin{eqnarray*}
|
||||
p_{k}&=&a(1-b)p_{k-1}+(ab+(1-a)(1-b))p_{k}+b(1-a)p_{k+1} \\
|
||||
p_{0}&=&(a(1-b)+ab-(1-a)(1-b))p_{0}+b(1-a)p_{1} ~.
|
||||
\end{eqnarray*}
|
||||
p_{0}&=&(a(1-b)+ab-(1-a)(1-b))p_{0}+b(1-a)p_{1} ~.
|
||||
\end{eqnarray*}
|
||||
Wir erhalten
|
||||
\begin{eqnarray*}
|
||||
p_{k}&=&p_{0}\left( \frac{a(1-b)}{b(1-a)}\right)^{k} \\
|
||||
p_{0}&=&1-\frac{a(1-b)}{b(1-a)}=\frac{b-a}{b(1-a)} ~.\\
|
||||
\end{eqnarray*}
|
||||
Falls wir mehr als zwei m"ogliche Werte f"ur $x$ bzw. $t$ haben, m"ussen wir eine Rekursion h"oherer Ordnung l"osen; dazu sind bekanntlich die Nullstellen des
|
||||
charakteristischen Polynoms zu bestimmen. Auch hier, ebenso wie im im vorigen Abschnitt, reduziert sich also das Problem auf die L"osung einer algebraischen
|
||||
Gleichung. Diese L"osung ist f"ur hohe Polynomgrade nur numerisch m"oglich. Dies und die Tatsache, da"s man nicht genau wei"s, wie eine 'gute' N"aherung zu
|
||||
w"ahlen
|
||||
ist, reduziert die Brauchbarkeit dieser beiden N"aherungen.
|
||||
Falls wir mehr als zwei mögliche Werte für $x$ bzw. $t$ haben, müssen wir eine Rekursion höherer Ordnung lösen; dazu sind bekanntlich die Nullstellen des
|
||||
charakteristischen Polynoms zu bestimmen. Auch hier, ebenso wie im im vorigen Abschnitt, reduziert sich also das Problem auf die Lösung einer algebraischen
|
||||
Gleichung. Diese Lösung ist für hohe Polynomgrade nur numerisch möglich. Dies und die Tatsache, daß man nicht genau weiß, wie eine 'gute' Näherung zu
|
||||
wählen
|
||||
ist, reduziert die Brauchbarkeit dieser beiden Näherungen.
|
||||
|
||||
\item {\bf Approximation f"ur starke Auslastung ('Heavy traffic approximation')}
|
||||
\item {\bf Approximation für starke Auslastung ('Heavy traffic approximation')}
|
||||
|
||||
Wir betrachten den Fall $\rho \approx 1$. \\
|
||||
Ausgangspunkt unserer Betrachtungen ist die Spektralzerlegung der $G/G/1$:
|
||||
\[\frac{\Psi^{+}(s)}{\Psi^{-}(s)}=\tilde A (-s)\tilde B (s)-1 ~.\]
|
||||
F"ur $s \rightarrow 0$ erhalten wir daraus die Entwicklung
|
||||
Für $s \rightarrow 0$ erhalten wir daraus die Entwicklung
|
||||
\begin{eqnarray*}
|
||||
\frac{\Psi^{+}(s)}{\Psi^{-}(s)}&=&(\E(t)-\E(x))s+\frac{s^{2}}{2}\E((x-t)^{2})+o(s^{2})= \\
|
||||
\frac{\Psi^{+}(s)}{\Psi^{-}(s)}&=&(\E(t)-\E(x))s+\frac{s^{2}}{2}\E((x-t)^{2})+o(s^{2})= \\
|
||||
&=&(1-\rho)s\E(t)+\frac{s^{2}}{2}\E((x-t)^{2})+o(s^{2})= \\
|
||||
&=&(1-\rho)s\E(t)+\frac{s^{2}}{2}({\bf Var}(x)+{\bf Var}(t)+ \\
|
||||
&+&(1-\rho)^{2}(\E(t))^{2}) + o(s^{2}) ~.
|
||||
\end{eqnarray*}
|
||||
F"ur $\rho \approx 1$ ist $(1-\rho)^{2}(\E(t))^{2}$ zu vernachl"assigen, also
|
||||
Für $\rho \approx 1$ ist $(1-\rho)^{2}(\E(t))^{2}$ zu vernachlässigen, also
|
||||
\begin{eqnarray*}
|
||||
\frac{\Psi^{+}(s)}{\Psi^{-}(s)}&\approx&(1-\rho)s\E(t)+\frac{s^{2}}{2}({\bf Var}(x)+{\bf Var}(t))+o(s^{2}) \approx \\
|
||||
&\approx&s(s-s_{0}) \frac{{\bf Var}(x)+{\bf Var}(t)}{2} ~.
|
||||
\end{eqnarray*}
|
||||
|
||||
$\Psi^{+}(s)$ ist in der N"ahe von $0$ stetig, also haben wir
|
||||
$\Psi^{+}(s)$ ist in der Nähe von $0$ stetig, also haben wir
|
||||
\[\Psi^{+}(s) \approx Cs(s-s_{o})\]
|
||||
mit
|
||||
\[s_{0}=-\frac{2(1-\rho)\E(t)}{{\bf Var}(x)+{\bf Var}(t)} \]
|
||||
|
@ -134,47 +134,47 @@ und
|
|||
\[C=\Psi^{-}(0)\frac{{\bf Var}(x)+{\bf Var}(t)}{2} ~. \]
|
||||
Wir erhalten daraus
|
||||
\[\Phi(s) \approx -\frac{s_{0}}{s(s-s_{0})}=\frac{1}{s}-\frac{1}{s-s_{0}} ~.\]
|
||||
Also ergibt sich f"ur die Verteilungsfunktion der Wartezeit
|
||||
Also ergibt sich für die Verteilungsfunktion der Wartezeit
|
||||
\[ F(y) \approx 1 - e^{-y\frac{2\E(t)(1-\rho)}{{\bf Var}(x)+{\bf Var}(t)}} ~.\]
|
||||
Die Wartezeit ist also n"aherungsweise exponentialverteilt mit Mittel
|
||||
Die Wartezeit ist also näherungsweise exponentialverteilt mit Mittel
|
||||
\[\E(w)=\frac{{\bf Var}(x)+{\bf Var}(t)}{2\E(t)(1-\rho)} ~.\]
|
||||
Dieses Ergebnis kann man als \index{Satz!Zentraler Grenzwertsatz f\"{u}r Warteschlangen}'zentralen Grenzwertsatz' f"ur Warteschlangen betrachten.
|
||||
Dieses Ergebnis kann man als \index{Satz!Zentraler Grenzwertsatz für Warteschlangen}'zentralen Grenzwertsatz' für Warteschlangen betrachten.
|
||||
|
||||
Das Mittel dieser Exponentialverteilung haben wir bereits als obere
|
||||
Absch"atzung f"ur die mittlere Wartezeit erhalten.
|
||||
Abschätzung für die mittlere Wartezeit erhalten.
|
||||
|
||||
\item{\bf Die Flussapproximation}
|
||||
|
||||
Diese N"aherung geht von einer einfachen Idee aus:\\
|
||||
Wir ersetzen die Ank"unfte und Bedienvorg"ange durch konstante Str"ome von $\lambda$ bzw. $\mu$ Kunden
|
||||
pro Zeiteinheit. In unserem Standardmodell $(\lambda < \mu)$ ergibt sich aus dieser N"aherung nat"urlich, da"s die
|
||||
Diese Näherung geht von einer einfachen Idee aus:\\
|
||||
Wir ersetzen die Ankünfte und Bedienvorgänge durch konstante Ströme von $\lambda$ bzw. $\mu$ Kunden
|
||||
pro Zeiteinheit. In unserem Standardmodell $(\lambda < \mu)$ ergibt sich aus dieser Näherung natürlich, daß die
|
||||
Schlange stets leer ist, was offensichtlich nicht sehr brauchbar ist.
|
||||
|
||||
F"ur zwei F"alle gibt diese Approximation aber doch interessante Resultate:
|
||||
Für zwei Fälle gibt diese Approximation aber doch interessante Resultate:
|
||||
\begin{enumerate}
|
||||
\item Falls $\mu < \lambda$ ist, w"achst die Anzahl der Kunden im System um $(\lambda - \mu)$ Kunden pro Zeiteinheit.
|
||||
\item Falls $\lambda < \mu$ ist, und falls die Anzahl der Kunden gro"s ist, kann man die Zeit, bis das System wieder leer ist, mit Hilfe dieser
|
||||
N"aherung berechnen.
|
||||
\item Falls $\mu < \lambda$ ist, wächst die Anzahl der Kunden im System um $(\lambda - \mu)$ Kunden pro Zeiteinheit.
|
||||
\item Falls $\lambda < \mu$ ist, und falls die Anzahl der Kunden groß ist, kann man die Zeit, bis das System wieder leer ist, mit Hilfe dieser
|
||||
Näherung berechnen.
|
||||
\end{enumerate}
|
||||
|
||||
\item{\bf Die Diffusionsn"aherung}
|
||||
\item{\bf Die Diffusionsnäherung}
|
||||
|
||||
Dies ist wie die vorige N"aherung eine Approximation durch einen kontinuierlichen Proze"s. Diesmal wird auch die Varianz betrachtet.
|
||||
Dies ist wie die vorige Näherung eine Approximation durch einen kontinuierlichen Prozeß. Diesmal wird auch die Varianz betrachtet.
|
||||
|
||||
Es sei $N_{a}(u)$ die Anzahl der Kunden, die bis zur Zeit $t$ ankommen.\\
|
||||
Es gilt die Beziehung
|
||||
\[ N_{a}(u) \geq n \Leftrightarrow T_{n} \geq u \]
|
||||
$T_{n}$ ist, wie "ublich, die Ankunftszeit des $n$-ten Kunden.
|
||||
$T_{n}$ ist, wie üblich, die Ankunftszeit des $n$-ten Kunden.
|
||||
|
||||
Aus dem Gesetz der gro"sen Zahlen folgt:
|
||||
Aus dem Gesetz der großen Zahlen folgt:
|
||||
\[ T_{n} \approx n\E(t) ~.\]
|
||||
Das impliziert
|
||||
\[N_{a}(u) \approx \lambda u ~. \]
|
||||
Der zentrale Grenzwertsatz gibt uns
|
||||
\[\PP(T_{n} \leq n\E(t)+z\sqrt{n{\bf Var}(t)}) = \Phi (z) ~. \]
|
||||
Daraus ergibt sich f"ur gro"ses n
|
||||
Daraus ergibt sich für großes n
|
||||
\begin{eqnarray*}
|
||||
& &\PP(N_{a}\geq\lambda u + y\sqrt{u}) = \\
|
||||
& &\PP(N_{a}\geq\lambda u + y\sqrt{u}) = \\
|
||||
& & ~ ~=\PP(T_{\lambda u + y\sqrt{u}} \leq u) = \\
|
||||
& & ~ ~=\PP(T_{\lambda u + y\sqrt{u}} \leq \E(t)(\lambda u + y\sqrt{u}) - y\E(t)\sqrt{u} ) = \\
|
||||
& & ~ ~=\PP(T_{\lambda u + y\sqrt{u}} \leq \E(t)(\lambda u + y\sqrt{u}) - \\
|
||||
|
@ -183,22 +183,22 @@ Daraus ergibt sich f"ur gro"ses n
|
|||
& & ~ ~ ~ ~ ~-\frac{y}{\sqrt{\lambda ^{3}{\bf Var}(t)}}\sqrt{{\bf Var}(t)(\lambda u + y\sqrt{u})}) \\
|
||||
& &~ ~=1 - \Phi(\frac{y}{\sqrt{\lambda ^{3}{\bf Var}(t)}}) ~.
|
||||
\end{eqnarray*}
|
||||
$N_{a}(u)$ ist also n"aherungsweise normalverteilt mit Mittel $u\lambda$ und Varianz $u\lambda^{3}{\bf Var}(t)$. Genauso erh"alt man f"ur die Anzahl $N_{b}(u)$
|
||||
$N_{a}(u)$ ist also näherungsweise normalverteilt mit Mittel $u\lambda$ und Varianz $u\lambda^{3}{\bf Var}(t)$. Genauso erhält man für die Anzahl $N_{b}(u)$
|
||||
der
|
||||
Kunden, die w"ahrend der Zeit $u$ bedient werden (wenn die Schlange nicht leer ist) eine n"aherungsweise Normalverteilung mit Mittel $\mu u$ und Varianz
|
||||
$\mu^{3}u{\bf Var}(x)$. Wir nehmen jetzt an, da"s diese Werte durch kontinuierliche Beitr"age zustande kommen, d.h. die 'Anzahl' der Ank"unfte (bzw.
|
||||
Bedienvorg"ange)
|
||||
Kunden, die während der Zeit $u$ bedient werden (wenn die Schlange nicht leer ist) eine näherungsweise Normalverteilung mit Mittel $\mu u$ und Varianz
|
||||
$\mu^{3}u{\bf Var}(x)$. Wir nehmen jetzt an, daß diese Werte durch kontinuierliche Beiträge zustande kommen, d.h. die 'Anzahl' der Ankünfte (bzw.
|
||||
Bedienvorgänge)
|
||||
in der kurzen Zeit $\Delta u$ soll normalverteilt mit Mittel $\lambda\Delta u$ (bzw. $\mu\Delta u$) und Varianz $\lambda^{3}\Delta u{\bf Var}(t)$ (bzw.
|
||||
$\mu^{3}\Delta
|
||||
u{\bf Var}(x)$) sein. Die Anzahl der Ank"unfte bzw. Bedienvorg"ange "uber disjunkten Intervallen sollen nat"urlich unabh"angig sein. Die "Anderung der Anzahl der
|
||||
u{\bf Var}(x)$) sein. Die Anzahl der Ankünfte bzw. Bedienvorgänge über disjunkten Intervallen sollen natürlich unabhängig sein. Die Änderung der Anzahl der
|
||||
Kunden
|
||||
im System w"ahrend der Zeit $\Delta u$ ist dann normalverteilt mit Mittel $\Delta u(\lambda - \mu)$ und Varianz $\Delta u\sigma^{2}$ mit $\sigma^{2} =
|
||||
im System während der Zeit $\Delta u$ ist dann normalverteilt mit Mittel $\Delta u(\lambda - \mu)$ und Varianz $\Delta u\sigma^{2}$ mit $\sigma^{2} =
|
||||
\lambda^{3}{\bf Var}(t) + \mu^{3}{\bf Var}(x)$.\\
|
||||
(Die letzte Beziehung gilt nat"urlich nur, wenn die Anzahl der Kunden im System $> 0$ ist).
|
||||
(Die letzte Beziehung gilt natürlich nur, wenn die Anzahl der Kunden im System $> 0$ ist).
|
||||
|
||||
Es sei nun
|
||||
Es sei nun
|
||||
\[F(x,u) = \PP(N(u) \leq x) ~.\]
|
||||
Wir stellen eine Gleichung f"ur $F(x,u+\Delta u)$ auf, dabei sei $X(\Delta u)$ die "Anderung der Kunden w"ahrend $\Delta u$:
|
||||
Wir stellen eine Gleichung für $F(x,u+\Delta u)$ auf, dabei sei $X(\Delta u)$ die Änderung der Kunden während $\Delta u$:
|
||||
\begin{eqnarray*}
|
||||
F(x,u+\Delta u)&=&\PP(N(u+\Delta u) \leq x) = \\
|
||||
&=&\PP(N(u)+X(\Delta u) \leq x) = \\
|
||||
|
@ -211,7 +211,7 @@ F(x,u+\Delta u)&=&\PP(N(u+\Delta u) \leq x) = \\
|
|||
&=&F(x,u)-F_{x}(x,u)\Delta u(\lambda-\mu) + \\
|
||||
& &+\frac{1}{2}F_{xx}(x,u)\sigma^{2}\Delta u + o(\Delta u) ~.
|
||||
\end{eqnarray*}
|
||||
Wenn man $F(x,u)$ nach links bringt, durch $\Delta u$ dividiert, und $\Delta u \rightarrow 0$ gehen l"a"st, ergibt sich
|
||||
Wenn man $F(x,u)$ nach links bringt, durch $\Delta u$ dividiert, und $\Delta u \rightarrow 0$ gehen läßt, ergibt sich
|
||||
\begin{eqnarray*}
|
||||
F_{u}(x,u)&=&(\mu - \lambda)F_{x}(x,u) + \frac{1}{2}\sigma^{2}F_{xx}(x,u) \qquad (x \geq 0) \\
|
||||
& & \\
|
||||
|
@ -219,10 +219,10 @@ F(x,0)&=&1 \qquad (x \geq 0) \\
|
|||
F(x,0)&=&0 \qquad (x < 0) \\
|
||||
F(0,u)&=&0 \qquad (u > 0) ~.
|
||||
\end{eqnarray*}
|
||||
Die Anfangsbedingung ergibt sich aus der Forderung, da"s das System zur Zeit $0$ leer sein soll, und die Randbedingung daraus, da"s die Anzahl der Kunden nicht
|
||||
Die Anfangsbedingung ergibt sich aus der Forderung, daß das System zur Zeit $0$ leer sein soll, und die Randbedingung daraus, daß die Anzahl der Kunden nicht
|
||||
negativ sein darf.
|
||||
|
||||
Man kann sehr leicht die L"osung der Gleichung ohne Randbedingung finden, indem man die Laplace-Transformation anwendet:
|
||||
Man kann sehr leicht die Lösung der Gleichung ohne Randbedingung finden, indem man die Laplace-Transformation anwendet:
|
||||
\[G(z,u)=\int_{-\infty}^{\infty} e^{-xz}F(x,u)dx ~.\]
|
||||
Wir erhalten nach einigen partiellen Integrationen:
|
||||
\[G_{u}(z,u) = (\mu-\lambda)zG(z,u)+\frac{1}{2}\lambda^{2}z^{2}G(z,u) ~, \]
|
||||
|
@ -232,49 +232,48 @@ und, da $G(z,0)=\frac{1}{z}$
|
|||
\[G(z,u) = \frac{1}{z}e^{\frac{1}{2}\sigma^{2}uz^{2}+(\mu - \lambda)zu} ~.\]
|
||||
Die Inversion der Laplace-Transformation liefert
|
||||
\[F(x,u)=\Phi\left(\frac{x+(\mu - \lambda)u}{\sqrt{\sigma^{2}u}}\right) ~. \]
|
||||
Um die Gleichung mit der Randbedingung zu l"osen, suchen wir zuerst die station"are Verteilung. Diese ergibt sich aus der obigen Gleichung, wenn $F(x,u)$ nicht
|
||||
von $u$ abh"angt. Dann ist nat"urlich die Ableitung nach $u = 0$, und wir erhalten:
|
||||
Um die Gleichung mit der Randbedingung zu lösen, suchen wir zuerst die stationäre Verteilung. Diese ergibt sich aus der obigen Gleichung, wenn $F(x,u)$ nicht
|
||||
von $u$ abhängt. Dann ist natürlich die Ableitung nach $u = 0$, und wir erhalten:
|
||||
\[ F'_{0}(x)(\mu - \lambda)+\frac{1}{2}\sigma^{2}F''(x)=0 ~. \]
|
||||
Diese Gleichung hat die allgemeine L"osung
|
||||
Diese Gleichung hat die allgemeine Lösung
|
||||
\[F(x) = C_{1}+C_{2}e^{\frac{2(\lambda - \mu)}{\sigma^{2}}x} ~. \]
|
||||
Da $F(0) = 0$ und $F(\infty) = 1$ sein soll, erhalten wir
|
||||
\[F(x) = 1-e^{\frac{2(\lambda - \mu)}{\sigma^{2}}x} ~. \]
|
||||
Es ergibt sich also wieder eine Exponentialverteilung f"ur die Wartezeit. F"ur $\rho \rightarrow 1$ stimmt diese Verteilung in erster N"aherung mit der aus
|
||||
Abschnitt $3.$ "uberein. Mit etwas mehr Arbeit kann man die folgende L"osung der partiellen Differentialgleichung erhalten:
|
||||
Es ergibt sich also wieder eine Exponentialverteilung für die Wartezeit. Für $\rho \rightarrow 1$ stimmt diese Verteilung in erster Näherung mit der aus
|
||||
Abschnitt $3.$ überein. Mit etwas mehr Arbeit kann man die folgende Lösung der partiellen Differentialgleichung erhalten:
|
||||
\[F(x,u)=\Phi\left(\frac{x+u(\mu - \lambda)}{\sqrt{\sigma^{2}u}}\right)-e^{\frac{2(\mu - \lambda)}{\sigma^{2}}x}\Phi\left(\frac{-x+u(\mu -
|
||||
\lambda)}{\sigma^{2}}\right) ~.\]
|
||||
\lambda)}{\sigma^{2}}\right) ~.\]
|
||||
\end {enumerate}
|
||||
%------------------------------------------------------------------------------------
|
||||
\chapter{Time-Sharing}
|
||||
%------------------------------------------------------------------------------------
|
||||
Wir wollen jetzt unsere Kenntnisse auf eine Analyse von Fragen anwenden, die bei Time-sharing Anwendungen auftreten. \\
|
||||
Wir betrachten den einfachsten Fall, da"s nur eine CPU vorhanden ist, die 'gleichzeitig' mehrere Programme bearbeiten mu"s.
|
||||
Dazu wird jeweils eines der wartenden Programme ausgew"ahlt, in den Hauptspeicher geladen, eine kurze Zeit (die sog. \index{Zeitscheibe}'Zeitscheibe') gerechnet,
|
||||
Wir betrachten den einfachsten Fall, daß nur eine CPU vorhanden ist, die 'gleichzeitig' mehrere Programme bearbeiten muß.
|
||||
Dazu wird jeweils eines der wartenden Programme ausgewählt, in den Hauptspeicher geladen, eine kurze Zeit (die sog. \index{Zeitscheibe}'Zeitscheibe') gerechnet,
|
||||
aus dem
|
||||
Hauptspeicher entfernt, und das Spiel mit dem n"achsten Programm fortgesetzt. Jedes Programm braucht eine bestimmte \index{Rechenzeit}Rechenzeit $x$, und sobald
|
||||
Hauptspeicher entfernt, und das Spiel mit dem nächsten Programm fortgesetzt. Jedes Programm braucht eine bestimmte \index{Rechenzeit}Rechenzeit $x$, und sobald
|
||||
diese Zeit (in
|
||||
Form von einzelnen Zeitscheiben) abgearbeitet ist, verl"a"st das Programm das System. Da wir keine a-priori Information "uber die Rechenzeit eines Programmes
|
||||
voraussetzen, k"onnen wir die Jobs nur aufgrund der schon verbrauchten Rechenzeit klassifizieren, und die Auswahl des n"achsten Programms nach dieser verbrauchten
|
||||
Rechenzeit treffen. Dabei k"onnen wir verschiedene Ziele verfolgen:
|
||||
Form von einzelnen Zeitscheiben) abgearbeitet ist, verläßt das Programm das System. Da wir keine a-priori Information über die Rechenzeit eines Programmes
|
||||
voraussetzen, können wir die Jobs nur aufgrund der schon verbrauchten Rechenzeit klassifizieren, und die Auswahl des nächsten Programms nach dieser verbrauchten
|
||||
Rechenzeit treffen. Dabei können wir verschiedene Ziele verfolgen:
|
||||
|
||||
\begin{enumerate}
|
||||
\begin{enumerate}
|
||||
\item kurze Programme sollen m"oglichst schnell erledigt werden. Dadurch wird die Anzahl der Programme im System klein gehalten, was den Verwaltungsaufwand
|
||||
reduziert; au"serdem ist es psychologisch ung"unstig, wenn ein Kunde auf ein 2-Sekunden-Programm eine Stunde warten mu"s.
|
||||
\item eine m"oglichst 'gerechte' Verteilung w"are eine, bei der die Zeit, die ein Job im System verbringt, proportional zur Rechenzeit ist; nur dann ist es nicht
|
||||
m"oglich, durch Aufteilen eines langen Programmes in mehrere k"urzere bzw. durch Zusammenfassen mehrere k"urzere Programme einen Zeitgewinn zu erzielen.
|
||||
\end{enumerate}
|
||||
\item kurze Programme sollen möglichst schnell erledigt werden. Dadurch wird die Anzahl der Programme im System klein gehalten, was den Verwaltungsaufwand
|
||||
reduziert; außerdem ist es psychologisch ungünstig, wenn ein Kunde auf ein 2-Sekunden-Programm eine Stunde warten muß.
|
||||
\item eine möglichst 'gerechte' Verteilung wäre eine, bei der die Zeit, die ein Job im System verbringt, proportional zur Rechenzeit ist; nur dann ist es nicht
|
||||
möglich, durch Aufteilen eines langen Programmes in mehrere kürzere bzw. durch Zusammenfassen mehrere kürzere Programme einen Zeitgewinn zu erzielen.
|
||||
\end{enumerate}
|
||||
|
||||
Wir machen folgende Annahmen:
|
||||
\begin{enumerate}
|
||||
\item Die Ank"unfte erfolgen nach einem Poissonproze"s mit Rate $\lambda$, die Rechenzeiten sind unabh"angig mit Verteilungsfunktion $B$ (wir haben also eine
|
||||
\item Die Ankünfte erfolgen nach einem Poissonprozeß mit Rate $\lambda$, die Rechenzeiten sind unabhängig mit Verteilungsfunktion $B$ (wir haben also eine
|
||||
$M/G/1$-Situation) mit Dichte $b$.
|
||||
\item Die Zeitscheibe nehmen wir als infinitesimal an; weiters nehmen wir an, da"s wir die Zeit zum Austauschen vernachl"assigen k"onnen.
|
||||
\item Wir betrachten nur die station"aren Verteilungen.
|
||||
\item Die Zeitscheibe nehmen wir als infinitesimal an; weiters nehmen wir an, daß wir die Zeit zum Austauschen vernachlässigen können.
|
||||
\item Wir betrachten nur die stationären Verteilungen.
|
||||
\end{enumerate}
|
||||
$N(u)$ sei die mittlere Anzahl von Jobs, deren verbrauchte Rechenzeit $\leq u$ ist. Dazu m"oge eine Dichte $n(u)$ existieren, soda"s
|
||||
$N(u)$ sei die mittlere Anzahl von Jobs, deren verbrauchte Rechenzeit $\leq u$ ist. Dazu möge eine Dichte $n(u)$ existieren, sodaß
|
||||
\[N(u)=\int_{0}^{u}n(s)ds \]
|
||||
ist.
|
||||
ist.
|
||||
|
||||
$T(u)$ sei die Zeit, die im Durchschnitt vergeht, bis ein Job $u$ Sekunden Rechenzeit bekommt. \\
|
||||
$W(u)$ sei die Wartezeit eines Jobs mit $u$ Sekunden Rechenzeit, also
|
||||
|
@ -287,7 +286,7 @@ Mithilfe des Satzes von Little ergibt sich die Beziehung
|
|||
Wir betrachten die folgende Strategien:
|
||||
\begin{enumerate}
|
||||
\item {\bf FCFS} ('Batch')
|
||||
\item {\bf LCFS} (pr"a-emptiv): ein Job, der das System betritt, wird sofort bearbeitet (ein eventuell laufender Job wird dazu unterbrochen); wenn ein Job fertig
|
||||
\item {\bf LCFS} (prä-emptiv): ein Job, der das System betritt, wird sofort bearbeitet (ein eventuell laufender Job wird dazu unterbrochen); wenn ein Job fertig
|
||||
ist, wird der zuletzt unterbrochene weiterbearbeitet.
|
||||
\item {\bf \index{Round Robin}Round Robin (RR)}: alle Jobs, die im System sind, werden der Reihe nach bearbeitet (abwechselnd).
|
||||
\item Es wird jeweils der Job bearbeitet, der am wenigsten Rechenzeit verbraucht hat.
|
||||
|
@ -295,13 +294,13 @@ ist, wird der zuletzt unterbrochene weiterbearbeitet.
|
|||
Es sollte Strategie 4 kurze Jobs am meisten bevorzugen, 1 am wenigsten, 2 und 3 sollten dazwischen liegen.
|
||||
|
||||
\begin{enumerate}
|
||||
\item Kennen wir von fr"uher; hier ist die Wartezeit $W(u)$ konstant, und zwar ist
|
||||
\item Kennen wir von früher; hier ist die Wartezeit $W(u)$ konstant, und zwar ist
|
||||
\[W(u) = \frac{\lambda \E(x^{2})}{2(1-\rho)} \]
|
||||
und
|
||||
\[T(u) = u + \frac{\lambda \E(x^{2})}{2(1-\rho)} ~. \]
|
||||
\item Hier ist $T(u)$ leicht zu bestimmen. Denn $T(u)$ ist gleich der Rechenzeit $u$ plus der Summe der Rechenzeiten aller Programme, die w"ahrend $T(u)$
|
||||
\item Hier ist $T(u)$ leicht zu bestimmen. Denn $T(u)$ ist gleich der Rechenzeit $u$ plus der Summe der Rechenzeiten aller Programme, die während $T(u)$
|
||||
ankommen.
|
||||
W"ahrend $T(u)$ kommen $\lambda T(u)$ Programme an, jedes bringt im Schnitt $\E(x)$ Sekunden Rechenzeit mit, also gilt
|
||||
Während $T(u)$ kommen $\lambda T(u)$ Programme an, jedes bringt im Schnitt $\E(x)$ Sekunden Rechenzeit mit, also gilt
|
||||
\[T(u) = u + \lambda T(u)\E(x)=u + \rho T(u) ~,\]
|
||||
also
|
||||
\[T(u)=\frac{u}{1-\rho} ~. \]
|
||||
|
@ -309,11 +308,11 @@ Wir haben also ein 'gerechtes' Verfahren gefunden.
|
|||
\item Wenn sich $N$ Programme im System befinden, bekommt ein bestimmtes Programm $\frac{1}{N}$ der gesamten Rechenzeit. \\
|
||||
Daher ist $dT(u) = Ndu$. Da nur gerechnet wird, wenn das System nicht leer ist, ergibt sich:
|
||||
\[ T(u)=u\E(N \mid N \not= 0)=Cu, \]
|
||||
also wieder ein 'gerechtes' System. Um $C$ zu bestimmen, betrachten wir den Fall $u \rightarrow \infty$. Wenn $u$ gro"s ist, werden die meisten Jobs, die w"ahrend
|
||||
$T(u)$ ankommen, auch noch w"ahrend $T(u)$ das System verlassen. F"ur gro"ses $u$ ist also das Verhalten "ahnlich wie im vorigen Fall, und wir erhalten wieder
|
||||
also wieder ein 'gerechtes' System. Um $C$ zu bestimmen, betrachten wir den Fall $u \rightarrow \infty$. Wenn $u$ groß ist, werden die meisten Jobs, die während
|
||||
$T(u)$ ankommen, auch noch während $T(u)$ das System verlassen. Für großes $u$ ist also das Verhalten ähnlich wie im vorigen Fall, und wir erhalten wieder
|
||||
\[T(u)=\frac{u}{1-\rho} ~. \]
|
||||
\item Wenn wir ein Programm betrachten, das genau $u$ Sekunden Rechenzeit ben"otigt, dann sehen wir, da"s f"ur $T(u)$ von der Rechenzeit aller anderen Programme
|
||||
nur der Teil von Bedeutung ist, der kleiner als $u$ ist. Aus der Sicht dieses Programmes k"onnen wir also $x$ durch $(x \land u)$ ersetzen, und die
|
||||
\item Wenn wir ein Programm betrachten, das genau $u$ Sekunden Rechenzeit benötigt, dann sehen wir, daß für $T(u)$ von der Rechenzeit aller anderen Programme
|
||||
nur der Teil von Bedeutung ist, der kleiner als $u$ ist. Aus der Sicht dieses Programmes können wir also $x$ durch $(x \land u)$ ersetzen, und die
|
||||
Verteilungsfunktion $B$ durch:
|
||||
\[
|
||||
B_{u}(y) = \left\{
|
||||
|
@ -321,30 +320,30 @@ B_{u}(y) = \left\{
|
|||
B(y) & y<u \\
|
||||
1 & y \geq u
|
||||
\end{array} \right. ~.
|
||||
\]
|
||||
\]
|
||||
$W(u)$ setzt sich jetzt zusammen aus der restlichen Rechenzeit aller Programme, die vor unserem Programm angekommen sind, plus der Summe der Rechenzeiten von
|
||||
allen Programmen, die w"ahrend $T(u)$ ankommen. Der erste Teil ist im Mittel gleich der Wartezeit in $M_{\lambda}/B_{u}/1$, also gleich
|
||||
allen Programmen, die während $T(u)$ ankommen. Der erste Teil ist im Mittel gleich der Wartezeit in $M_{\lambda}/B_{u}/1$, also gleich
|
||||
\[W_{u}=\frac{\lambda \E((x \land u)^{2})}{2(1-\rho _{u})} \]
|
||||
mit
|
||||
\[\rho _{u}=\lambda \E(x \wedge u) ~.\]
|
||||
F"ur den zweiten Teil ergibt sich
|
||||
Für den zweiten Teil ergibt sich
|
||||
\[\lambda T(u)\E(x \wedge u) = T(u)\rho _{u} ~.\]
|
||||
Wir bekommen die Gleichung
|
||||
\[T(u)=u+W_{u}+\rho _{u}T(u) ~, \]
|
||||
also
|
||||
\[T(u)=\frac{u+W_{u}}{1-\rho_{u}} ~. \]
|
||||
F"ur $u \rightarrow 0$ ergibt sich
|
||||
Für $u \rightarrow 0$ ergibt sich
|
||||
\[T(u) \approx u ~, \]
|
||||
f"ur $u \rightarrow \infty$
|
||||
für $u \rightarrow \infty$
|
||||
\[T(u) \approx \frac{u}{1-\rho} ~. \]
|
||||
\end{enumerate}
|
||||
|
||||
|
||||
%-------------------------------------------------------------------------------------------
|
||||
\chapter{Priorit"aten}
|
||||
\chapter{Prioritäten}
|
||||
%----------------------------------------------------------------------------------------------
|
||||
Wir betrachten den Fall, da"s es mehrere \index{Klassen}Klassen von Kunden gibt, die von unserem System unterschiedlich behandelt werden. Genauer gesagt soll es
|
||||
Wir betrachten den Fall, daß es mehrere \index{Klassen}Klassen von Kunden gibt, die von unserem System unterschiedlich behandelt werden. Genauer gesagt soll es
|
||||
$p > 0$ Klassen
|
||||
von Kunden geben. Die Kunden aus Klasse $i$ kommen nach einem Poissonproze"s mit Rate $\lambda_{i}$ an und ben"otigen eine Bedienzeit mit Verteilungsfunktion
|
||||
von Kunden geben. Die Kunden aus Klasse $i$ kommen nach einem Poissonprozeß mit Rate $\lambda_{i}$ an und benötigen eine Bedienzeit mit Verteilungsfunktion
|
||||
$B_{i}$ (wir betrachten also wieder eine $M/G/1$-Situation). Weiters sei
|
||||
\begin{eqnarray*}
|
||||
\lambda &=& \sum_{i=1}^{p}\lambda _{i} \\
|
||||
|
@ -352,12 +351,12 @@ B(y) &=& \frac{1}{\lambda}\sum_{i=1}^{p}\lambda _{i}B_{i}(y) \\
|
|||
\rho _{i} &=& \lambda _{i}\int ydB_{i}(y) \\
|
||||
\rho &=& \lambda \int ydB(y) ~.
|
||||
\end{eqnarray*}
|
||||
Es gibt jetzt eine ganze Reihe von M"oglichkeiten, Disziplinen zu definieren, die eine Klasse gegeb"uber anderen bevorzugen. Wir sprechen von unterschiedlichen
|
||||
{\bf \index{Priorit\"{a}ten}Priorit"aten}.
|
||||
Es gibt jetzt eine ganze Reihe von Möglichkeiten, Disziplinen zu definieren, die eine Klasse gegebüber anderen bevorzugen. Wir sprechen von unterschiedlichen
|
||||
{\bf \index{Prioritäten}Prioritäten}.
|
||||
|
||||
Die Disziplinen, die wir untersuchen, sollen folgende Eigenschaften haben:
|
||||
\begin{enumerate}
|
||||
\item {\bf Nicht-pr"a-emptiv}: Ein einmal begonnener Bedienvorgang wird ohne Unterbrechung zu Ende gef"uhrt.
|
||||
\item {\bf Nicht-prä-emptiv}: Ein einmal begonnener Bedienvorgang wird ohne Unterbrechung zu Ende geführt.
|
||||
\item {\bf Arbeitserhaltend}: Niemand, der wartet, wird weggeschickt, ohne bedient zu worden zu sein.
|
||||
\end{enumerate}
|
||||
Weiters soll immer, wenn das System nicht leer ist, bedient werden.
|
||||
|
@ -366,83 +365,83 @@ Weiters soll immer, wenn das System nicht leer ist, bedient werden.
|
|||
\section{Ein Erhaltungssatz}
|
||||
%------------------------------
|
||||
|
||||
$U_{t}$ sei die unverrichtete Zeit im System, d.h. die Zeit, die ben"otigt wird, um alle anwesenden Kunden fertig zu bedienen. Offensichtlich ist die Verteilung
|
||||
von $U_{t}$ unabh"angig von der Disziplin: \\
|
||||
$U_{t}$ w"achst mit jeder Ankunft eines Kunden um seine Bedienzeit an, und f"allt pro Sekunde um $1$ Sekunde, solange $U_{t}>0$ ist. Die station"are Verteilung
|
||||
von $U_{t}$ entspricht der Verteilung der Wartezeit eines zuf"allig ankommenden Kunden bei der FCFS-Disziplin. \\
|
||||
$U_{t}$ sei die unverrichtete Zeit im System, d.h. die Zeit, die benötigt wird, um alle anwesenden Kunden fertig zu bedienen. Offensichtlich ist die Verteilung
|
||||
von $U_{t}$ unabhängig von der Disziplin: \\
|
||||
$U_{t}$ wächst mit jeder Ankunft eines Kunden um seine Bedienzeit an, und fällt pro Sekunde um $1$ Sekunde, solange $U_{t}>0$ ist. Die stationäre Verteilung
|
||||
von $U_{t}$ entspricht der Verteilung der Wartezeit eines zufällig ankommenden Kunden bei der FCFS-Disziplin. \\
|
||||
Insbesondere ist
|
||||
\[\E(U) = \frac{\lambda \E(x^{2})}{2(1-\rho)} ~ \]
|
||||
wobei $x$ nach der Funktion $B$ verteilt ist.
|
||||
|
||||
Wir berechnen jetzt $\E(U)$ auf eine andere Art. Dazu bezeichnen wir mit $W_{i}$, $i=1, \dots , p$, die mittlere Wartezeit eines Kunden mit Priorit"at $i$, und
|
||||
Wir berechnen jetzt $\E(U)$ auf eine andere Art. Dazu bezeichnen wir mit $W_{i}$, $i=1, \dots , p$, die mittlere Wartezeit eines Kunden mit Priorität $i$, und
|
||||
mit
|
||||
$N_{i}$ die Anzahl der Kunden aus der $i$-ten Priorit"atsgruppe in der Warteschlange.
|
||||
$N_{i}$ die Anzahl der Kunden aus der $i$-ten Prioritätsgruppe in der Warteschlange.
|
||||
|
||||
$\E(U)$ setzt sich jetzt aus folgenden Beitr"agen zusammen:
|
||||
$\E(U)$ setzt sich jetzt aus folgenden Beiträgen zusammen:
|
||||
\begin{enumerate}
|
||||
\item $W_{0}$: die mittlere restliche Bedienzeit f"ur den Kunden, der gerade bedient wird.
|
||||
\item Die Summe der mittleren Bedienzeiten f"ur alle Kunden, die sich in der Warteschlange befinden.
|
||||
\item $W_{0}$: die mittlere restliche Bedienzeit für den Kunden, der gerade bedient wird.
|
||||
\item Die Summe der mittleren Bedienzeiten für alle Kunden, die sich in der Warteschlange befinden.
|
||||
\end{enumerate}
|
||||
Um $W_{0}$ zu bestimmen, stellen wir fest, da"s $W_{0}$ gleich der Zeit ist, die ein zuf"allig ankommender Kunde warten mu"s, bis der Kunde fertig ist, der gerade
|
||||
Um $W_{0}$ zu bestimmen, stellen wir fest, daß $W_{0}$ gleich der Zeit ist, die ein zufällig ankommender Kunde warten muß, bis der Kunde fertig ist, der gerade
|
||||
bedient wird. Mit Wahrscheinlichkeit $(1-\rho)$ findet der ankommende Kunde das System leer vor. Falls der Server besetzt ist, kann man die Verteilung der
|
||||
restlichen Bedienzeit folgenderma"sen bestimmen: \\
|
||||
Wir betrachten eine gro"se Anzahl $n$ von unabh"angigen Variablen mit Verteilung $B$. Ihre Summe ist nach dem Gesetz der gro"sen Zahlen $\approx n\E(x)$. Wenn wir
|
||||
in dem Intervall der L"ange $n\E(x)$ einen Punkt zuf"allig w"ahlen, ist die Chance, da"s wir bis zum Ende des Teilintervalls, in das der zuf"allig gew"ahlte Punkt
|
||||
f"allt, einen Abstand zwischen $u$ und $u+\Delta u$ haben, gleich $\frac{\Delta u}{n\E(x)}$ mal der Anzahl der Intervalle mit L"ange $> u$, also
|
||||
\[ \approx \frac{\Delta u}{n\E(x)}n(1-B(u)) ~. \]
|
||||
F"ur $n \rightarrow \infty$ ergibt sich f"ur die Verteilung der restlichen Wartezeit die Dichte
|
||||
restlichen Bedienzeit folgendermaßen bestimmen: \\
|
||||
Wir betrachten eine große Anzahl $n$ von unabhängigen Variablen mit Verteilung $B$. Ihre Summe ist nach dem Gesetz der großen Zahlen $\approx n\E(x)$. Wenn wir
|
||||
in dem Intervall der Länge $n\E(x)$ einen Punkt zufällig wählen, ist die Chance, daß wir bis zum Ende des Teilintervalls, in das der zufällig gewählte Punkt
|
||||
fällt, einen Abstand zwischen $u$ und $u+\Delta u$ haben, gleich $\frac{\Delta u}{n\E(x)}$ mal der Anzahl der Intervalle mit Länge $> u$, also
|
||||
\[ \approx \frac{\Delta u}{n\E(x)}n(1-B(u)) ~. \]
|
||||
Für $n \rightarrow \infty$ ergibt sich für die Verteilung der restlichen Wartezeit die Dichte
|
||||
\[f(u)=\frac{1-B(u)}{\E(x)} ~. \]
|
||||
Schlie"slich ist
|
||||
Schließlich ist
|
||||
\[W_{0}=\rho \int_{0}^{\infty}uf(u)du = \frac{\rho \E(x^{2})}{2\E(x)}=\frac{\lambda \E(x^{2})}{2} ~. \]
|
||||
Die Summe der Bedienzeiten der Kunden in der Warteschlange ergibt sich nat"urlich aus der Summe der gesamten Bedienzeiten der Kunden in den einzelnen Gruppen.
|
||||
Es sind im Schnitt $N_{i}$ Kunden aus der $i$-ten Gruppe anwesend. F"ur jeden wird im Schnitt eine Bedienzeit $\E(x_{i})$ ($x_{i}$ soll eine $ZV$ mit Verteilung
|
||||
$B_{i}$ sein) ben"otigt. \\
|
||||
Die Summe der Bedienzeiten der Kunden in der Warteschlange ergibt sich natürlich aus der Summe der gesamten Bedienzeiten der Kunden in den einzelnen Gruppen.
|
||||
Es sind im Schnitt $N_{i}$ Kunden aus der $i$-ten Gruppe anwesend. Für jeden wird im Schnitt eine Bedienzeit $\E(x_{i})$ ($x_{i}$ soll eine $ZV$ mit Verteilung
|
||||
$B_{i}$ sein) benötigt. \\
|
||||
Damit gilt
|
||||
\[\E(U)=W_{0}+\sum_{i=1}^{p}\E(x_{i})N_{i}=\frac{W_{0}}{1-\rho} ~. \]
|
||||
Nach Little gilt $N_{i}=\lambda_{i}W_{i}$, also schlie"slich
|
||||
Nach Little gilt $N_{i}=\lambda_{i}W_{i}$, also schließlich
|
||||
\[ \sum_{i=1}^{p}\rho_{i}W_{i}=\frac{\rho W_{0}}{1-\rho}=\frac{\lambda \rho \E(x^{2})}{2(1-\rho)} ~.\]
|
||||
Dieses Ergebnis zeigt, da"s wir eine Gruppe nur bevorzugen k"onnen, indem eine andere Gruppe gr"o"sere Wartezeiten in Kauf nehmen mu"s.
|
||||
Dieses Ergebnis zeigt, daß wir eine Gruppe nur bevorzugen können, indem eine andere Gruppe größere Wartezeiten in Kauf nehmen muß.
|
||||
|
||||
%----------------------------------------------------
|
||||
\section{Eine Methode zur Bestimmung der Wartezeit}
|
||||
\section{Eine Methode zur Bestimmung der Wartezeit}
|
||||
%----------------------------------------------------
|
||||
|
||||
Wir betrachten einen Kunden aus der Gruppe $i$, der das System betritt: \\
|
||||
$N_{ij} \dots$ mittlere Anzahl der Kunden aus Gruppe $j$, die unser Kunde im System antrifft, und die vor ihm bedient werden (ausgenommen der Kunde, der eventuell
|
||||
gerade bedient werden, wenn unser Kunde ankommt). \\
|
||||
$M_{ij} \dots$ mittlere Anzahl der Kunden aus Gruppe $j$, die w"ahrend der Wartezeit unseres Kunden ankommen und vor ihm bedient werden. \\
|
||||
$M_{ij} \dots$ mittlere Anzahl der Kunden aus Gruppe $j$, die während der Wartezeit unseres Kunden ankommen und vor ihm bedient werden. \\
|
||||
Damit gilt
|
||||
\[W_{i}=W_{0}+\sum_{j=1}^{p}(N_{ij}+M_{ij})\E(x_{j}) ~. \]
|
||||
Wir verwenden diesen Zugang f"ur die einfachste Disziplin: \\
|
||||
Wir verwenden diesen Zugang für die einfachste Disziplin: \\
|
||||
Jeder Kunde aus Gruppe $i$ wird vor allen Kunden aus Gruppe $i-1$ bedient, und innerhalb einer Gruppe wird nach $FCFS$ gearbeitet. \\
|
||||
Dann ist
|
||||
\begin{eqnarray*}
|
||||
N_{ij}&=&0 \qquad j<i \\
|
||||
M_{ij}&=&0 \qquad j \leq i ~.
|
||||
\end{eqnarray*}
|
||||
F"ur $j \geq i$ ist
|
||||
Für $j \geq i$ ist
|
||||
\[N_{ij}=N_{j}=\lambda _{j}W_{j} ~. \]
|
||||
F"ur $j>i$ ist $M_{ij}$ die Anzahl der Kunden aus Gruppe $j$, die im Mittel w"ahrend $W_{i} = \lambda _{j}W_{i}$ ankommen.
|
||||
Für $j>i$ ist $M_{ij}$ die Anzahl der Kunden aus Gruppe $j$, die im Mittel während $W_{i} = \lambda _{j}W_{i}$ ankommen.
|
||||
|
||||
Wir erhalten
|
||||
\begin{eqnarray*}
|
||||
W_{i}&=&W_{0}+\sum_{j=i}^{p}\rho _{j}W_{j}+\sum_{j=i+1}^{p}\rho_{j}W_{i} = \\
|
||||
&=&W_{0} + W_{i}\sum_{j=i}^{p}\rho_{j} + \sum_{j=i+1}^{p}\rho_{j}W_{j}
|
||||
\end{eqnarray*}
|
||||
oder
|
||||
oder
|
||||
\[W_{i}(1-\sum_{j=i}^{p}\rho_{j})=W_{0}+\sum_{j=i+1}^{p}\rho_{j}W_{j} ~. \]
|
||||
Wir schreiben
|
||||
\[\sigma_{j} = \sum_{j=i}^{p}\rho_{j} \]
|
||||
und erhalten
|
||||
\[W_{i-1}(1-\sigma_{i-1})=W_{i}(1-\sigma_{i})+\rho_{i}W_{i}=W_{i}(1-\sigma_{i+1}) ~, \]
|
||||
und schlie"slich
|
||||
und schließlich
|
||||
\[W_{i}=\frac{W_{0}}{(1-\sigma_{i})(1-\sigma_{i+1})} ~. \]
|
||||
|
||||
%----------------------------------------------------------------------------
|
||||
\begin{appendix}
|
||||
\chapter{Transformationen}
|
||||
%----------------------------------------------------------------------------
|
||||
F"ur unsere Untersuchungen ben"otigen wir die folgenden Transformationen:
|
||||
Für unsere Untersuchungen benötigen wir die folgenden Transformationen:
|
||||
\begin{enumerate}
|
||||
\item Die erzeugende Funktion oder \index{erzeugende Funktion}$z$ - Transformierte: Falls $p_{n}$, $n
|
||||
\geq 0$ eine diskrete Verteilung ist, nennen wir
|
||||
|
@ -453,8 +452,8 @@ die erzeugende Funktion von $(p_{n})$. Falls $X$ die Verteilung $(p_{n})$
|
|||
hat, so gilt
|
||||
\begin{displaymath}
|
||||
P^{*}(z) = \E (z^{X}) ~.
|
||||
\end{displaymath}
|
||||
$P^{*}(z)$ existiert jedenfalls f"ur $|z|<1$. Bekanntlich kann man aus
|
||||
\end{displaymath}
|
||||
$P^{*}(z)$ existiert jedenfalls für $|z|<1$. Bekanntlich kann man aus
|
||||
$P^{*}$ eindeutig $(p_{n})$ bestimmen:
|
||||
\begin{displaymath}
|
||||
p_{n} = \frac{1}{n!} P^{*^{n}} (0) ~.
|
||||
|
@ -468,33 +467,33 @@ hei\3t
|
|||
\begin{displaymath}
|
||||
\hat F(t) = \int_{0}^{\infty} e^{-xt} f(x)dx
|
||||
\end{displaymath}
|
||||
die \index{Laplace - Transformierte}Laplace - Transformierte von $f$. Dieses Integral ist f"ur $t \geq 0$
|
||||
die \index{Laplace - Transformierte}Laplace - Transformierte von $f$. Dieses Integral ist für $t \geq 0$
|
||||
endlich, und es gibt auch hier eine eindeutige Beziehung zwischen $\hat F$
|
||||
und $f$. Falls $X$ mit der Dichte $f$ verteilt ist, ist
|
||||
\begin{displaymath}
|
||||
\hat F(t) = \E (e^{-Xt}) ~.
|
||||
\end{displaymath}
|
||||
Diese Beziehung kann man auch verwenden, um die Laplace - Transformierte
|
||||
f"ur nicht stetige Verteilungen zu definieren.
|
||||
\end{enumerate}
|
||||
für nicht stetige Verteilungen zu definieren.
|
||||
\end{enumerate}
|
||||
Es bestehen folgende Eigenschaften der Transformationen:
|
||||
\begin{enumerate}
|
||||
\item $P^{*}(z)$ ist regul"ar f"ur $|z| \leq 1$.
|
||||
\item $ \hat F(z)$ ist regul"ar f"ur $ \Re (z) \geq 0$. Falls $X$ eine
|
||||
\item $P^{*}(z)$ ist regulär für $|z| \leq 1$.
|
||||
\item $ \hat F(z)$ ist regulär für $ \Re (z) \geq 0$. Falls $X$ eine
|
||||
Verteilung $(p_{n})$ hat, ist
|
||||
\begin{displaymath}
|
||||
\E(X) = (P^{*})^{'}(1) ~.
|
||||
\end{displaymath}
|
||||
\end{displaymath}
|
||||
Falls $X$ Dichte $f$ hat, ist
|
||||
\begin{displaymath}
|
||||
\E(X) = -\hat F^{'}(0) ~.
|
||||
\end{displaymath}
|
||||
\item Falls $X$, $T$ unabh"angig sind, ist die Transformierte der Summe
|
||||
\end{displaymath}
|
||||
\item Falls $X$, $T$ unabhängig sind, ist die Transformierte der Summe
|
||||
das Produkt der Transformierten.
|
||||
\item Weiters sei $N_{t}$ ein \index{Poissonproze\3}Poissonproze\3 (d.h. eine Folge von
|
||||
Ereignissen, wobei die Zeit zwischen zwei Ereignissen nach $M_{\lambda}$
|
||||
verteilt ist. $N_{t}$ ist die Anzahl dieser Ereignisse im Intervall
|
||||
$[0,t])$. F"ur eine zuf"allige Zeit $T$ wollen wir die Anzahl $N_{T}$ von
|
||||
$[0,t])$. Für eine zufällige Zeit $T$ wollen wir die Anzahl $N_{T}$ von
|
||||
Ereignissen in $[0,T]$ bestimmen. Falls $T=t$ ist, ist diese Anzahl
|
||||
Poisson - verteilt mit Parameter $\lambda t$:
|
||||
\begin{displaymath}
|
||||
|
|
|
@ -2,27 +2,27 @@
|
|||
\chapter{Einleitung}
|
||||
%-----------------------------------------------------------------------------
|
||||
Wir betrachten folgendes grundlegendes Modell: Kunden kommen zu
|
||||
zuf"alligen Zeiten $T_{1} < T_{2} < \dots <T_{n} < \dots$ im System an,
|
||||
zufälligen Zeiten $T_{1} < T_{2} < \dots <T_{n} < \dots$ im System an,
|
||||
wobei $T_{n}$
|
||||
die \index{Ankunftszeit}Ankunftszeit des $n$-ten Kunden bezeichnet.
|
||||
|
||||
Ein oder mehrere Bediener arbeiten die Schlange ab und f"ur jeden Kunden
|
||||
wird eine bestimmte \index{Bedienzeit}`Bedienzeit' ben"otigt. Es sei $x_{n}$ die Bedienzeit
|
||||
des $n$-ten Kunden.
|
||||
Ein oder mehrere Bediener arbeiten die Schlange ab und für jeden Kunden
|
||||
wird eine bestimmte \index{Bedienzeit}`Bedienzeit' benötigt. Es sei $x_{n}$ die Bedienzeit
|
||||
des $n$-ten Kunden.
|
||||
Die Reihenfolge der Bedienung der Kunden wird durch
|
||||
die sogenannte \index{Disziplin}`Disziplin' der Warteschlange bestimmt.Wir nehmen meistens
|
||||
FCFS (First Come First Serve) an. Andere M"oglichkeiten w"aren LCFS (Last
|
||||
Come First Serve) oder `Priorit"aten'.
|
||||
FCFS (First Come First Serve) an. Andere Möglichkeiten wären LCFS (Last
|
||||
Come First Serve) oder `Prioritäten'.
|
||||
|
||||
Folgende Annahmen werden getroffen:
|
||||
\begin{enumerate}
|
||||
\item Die $x_{n}$ sollen unabh"angig und identisch verteilt sein.
|
||||
\item $t_{n}$ ist die $n$-te \index{Zwischenankunftszeit}Zwischenankunftszeit also $t_{n}= T_{n} -
|
||||
\item Die $x_{n}$ sollen unabhängig und identisch verteilt sein.
|
||||
\item $t_{n}$ ist die $n$-te \index{Zwischenankunftszeit}Zwischenankunftszeit also $t_{n}= T_{n} -
|
||||
T_{n-1}$, $T_{0}=0$ (Die Zeit zwischen der Ankunft des $n$-ten und des
|
||||
$(n-1)$-ten Kunden). Die $t_{n}$ sind auch unabh"angig und identisch
|
||||
verteilt.
|
||||
$(n-1)$-ten Kunden). Die $t_{n}$ sind auch unabhängig und identisch
|
||||
verteilt.
|
||||
\end{enumerate}
|
||||
Wir verwenden folgende \index{Warteschlangen!Kurznotation}Kurznotation f"ur
|
||||
Wir verwenden folgende \index{Warteschlangen!Kurznotation}Kurznotation für
|
||||
Warteschlangen: $A/B/s$.
|
||||
|
||||
$A \dots$ Verteilung der Zwischenankuftszeiten $t_{n}$, wobei $a$ die Dichte
|
||||
|
@ -31,19 +31,19 @@ $B \dots$ Verteilung der Bedienzeiten $x_{n}$ wobei $b$ die Dichte von
|
|||
$x_{n}$ ist. \\
|
||||
$s \dots$ Anzahl der Bediener \index{Server}(Server).
|
||||
|
||||
Kurznotationen f"ur Verteilungen sind: \\
|
||||
$M$ $\dots$ \index{Verteilung!Exponential-}Exponentialverteilung (`memoryless'). \\
|
||||
Kurznotationen für Verteilungen sind: \\
|
||||
$M$ $\dots$ \index{Verteilung!Exponential-}Exponentialverteilung (`memoryless'). \\
|
||||
Dichtefunktion:
|
||||
\begin{displaymath}
|
||||
f(x) = \lambda e^{-\lambda x} \qquad x\geq 0.
|
||||
\end{displaymath}
|
||||
$E_{n}$ $\dots$ \index{Verteilung!Erlang-}Erlangverteilung: Die Summe von $n$ unabh"angigen
|
||||
$E_{n}$ $\dots$ \index{Verteilung!Erlang-}Erlangverteilung: Die Summe von $n$ unabhängigen
|
||||
Exponentialverteilungen.\\
|
||||
Dichtefunktion:
|
||||
\begin{displaymath}
|
||||
f(x)=\frac{\lambda^{n}x^{n-1}}{(n-1)!}e^{-\lambda x} \qquad x\geq 0.
|
||||
\end{displaymath}
|
||||
$H$ $\dots$ \index{Verteilung!Hyperexponentelle}Hyperexponentielle Verteilung: Die Mischung von unabh"angigen
|
||||
\end{displaymath}
|
||||
$H$ $\dots$ \index{Verteilung!Hyperexponentelle}Hyperexponentielle Verteilung: Die Mischung von unabhängigen
|
||||
Exponentialverteilungen. Wir haben $p_{1} \dots p_{n}$, $p_{i} \geq 0$,
|
||||
und
|
||||
$\sum_{i=1}^{n} p_{i} = 1$, $\lambda_{1} \dots \lambda_{n} \geq 0$. \\
|
||||
|
@ -52,55 +52,55 @@ Dichtefunktion:
|
|||
f(x)=\sum_{i=1}^{n} p_{i} \lambda_{i} e^{-\lambda_{i}x}.
|
||||
\end{displaymath}
|
||||
$D$ $\dots$ \index{Verteilung!Deterministische}Deterministisch: Ein fixer Wert wird angenommen. \\
|
||||
$G$ $\dots$ \index{Verteilung!Allgemeine}`General': Allgemeine Verteilung (alles, was nicht vorher erw"ahnt
|
||||
wurde).
|
||||
$G$ $\dots$ \index{Verteilung!Allgemeine}`General': Allgemeine Verteilung (alles, was nicht vorher erwähnt
|
||||
wurde).
|
||||
|
||||
Die Sonderstellung der Exponentialverteilung ist begr"undet durch ihre
|
||||
Ged"achtnislosigkeit. Falls n"amlich etwa eine Wartezeit
|
||||
Die Sonderstellung der Exponentialverteilung ist begründet durch ihre
|
||||
Gedächtnislosigkeit. Falls nämlich etwa eine Wartezeit
|
||||
exponentialverteilt ist, und wir schon t Zeiteinheiten gewartet haben, so
|
||||
ist die Verteilung der restlichen Wartezeit gegeben durch
|
||||
\begin{eqnarray*}
|
||||
\PP(\mbox{restliche Wartezeit} \geq x \mid \mbox{schon $t$
|
||||
gewartet}) = \\
|
||||
= \PP(T \geq t+x \mid T \geq t) = \frac{\PP(T \geq t+x)}{\PP(T\geq t)} ~.
|
||||
\end{eqnarray*}
|
||||
= \PP(T \geq t+x \mid T \geq t) = \frac{\PP(T \geq t+x)}{\PP(T\geq t)} ~.
|
||||
\end{eqnarray*}
|
||||
Angenommen $T$ sei exponentialverteilt $\Rightarrow$ $\PP(T \geq t) =
|
||||
e^{-\lambda t}$ $\Rightarrow$
|
||||
\begin{displaymath}
|
||||
\frac{\PP(T \geq t+x)}{\PP(T \geq t)} = \frac{e^{-\lambda
|
||||
(t+x)}}{e^{-\lambda
|
||||
t}}= e^{-\lambda x},
|
||||
\end{displaymath}
|
||||
also unabh"angig davon, wie lange wir schon vorher gewartet haben.
|
||||
\end{displaymath}
|
||||
also unabhängig davon, wie lange wir schon vorher gewartet haben.
|
||||
|
||||
Es gibt abgeleitete Gr"o\3en, die das Verhalten der Warteschlange
|
||||
Es gibt abgeleitete Grö\3en, die das Verhalten der Warteschlange
|
||||
beschreiben wie:
|
||||
\begin{enumerate}
|
||||
\item $w_{n}$ $\dots$ \index{Wartezeit}Wartezeit des $n$-ten Kunden.
|
||||
\item $z_{n} = w_{n} + x_{n} \dots$ Zeit, die der $n$-te Kunde im System
|
||||
verbringt.
|
||||
verbringt.
|
||||
\item $N_{t}$ $\dots$ Anzahl der Kunden, die zum Zeitpunkt $t$ im System
|
||||
sind ($=$ wartende + eventuell die, die gerade bedient werden).
|
||||
\end{enumerate}
|
||||
Es gibt einige Fragen, die uns interessieren:
|
||||
\begin{enumerate}
|
||||
\item Die Verteilungen von $w_{n}$, $z_{n}$, $N_{t}$.
|
||||
\item Gibt es Grenzverteilungen f"ur $n \rightarrow \infty$ bzw. $t
|
||||
\item Gibt es Grenzverteilungen für $n \rightarrow \infty$ bzw. $t
|
||||
\rightarrow \infty$ (d.h. pendelt sich das Verhalten der Schlange auf
|
||||
einen station"aren Zustand ein?) und Bestimmung der Grenzverteilungen.
|
||||
einen stationären Zustand ein?) und Bestimmung der Grenzverteilungen.
|
||||
\item Erwartungswerte der Grenzverteilungen in 2.
|
||||
\item Absch"atzungen f"ur 3.
|
||||
\item Abschätzungen für 3.
|
||||
\end{enumerate}
|
||||
Die Aufgaben sind hier in abnehmender Schwierigkeit geordnet. Leider sind
|
||||
die genauen Verteilungen 1. nicht leicht zu bestimmen, also beschr"anken
|
||||
die genauen Verteilungen 1. nicht leicht zu bestimmen, also beschränken
|
||||
wir uns meist auf 2. ; im ganz allgemeinen Fall wird es sogar notwendig
|
||||
sein, nur Absch"atzungen zu betrachten.
|
||||
sein, nur Abschätzungen zu betrachten.
|
||||
%-----------------------------------------------------------------------------
|
||||
\chapter{Erste Resultate}
|
||||
\section{Eine Rekursion f"ur die Wartezeit}
|
||||
\section{Eine Rekursion für die Wartezeit}
|
||||
%----------------------------------------------------------------------------
|
||||
Wir wollen nun die Wartezeit des $(n+1)$-ten Kunden durch die des $n$-ten
|
||||
Kunden ausdrucken. Dazu ist
|
||||
Kunden ausdrucken. Dazu ist
|
||||
\begin{enumerate}
|
||||
\item $T_{n} \ldots $ die Ankunftszeit des $n$-ten Kunden.
|
||||
\item $T_{n} + w_{n} \ldots$ die Zeit, wenn der $n$-te Kunde bedient wird.
|
||||
|
@ -112,13 +112,13 @@ Kunden.
|
|||
Falls $T_{n+1} < T_{n} + w_{n} + x_{n}$,
|
||||
dann ist $w_{n+1} = T_{n+1} + w_{n} + x_{n} - T_{n+1} = w_{n} + x_{n} -
|
||||
t_{n+1}$. Falls $T_{n+1} \geq T_{n} + w_{n} + x_{n}$ ist $w_{n+1} = 0$.
|
||||
Also
|
||||
Also
|
||||
\begin{displaymath}
|
||||
w_{n+1}= \max (w_{n}+x_{n}-t_{n+1}, 0) =: (w_{n} + x_{n} - t_{n+1})_{+} ~.
|
||||
w_{n+1}= \max (w_{n}+x_{n}-t_{n+1}, 0) =: (w_{n} + x_{n} - t_{n+1})_{+} ~.
|
||||
\end{displaymath}
|
||||
Sei $u_{n} = x_{n} - t_{n+1}.$ Die $u_{i}$ sind unabh"angig und
|
||||
Sei $u_{n} = x_{n} - t_{n+1}.$ Die $u_{i}$ sind unabhängig und
|
||||
identisch verteilt.
|
||||
\begin{eqnarray*}
|
||||
\begin{eqnarray*}
|
||||
\Rightarrow w_{n} &=& \max (w_{n-1}+ u_{n-1}, 0) = 0 \\
|
||||
\Rightarrow w_{n} &=& \max (0, u_{n-1} + \max (w_{n-2} + u_{n-2}, 0)) = \\
|
||||
&=& \max (0, u_{n-1}, u_{n-1} + u_{n-2} + w_{n-2}) = \dots\\
|
||||
|
@ -132,22 +132,22 @@ Also ist die Verteilung von $w_{n}$ dieselbe wie die von $\tilde w_{n}$ mit
|
|||
\end{displaymath}
|
||||
Offensichtlich ist $\tilde w_{n}$ eine monoton nichtfallende Folge, also
|
||||
existiert
|
||||
\[ \tilde w = \lim_{n \rightarrow \infty} w_{n}. \]
|
||||
\[ \tilde w = \lim_{n \rightarrow \infty} w_{n}. \]
|
||||
Falls $\E u > 0$, dann geht $u_{1}+ \cdots + u_{n-1}$ $\rightarrow
|
||||
\infty$, also auch $\tilde w$. Falls $\E u < 0$, dann geht $u_{1}+ \cdots
|
||||
+ u_{n-1}$ $\rightarrow -\infty$, also ist f"ur $n>n_{0}$ $u_{1}+ \cdots +
|
||||
+ u_{n-1}$ $\rightarrow -\infty$, also ist für $n>n_{0}$ $u_{1}+ \cdots +
|
||||
u_{n-1} <0 $, was bedeutet da\3 nur die ersten Glieder in der Definition
|
||||
von $\tilde w_{n}$ wichtig sind; also ist $\tilde w$ endlich. Falls $\E
|
||||
u = 0$, ist k"onnen wir den einfachen Fall $D/D/1$ betrachten. In diesem
|
||||
Fall ist $w_{n}=0$, also ist das Verhalten station"ar. Leider ist das der
|
||||
u = 0$, ist können wir den einfachen Fall $D/D/1$ betrachten. In diesem
|
||||
Fall ist $w_{n}=0$, also ist das Verhalten stationär. Leider ist das der
|
||||
einzige Fall; sobald $A$ oder $B$ nicht degenerierte Verteilungen haben,
|
||||
kann $\tilde w_{n}$ nicht gegen eine endliche Zufallsvariable
|
||||
konvergieren, weil etwa nach dem zentralen Grenzwertsatz f"ur $n$ gro\3
|
||||
konvergieren, weil etwa nach dem zentralen Grenzwertsatz für $n$ gro\3
|
||||
genug
|
||||
\begin{displaymath}
|
||||
\PP(\tilde w_{n} > a \sqrt{n.{\bf Var}(u)}) \geq 1- \Phi(a)- \epsilon > 0 ~.
|
||||
\end{displaymath}
|
||||
Somit ist f"ur jedes $n$
|
||||
\end{displaymath}
|
||||
Somit ist für jedes $n$
|
||||
\begin{displaymath}
|
||||
\PP(\tilde w > a \sqrt{n.{\bf Var}(u)}) \geq 1- \Phi(a)- \epsilon ~,
|
||||
\end{displaymath}
|
||||
|
@ -155,7 +155,7 @@ also
|
|||
\begin{displaymath}
|
||||
\PP(\tilde w = \infty) \geq 1- \Phi(a)- \epsilon ~.
|
||||
\end{displaymath}
|
||||
Es bleibt uns also f"ur station"ares Verhalten (au\3er im Trivialfall \\
|
||||
Es bleibt uns also für stationäres Verhalten (au\3er im Trivialfall \\
|
||||
$D/D/1$) die Bedingung
|
||||
\begin{displaymath}
|
||||
\E (u) < 0 \Leftrightarrow \E (x) < \E (t) \Leftrightarrow \rho=
|
||||
|
@ -167,26 +167,26 @@ sind dies die Anzahl von Kunden, die in einem langen Zeitraum
|
|||
durchschnittlich pro Zeiteinheit ankommen bzw. bedient werden, falls
|
||||
ununterbrochen
|
||||
bedient wird. Mit diesen Bezeichnungen ist $\rho = \frac{\lambda}{\mu}$ \index{Auslastung}(Auslastung)
|
||||
und die Bedingung f"ur station"ares Verhalten wird zu $ \lambda < \mu$ bzw.\
|
||||
und die Bedingung für stationäres Verhalten wird zu $ \lambda < \mu$ bzw.\
|
||||
$\rho<1$.
|
||||
%--------------------------------------------------------------------------
|
||||
\section{Der Satz von Little}
|
||||
%---------------------------------------------------------------------------
|
||||
Wir nehmen jetzt an, da\3 in unserer Schlange station"ares Verhalten
|
||||
Wir nehmen jetzt an, da\3 in unserer Schlange stationäres Verhalten
|
||||
herrscht; wir wollen eine Beziehung zwischen der Ankuftsrate, der mittleren
|
||||
Anzahl der Kunden im System und der mittleren Aufenthaltsdauer finden.
|
||||
Dazu nehmen wir an, da\3 wir jeden Kunden f"ur die Zeit, die er im System
|
||||
verbringt, bezahlen m"ussen. Die Summe, die insgesamt zu bezahlen ist,
|
||||
Dazu nehmen wir an, da\3 wir jeden Kunden für die Zeit, die er im System
|
||||
verbringt, bezahlen müssen. Die Summe, die insgesamt zu bezahlen ist,
|
||||
berechnet sich als $T \E (N)$, da zu jedem Zeitpunkt durchschnittlich $\E
|
||||
(N)$
|
||||
Kunden anwesend sind. Andererseits bekommt jeder Kunde durchschnittlich
|
||||
$\E (z)$ bezahlt. In der Zeit $T$ kommen $\lambda T$ Kunden an, also ist
|
||||
die
|
||||
zu bezahlende Summe auch gleich $\lambda T \E (z)$.
|
||||
zu bezahlende Summe auch gleich $\lambda T \E (z)$.
|
||||
|
||||
Beide Gleichungen sind nicht vollst"andig exakt, weil in beiden F"allen
|
||||
noch zuf"allige Schwankungen dazukommen, und weil bei der zweiten
|
||||
Gleichung auch nicht ber"ucksichtigt wurde, da\3 einige Kunden noch nach
|
||||
Beide Gleichungen sind nicht vollständig exakt, weil in beiden Fällen
|
||||
noch zufällige Schwankungen dazukommen, und weil bei der zweiten
|
||||
Gleichung auch nicht berücksichtigt wurde, da\3 einige Kunden noch nach
|
||||
$T$ bleiben. Diese Fehler sind aber von kleineren Ordnung als $T$. Wir
|
||||
haben also
|
||||
\begin{displaymath}
|
||||
|
@ -202,7 +202,7 @@ Mittlere Anzahl der Kunden, die gerade bedient werden =
|
|||
\begin{displaymath}
|
||||
\lambda \E (x) = \frac{\lambda}{\mu} = \rho ~.
|
||||
\end{displaymath}
|
||||
Da aber h"ochstens 1 Kunde bedient wird, ist das gleich der
|
||||
Da aber höchstens 1 Kunde bedient wird, ist das gleich der
|
||||
Wahrscheinlichkeit, da\3 der Server besetzt ist, oder der Auslastung des
|
||||
Servers.
|
||||
%---------------------------------------------------------------------------
|
||||
|
@ -210,8 +210,8 @@ Servers.
|
|||
\section{Die Schlange $M/M/1$}
|
||||
%---------------------------------------------------------------------------
|
||||
Im Folgenden gehen wir von der `FCFS'-Disziplin aus.
|
||||
Um die zuk"unftige Entwicklung einer Warteschlange bestimmen zu k"onnen,
|
||||
ben"otigen wir 3 Angaben zur Zeit $t$.
|
||||
Um die zukünftige Entwicklung einer Warteschlange bestimmen zu können,
|
||||
benötigen wir 3 Angaben zur Zeit $t$.
|
||||
\begin{enumerate}
|
||||
\item Die Anzahl $N_{t}$ der anwesenden Kunden.
|
||||
\item Die Zeit, die seit der letzten Ankunft vergangen ist.
|
||||
|
@ -219,16 +219,16 @@ ben"otigen wir 3 Angaben zur Zeit $t$.
|
|||
ist (falls dieser noch andauert).
|
||||
\end{enumerate}
|
||||
Die letzten beiden Angaben sind notwendig, damit wir die Verteilung der
|
||||
verbleibenden Zeit bis zur n"achsten Ankunft bzw. bis zum Ende des
|
||||
Bedienvorganges bestimmen k"onnen. F"ur den Fall $M/M/1$ sind diese
|
||||
verbleibenden Zeit bis zur nächsten Ankunft bzw. bis zum Ende des
|
||||
Bedienvorganges bestimmen können. Für den Fall $M/M/1$ sind diese
|
||||
Angaben nicht notwendig, weil diese Verteilungen wegen der
|
||||
Ged"achtnislosigkeit der Exponentialverteilung nicht von der schon
|
||||
verstrichenen Zeit abh"angen. Deshalb gen"ugt uns $N_{t}$ zur Beschreibung
|
||||
Gedächtnislosigkeit der Exponentialverteilung nicht von der schon
|
||||
verstrichenen Zeit abhängen. Deshalb genügt uns $N_{t}$ zur Beschreibung
|
||||
des Systems.
|
||||
|
||||
Wir betrachten jetzt die Anzahl der Kunden zur Zeit $t+ \Delta t$, wenn
|
||||
die Anzahl zur Zeit t bekannt ist. Die Anzahl kann sich in folgender Weise
|
||||
"andern:
|
||||
ändern:
|
||||
\begin{enumerate}
|
||||
\item Es kann gar nichts geschehen.
|
||||
\item Es kann genau ein Kunde aufkommen.
|
||||
|
@ -238,58 +238,58 @@ die Anzahl zur Zeit t bekannt ist. Die Anzahl kann sich in folgender Weise
|
|||
Die Wahrscheinlichkeit, da\3 mindestens ein Kunde im Intervall $(t, t+ \Delta t)$
|
||||
ankommt, ist $1-e^{-\lambda \Delta t} = \lambda \Delta t + o (\Delta t)$.
|
||||
Ebenso ist die Wahrscheinlichkeit, da\3 ein Kunde fertig wird $\mu \Delta
|
||||
t + o(\Delta t)$. Die Wahrscheinlichkeit f"ur 4. ist, wie man leicht
|
||||
einsieht, $o(\Delta t)$. Das gibt f"ur 1. die Wahrscheinlichkeit $1 -
|
||||
t + o(\Delta t)$. Die Wahrscheinlichkeit für 4. ist, wie man leicht
|
||||
einsieht, $o(\Delta t)$. Das gibt für 1. die Wahrscheinlichkeit $1 -
|
||||
(\lambda + \mu) \Delta t + o(\Delta t)$. Falls die Schlange leer ist,
|
||||
fallen nat"urlich die Summanden mit $\mu$ weg (es kann ja niemand gehen).
|
||||
Somit gilt f"ur
|
||||
fallen natürlich die Summanden mit $\mu$ weg (es kann ja niemand gehen).
|
||||
Somit gilt für
|
||||
\begin{eqnarray*}
|
||||
p_{n}(t) &=& \PP (N_{t} = n) \\
|
||||
p_{n}(t+ \Delta t) &=& \mu \Delta t . p_{n+1}(t) + (1 - (\lambda +
|
||||
\mu) \Delta t) p_{n}(t) + \\
|
||||
& &+ \lambda \Delta t p_{n-1}(t) + o(\Delta t)
|
||||
\qquad [n \geq 1] \\
|
||||
\qquad [n \geq 1] \\
|
||||
p_{0}(t + \Delta t) &=& \mu \Delta t . p_{1}(t) + (1 - \lambda \Delta t)
|
||||
p_{0}(t) + o(\Delta t) ~.
|
||||
\end{eqnarray*}
|
||||
Wenn man $p_{n}(t)$ auf die linke Seite bringt und durch $\Delta t$
|
||||
dividiert und $\Delta t \rightarrow 0$ l"a\3t, ergibt sich
|
||||
dividiert und $\Delta t \rightarrow 0$ lä\3t, ergibt sich
|
||||
\begin{eqnarray*}
|
||||
p'_{n}(t) &=& \mu p_{n+1}(t)-(\lambda + \mu) p_{n}(t)+ \lambda p_{n-1}(t)
|
||||
\\
|
||||
p'_{0}(t) &=& \mu p_{1}(t)- \lambda p_{0}(t) ~.
|
||||
\end{eqnarray*}
|
||||
Diese Gleichungen lassen sich etwa mit Hilfe von Transformationen l"osen,
|
||||
aber das Ergebnis ist nicht besonders sch"on. Wir beschr"anken uns daher
|
||||
jetzt und in der Folge auf die Bestimmung der station"aren L"osung. Diese
|
||||
ist nat"urlich dadurch gekennzeichnet, da\3 $p_{n}(t)$ nicht von der Zeit
|
||||
$t$ abh"angt, also $p'_{n}(t)=0$. Das ergibt die Gleichungen
|
||||
Diese Gleichungen lassen sich etwa mit Hilfe von Transformationen lösen,
|
||||
aber das Ergebnis ist nicht besonders schön. Wir beschränken uns daher
|
||||
jetzt und in der Folge auf die Bestimmung der stationären Lösung. Diese
|
||||
ist natürlich dadurch gekennzeichnet, da\3 $p_{n}(t)$ nicht von der Zeit
|
||||
$t$ abhängt, also $p'_{n}(t)=0$. Das ergibt die Gleichungen
|
||||
\begin{eqnarray*}
|
||||
\mu p_{n+1}-(\lambda +\mu) p_{n} + \lambda p_{n-1} &=& 0 \\
|
||||
\mu p_{1} - \lambda p_{0} &=& 0 ~.
|
||||
\end{eqnarray*}
|
||||
\end{eqnarray*}
|
||||
Durch Induktion erhalten wir daraus
|
||||
\begin{displaymath}
|
||||
\mu p_{n+1} - \lambda p_{n} = 0 ~,
|
||||
\mu p_{n+1} - \lambda p_{n} = 0 ~,
|
||||
\end{displaymath}
|
||||
oder
|
||||
\begin{displaymath}
|
||||
p_{n+1} = \frac{\lambda}{\mu} p_{n} = \rho p_{n} ~.
|
||||
p_{n+1} = \frac{\lambda}{\mu} p_{n} = \rho p_{n} ~.
|
||||
\end{displaymath}
|
||||
Also ist
|
||||
\begin{displaymath}
|
||||
p_{n} = \rho^{n}p_{0}
|
||||
p_{n} = \rho^{n}p_{0}
|
||||
\end{displaymath}
|
||||
und wegen $\sum_{n=0}^{\infty} p_{n} = 1$
|
||||
\begin{displaymath}
|
||||
p_{0} = 1- \rho
|
||||
\begin{displaymath}
|
||||
p_{0} = 1- \rho
|
||||
\end{displaymath}
|
||||
und
|
||||
\begin{displaymath}
|
||||
p_{n} = \rho^{n} (1- \rho) ~.
|
||||
\end{displaymath}
|
||||
Die Anzahl der Kunden im System ist also geometrisch verteilt. Aus dieser
|
||||
Verteilung k"onnen wir jetzt die Verteilungen von $w$ und $z$ bestimmen.
|
||||
Verteilung können wir jetzt die Verteilungen von $w$ und $z$ bestimmen.
|
||||
Die Zeit im System $z$, falls bei der Ankunft $n$ Personen anwesend sind,
|
||||
ist die Summe von $(n+1)$ exponentialverteilten Zufallsvariablen (die
|
||||
Bedienzeiten der $n$ anwesenden + die der neu hinzugekommenen), hat also
|
||||
|
@ -314,16 +314,16 @@ Exponentialverteilung mit Parameter $\mu - \lambda$.
|
|||
%----------------------------------------------------------------------------
|
||||
\section{Das System $M/G/1$}
|
||||
%------------------------------------------------------------------------------
|
||||
Jetzt ben"otigen wir zus"atzlich zu $N_{t}$ die Information "uber die
|
||||
Jetzt benötigen wir zusätzlich zu $N_{t}$ die Information über die
|
||||
schon verbrauchte Bedienzeit. Die einfachste Methode besteht darin, das
|
||||
System nur in solchen Zeitpunkten zu betrachten, an denen die verbrauchte
|
||||
Bedienzeit bekannt ist (und zwar = 0), n"amlich die Zeitpunkte $T_{n}$, in
|
||||
denen der n-te Kunde das System verl"a\3t. Es sei $N_{n}$ die Anzahl der
|
||||
Bedienzeit bekannt ist (und zwar = 0), nämlich die Zeitpunkte $T_{n}$, in
|
||||
denen der n-te Kunde das System verlä\3t. Es sei $N_{n}$ die Anzahl der
|
||||
Kunden, die dann im System verbleiben. Es gilt: Falls $N_{n}=0$, so mu\3
|
||||
zuerst gewartet werden, bis ein neuer Kunde ankommt; wenn dieser Kunde
|
||||
geht, sind noch genau die Kunden da, die w"ahrend seiner Bedienzeit
|
||||
geht, sind noch genau die Kunden da, die während seiner Bedienzeit
|
||||
angekommen sind; bezeichnet man $M_{n}$ als die Anzahl der Kunden, die
|
||||
w"ahrend der Bedienzeit des $n$-ten Kunden ankommen, so gilt
|
||||
während der Bedienzeit des $n$-ten Kunden ankommen, so gilt
|
||||
\begin{displaymath}
|
||||
N_{n+1} = M_{n} ~.
|
||||
\end{displaymath}
|
||||
|
@ -335,8 +335,8 @@ Zusammengefa\3t ergibt sich:
|
|||
\begin{displaymath}
|
||||
N_{n+1} = (N_{n} - 1)_{+} + M_{n} ~.
|
||||
\end{displaymath}
|
||||
Wir suchen eine station"are L"osung; es sei also $\PP (N_{n}=k)=p_{k}$
|
||||
unabh"angig von $n$. Die erzeugende Funktion von $N_{n}$ ist
|
||||
Wir suchen eine stationäre Lösung; es sei also $\PP (N_{n}=k)=p_{k}$
|
||||
unabhängig von $n$. Die erzeugende Funktion von $N_{n}$ ist
|
||||
\begin{displaymath}
|
||||
P^{*}(z) = \sum_{}^{}p_{k}z^{k} ~.
|
||||
\end{displaymath}
|
||||
|
@ -345,9 +345,9 @@ Die erzeugende Funktion von $(N_{n}-1)_{+}=$
|
|||
= p_{0} + \sum_{k=1}^{\infty} p_{k} z^{k-1} &=& p_{0}+ \frac{\hat P
|
||||
(z) - p_{0}}{z} = \\
|
||||
&=& \frac{\hat P(z) - p_{0}(1-z)}{z} ~.
|
||||
\end{eqnarray*}
|
||||
\end{eqnarray*}
|
||||
Mithilfe der Transformationen (Anhang A) ergibt sich die erzeugende Funktion von $M_{n}$
|
||||
(die Ank"unfte bilden ja einen Poisson - Proze\3) als
|
||||
(die Ankünfte bilden ja einen Poisson - Proze\3) als
|
||||
\begin{displaymath}
|
||||
\tilde B (\lambda(1 - z)) ~,
|
||||
\end{displaymath}
|
||||
|
@ -368,8 +368,8 @@ P^{*}(z) = \frac{(1- \rho)(1-z) \tilde B ( \lambda (1-z))}{ \tilde B (
|
|||
\lambda(1-z)) - z} ~,
|
||||
\end{displaymath}
|
||||
eine sogenannte \index{Pollaczek - Khinchin Formel}Pollaczek - Khinchin Formel. Die Anzahl der Kunden, die der $n$-te
|
||||
Kunde zur"uckl"a\3t, ist genau die Anzahl der Kunden, die ankommen
|
||||
w"ahrend er im System ist (d.h. w"ahrend $z_{n}$), d.h. f"ur die
|
||||
Kunde zurücklä\3t, ist genau die Anzahl der Kunden, die ankommen
|
||||
während er im System ist (d.h. während $z_{n}$), d.h. für die
|
||||
$L$-Transformierte $ \tilde Z (t)$ der Verteilung von $z$ gilt:
|
||||
\begin{displaymath}
|
||||
\tilde Z (\lambda(1-z)) = P^{*}(z) ~,
|
||||
|
@ -378,18 +378,18 @@ also
|
|||
\begin{displaymath}
|
||||
\tilde Z (t) = \frac{(1- \rho)t \tilde B (t)}{t + \lambda \tilde B (t) -
|
||||
\lambda} ~.
|
||||
\end{displaymath}
|
||||
Auch das nennt man eine Pollaczek - Khinchin Formel. F"ur die Wartezeit
|
||||
\end{displaymath}
|
||||
Auch das nennt man eine Pollaczek - Khinchin Formel. Für die Wartezeit
|
||||
gilt
|
||||
(wegen $z_{n} = w_{n} + x_{n}$)
|
||||
\begin{displaymath}
|
||||
\tilde Z (t) = \tilde W (t) \tilde B(t) ~,
|
||||
\end{displaymath}
|
||||
\tilde Z (t) = \tilde W (t) \tilde B(t) ~,
|
||||
\end{displaymath}
|
||||
also
|
||||
\begin{displaymath}
|
||||
\tilde W (t) = \frac{(1- \rho)t}{t + \lambda \tilde B (t) - \lambda} ~.
|
||||
\end{displaymath}
|
||||
F"ur die Erwartungswerte ergibt sich:
|
||||
Für die Erwartungswerte ergibt sich:
|
||||
\begin{eqnarray*}
|
||||
\E (N) &=& \rho + \frac{\lambda^{2} \E x^{2}}{2(1- \rho)} \\
|
||||
\E (Z) &=& \frac{1}{\mu} + \frac{\lambda \E x^{2}}{2(1 - \rho)} \\
|
||||
|
@ -402,49 +402,49 @@ Jetzt betrachten wir analog zum vorigen Kapitel das System zu den Zeiten
|
|||
$T_{n}$, wo der $n$-te Kunde ankommt. $N_{n}$ sei die Anzahl der
|
||||
anwesenden Kunden, die der $n$-te Kunde vorfindet.
|
||||
\begin{displaymath}
|
||||
N_{n+1} = N_{n}+1-\mbox{Anzahl der Kunden, die w"ahrend $t_{n+1}$ gehen.}
|
||||
N_{n+1} = N_{n}+1-\mbox{Anzahl der Kunden, die während $t_{n+1}$ gehen.}
|
||||
\end{displaymath}
|
||||
F"ur $n>0$ gilt, wenn wir $p_{k}= \PP (N_{n}=k)$ (station"ar!) setzen:
|
||||
Für $n>0$ gilt, wenn wir $p_{k}= \PP (N_{n}=k)$ (stationär!) setzen:
|
||||
\begin{displaymath}
|
||||
p_{k} = \sum_{j=k-1}^{\infty} p_{j} q_{j+1-k} \qquad [k \geq 1] ~,
|
||||
\end{displaymath}
|
||||
wobei
|
||||
\begin{displaymath}
|
||||
q_{s} = \PP (\mbox{ $s$ Kunden gehen w" ahrend
|
||||
$t_{n+1}$)} =
|
||||
q_{s} = \PP (\mbox{ $s$ Kunden gehen während
|
||||
$t_{n+1}$)} =
|
||||
\end{displaymath}
|
||||
\begin{eqnarray*}
|
||||
= \PP (\mbox{w"ahrend $t_{n+1}$ treten genau $s$ Ereignisse eines Poissons
|
||||
= \PP (\mbox{während $t_{n+1}$ treten genau $s$ Ereignisse eines Poissons
|
||||
-} \\
|
||||
\mbox{Prozesses mit Rate $\mu$ auf)} ~. & &
|
||||
\end{eqnarray*}
|
||||
Die Gleichung f"ur $k=0$ ist "uberfl"ussig, da sie aus den Gleichungen
|
||||
f"ur $k>0$ und der Beziehung $\sum_{}^{} p_{k}=1$ gefolgert werden kann.
|
||||
Man kann zeigen, da\3 diese Gleichung eine eindeutige L"osung besitzt.
|
||||
Falls nun $(p_{k})$ eine L"osung ist, ist auch
|
||||
\mbox{Prozesses mit Rate $\mu$ auf)} ~. & &
|
||||
\end{eqnarray*}
|
||||
Die Gleichung für $k=0$ ist überflüssig, da sie aus den Gleichungen
|
||||
für $k>0$ und der Beziehung $\sum_{}^{} p_{k}=1$ gefolgert werden kann.
|
||||
Man kann zeigen, da\3 diese Gleichung eine eindeutige Lösung besitzt.
|
||||
Falls nun $(p_{k})$ eine Lösung ist, ist auch
|
||||
\begin{displaymath}
|
||||
\tilde p_{k} = \frac{p_{k+1}}{1-p_{0}}
|
||||
\end{displaymath}
|
||||
eine L"osung. Es mu\3 also
|
||||
eine Lösung. Es mu\3 also
|
||||
\begin{displaymath}
|
||||
\tilde p_{k} = p_{k} ~,
|
||||
\end{displaymath}
|
||||
somit
|
||||
\begin{displaymath}
|
||||
p_{k+1} = p_{k}(1-p_{0})
|
||||
p_{k+1} = p_{k}(1-p_{0})
|
||||
\end{displaymath}
|
||||
und
|
||||
\begin{displaymath}
|
||||
p_{k} = p_{0}(1-p_{0})^{k} =
|
||||
p_{k} = p_{0}(1-p_{0})^{k} =
|
||||
\sigma^{k}(1- \sigma) \qquad [ \sigma := 1 - p_{0}] ~.
|
||||
\end{displaymath}
|
||||
Setzt man das in die Gleichung f"ur $k=1$ ein, ergibt sich
|
||||
\end{displaymath}
|
||||
Setzt man das in die Gleichung für $k=1$ ein, ergibt sich
|
||||
\begin{displaymath}
|
||||
\sigma = \sum_{j=0}^{\infty} \sigma^{j} q_{j} = \tilde A (\mu(1-\sigma))
|
||||
~.
|
||||
\end{displaymath}
|
||||
Falls $\rho < 1$, gibt es genau eine L"osung $\sigma \in (0,1)$. Dann ist
|
||||
$N$ geometrisch verteilt mit Parameter $\sigma$. Wie f"ur die Schlange
|
||||
Falls $\rho < 1$, gibt es genau eine Lösung $\sigma \in (0,1)$. Dann ist
|
||||
$N$ geometrisch verteilt mit Parameter $\sigma$. Wie für die Schlange
|
||||
$M/M/1$ ergibt sich die Verteilung der Zeit $z$ im System als
|
||||
Exponentialverteilt mit Parameter $\mu(1- \sigma)$; die Wartezeit $w$ hat
|
||||
$\PP (w=0)= 1 - \sigma$ und die bedingte Verteilung von $w$ unter $[w>0]$
|
||||
|
@ -455,19 +455,19 @@ ist wieder dieselbe Exponentialverteilung wie die von $z$.
|
|||
Hier sind beide Verteilungen - die der Zwischenankunftszeiten und die der
|
||||
Bedienzeiten - allgemeine Verteilungen. Der Trick der vorigen beiden
|
||||
Kapitel funktioniert jetzt nicht mehr gut. Um beide Zeiten zu
|
||||
kontrollieren, m"u\3ten wir das System nun zu den Zeitpunkten betrachten,
|
||||
kontrollieren, mü\3ten wir das System nun zu den Zeitpunkten betrachten,
|
||||
in denen ein Kunde das leere System betritt; diese Zeitpunkte sind aber zu
|
||||
selten, um vern"uftig damit zu arbeiten. Statt dessen gehen wir von der
|
||||
Rekursion f"ur die Wartezeiten aus:
|
||||
selten, um vernüftig damit zu arbeiten. Statt dessen gehen wir von der
|
||||
Rekursion für die Wartezeiten aus:
|
||||
\begin{displaymath}
|
||||
w_{n+1} = (w_{n} + u_{n})_{+} ~.
|
||||
\end{displaymath}
|
||||
Das bedeutet f"ur die Verteilungsfunktion $W(.)$ von $w$
|
||||
Das bedeutet für die Verteilungsfunktion $W(.)$ von $w$
|
||||
\begin{displaymath}
|
||||
W(x) = \PP (w_{n+1} \leq x) = \left\{
|
||||
\begin{array}{lc}
|
||||
\PP (w_{n} + u_{n} \leq x) & x \geq 0 \\
|
||||
0 & x < 0
|
||||
0 & x < 0
|
||||
\end{array} \right. ~.
|
||||
\end{displaymath}
|
||||
Die Wahrscheinlichkeit $\PP (w_{n}+ u_{n} \leq x)$ berechnet sich als
|
||||
|
@ -475,8 +475,8 @@ Die Wahrscheinlichkeit $\PP (w_{n}+ u_{n} \leq x)$ berechnet sich als
|
|||
\PP (w_{n} + u_{n} \leq x) = \int_{- \infty}^{\infty} W(x-u) c(u) du ~,
|
||||
\end{displaymath}
|
||||
wobei $c(u)$ die Dichte von $u_{n} = x_{n} - t_{n+1}$ ist. Falls in der
|
||||
Gleichung f"ur $W(x)$ die Fallunterscheidung nicht auftreten w"urde, w"are
|
||||
sie leicht durch Transformationen zu l"osen. Wir erreichen dies durch
|
||||
Gleichung für $W(x)$ die Fallunterscheidung nicht auftreten würde, wäre
|
||||
sie leicht durch Transformationen zu lösen. Wir erreichen dies durch
|
||||
einen Kunstgriff: Wir setzen
|
||||
\begin{displaymath}
|
||||
Y(x) = \left\{
|
||||
|
@ -485,7 +485,7 @@ Y(x) = \left\{
|
|||
0 & x \geq 0
|
||||
\end{array} \right. ~.
|
||||
\end{displaymath}
|
||||
Dann ist
|
||||
Dann ist
|
||||
\begin{displaymath}
|
||||
W(x) + Y(x) = \int_{-\infty}^{\infty} W(x-u) c(u) du ~.
|
||||
\end{displaymath}
|
||||
|
@ -495,29 +495,29 @@ da\3
|
|||
\begin{displaymath}
|
||||
\Phi (t) = \frac{1}{t} \tilde W(t)
|
||||
\end{displaymath}
|
||||
gilt. F"ur die Transformationen ergeben sich die Formeln
|
||||
gilt. Für die Transformationen ergeben sich die Formeln
|
||||
\begin{displaymath}
|
||||
\Phi (t) + \Phi^{-}(t) = \Phi (t) \tilde C (t) = \Phi (t) \tilde A (-t)
|
||||
\tilde B (t) ~,
|
||||
\tilde B (t) ~,
|
||||
\end{displaymath}
|
||||
oder
|
||||
\begin{displaymath}
|
||||
\frac{\Phi^{-}(t)}{\Phi (t)} = \tilde A (-t) \tilde B (t) -1 ~.
|
||||
\end{displaymath}
|
||||
Wir nehmen an, da\3 $\tilde A(t)$ f"ur $t \geq -D$ existiert. (Das ist
|
||||
gleichbedeutend damit, da\3 $\PP (t_{n} \geq x)$ wie $e^{-Dx}$ f"allt).
|
||||
Dann existiert $\tilde A (-t) \tilde B (t) - 1$ f"ur $0 \leq t \leq D$;
|
||||
Ferner existiert $\Phi (t)$ f"ur $t >0$ und $t \Phi (t)$ ist in $\Re (t)
|
||||
\geq 0$ regul"ar und beschr"ankt; $\Phi^{-}(t)$ existiert f"ur $t \leq D$
|
||||
und in $\Re (t) < D$ ist $t\Phi^{-}(t)$ regul"ar und beschr"ankt. Wir
|
||||
Wir nehmen an, da\3 $\tilde A(t)$ für $t \geq -D$ existiert. (Das ist
|
||||
gleichbedeutend damit, da\3 $\PP (t_{n} \geq x)$ wie $e^{-Dx}$ fällt).
|
||||
Dann existiert $\tilde A (-t) \tilde B (t) - 1$ für $0 \leq t \leq D$;
|
||||
Ferner existiert $\Phi (t)$ für $t >0$ und $t \Phi (t)$ ist in $\Re (t)
|
||||
\geq 0$ regulär und beschränkt; $\Phi^{-}(t)$ existiert für $t \leq D$
|
||||
und in $\Re (t) < D$ ist $t\Phi^{-}(t)$ regulär und beschränkt. Wir
|
||||
versuchen 2 Funktionen $\Psi^{+}$ und $\Psi^{-}$ zu finden, die folgendes
|
||||
erf"ullen:
|
||||
erfüllen:
|
||||
\begin{enumerate}
|
||||
\item $\frac{\Psi^{+}(t)}{\Psi^{-}(t)} = \tilde A(-t) \tilde B(t) -1$ ~ ~\index{Spektralzerlegung}(Spektralzerlegung).
|
||||
\item $\frac{\Psi^{+}(t)}{t}$ ist f"ur $\Re(t)>0$ regul"ar und beschr"ankt
|
||||
\item $\frac{\Psi^{+}(t)}{t}$ ist für $\Re(t)>0$ regulär und beschränkt
|
||||
und hat dort keine Nullstellen.
|
||||
\item $\frac{\Psi^{-}(t)}{t}$ ist f"ur $\Re (t) < D$ regul"ar und
|
||||
beschr"ankt und hat dort keine Nullstellen.
|
||||
\item $\frac{\Psi^{-}(t)}{t}$ ist für $\Re (t) < D$ regulär und
|
||||
beschränkt und hat dort keine Nullstellen.
|
||||
\end{enumerate}
|
||||
Dann gilt
|
||||
\begin{displaymath}
|
||||
|
@ -528,9 +528,9 @@ oder
|
|||
\begin{displaymath}
|
||||
\Phi^{-}(t) \Psi^{-}(t) = \Psi^{+}(t) \Phi (t) \qquad 0< \Re (t) < D ~.
|
||||
\end{displaymath}
|
||||
Die linke Seite ist f"ur $\Re (t) < D$ regul"ar und beschr"ankt, die
|
||||
rechte Seite f"ur $\Re (t) > 0$. Es ist dadurch also eine Funktion
|
||||
bestimmt, die in der ganzen Ebene regul"ar und beschr"ankt ist. Nach dem
|
||||
Die linke Seite ist für $\Re (t) < D$ regulär und beschränkt, die
|
||||
rechte Seite für $\Re (t) > 0$. Es ist dadurch also eine Funktion
|
||||
bestimmt, die in der ganzen Ebene regulär und beschränkt ist. Nach dem
|
||||
Satz von \index{Satz!LIOUVILLE}LIOUVILLE mu\3 eine solche Funktion konstant sein. Es gilt also
|
||||
\begin{displaymath}
|
||||
\Phi (t) = \frac{K}{\Psi^{+}(t)} ~,
|
||||
|
@ -544,13 +544,13 @@ Es bleibt die Konstante $K$ zu bestimmen. Sie folgt wieder aus
|
|||
\tilde W (0) = 1 \qquad \mbox{zu} \qquad
|
||||
K = \frac{\Phi^{+}(t)}{t} \Bigg \bracevert_{t=0} = (\Phi^{+})^{'}(0) ~.
|
||||
\end{displaymath}
|
||||
{\bf Beispiel: $M/M/1$}
|
||||
{\bf Beispiel: $M/M/1$}
|
||||
\begin{displaymath}
|
||||
A = M_{\lambda}: \quad \tilde A(t) = \frac{\lambda}{\lambda + t}, \quad
|
||||
B = M_{\mu}: \quad \tilde B(t) =\frac{\mu}{\mu +t}
|
||||
\end{displaymath}
|
||||
\begin{eqnarray*}
|
||||
\frac{\Psi^{+}(t)}{\Psi^{-}(t)} &=& \tilde A(-t) \tilde B(t)-1 =
|
||||
\frac{\Psi^{+}(t)}{\Psi^{-}(t)} &=& \tilde A(-t) \tilde B(t)-1 =
|
||||
\frac{\lambda \mu}{(\lambda - t)(\mu + t)} - 1 = \\
|
||||
&=& \frac{t(\mu - \lambda + t)}{(\lambda - t)(\mu + t)}. \\
|
||||
\Psi^{+}(t) &=& \frac{t(\mu -\lambda + t)}{(t + \mu} \\
|
||||
|
@ -560,6 +560,6 @@ B = M_{\mu}: \quad \tilde B(t) =\frac{\mu}{\mu +t}
|
|||
\frac{1}{t} - \frac{\lambda}{\mu(\mu - \lambda + t)} \\
|
||||
\Psi^{+'}(0) &=& \frac{\Psi^{+}(t)}{t} \Bigg \bracevert_{t=0} =\frac{\mu -
|
||||
\lambda}{\mu} \\
|
||||
F(x) &=& 1 - \rho e^{-(\mu - \lambda)x} \quad \mbox{f"ur} \quad x \geq 0
|
||||
F(x) &=& 1 - \rho e^{-(\mu - \lambda)x} \quad \mbox{für} \quad x \geq 0
|
||||
\end{eqnarray*}
|
||||
also die Verteilung der Wartezeit aus dem ersten Kapitel.
|
||||
|
|
Loading…
Add table
Add a link
Reference in a new issue