2
0
Fork 0
mirror of https://github.com/MartinThoma/LaTeX-examples.git synced 2025-04-19 11:38:05 +02:00

documents/Warteschlangen: Added from http://www.ci.tuwien.ac.at/~grill/

This commit is contained in:
Martin Thoma 2015-09-27 16:01:13 +02:00
parent eb090f7aef
commit e6b6504bfc
4 changed files with 1451 additions and 0 deletions

View file

@ -0,0 +1,340 @@
GNU GENERAL PUBLIC LICENSE
Version 2, June 1991
Copyright (C) 1989, 1991 Free Software Foundation, Inc.
59 Temple Place, Suite 330, Boston, MA 02111-1307 USA
Everyone is permitted to copy and distribute verbatim copies
of this license document, but changing it is not allowed.
Preamble
The licenses for most software are designed to take away your
freedom to share and change it. By contrast, the GNU General Public
License is intended to guarantee your freedom to share and change free
software--to make sure the software is free for all its users. This
General Public License applies to most of the Free Software
Foundation's software and to any other program whose authors commit to
using it. (Some other Free Software Foundation software is covered by
the GNU Library General Public License instead.) You can apply it to
your programs, too.
When we speak of free software, we are referring to freedom, not
price. Our General Public Licenses are designed to make sure that you
have the freedom to distribute copies of free software (and charge for
this service if you wish), that you receive source code or can get it
if you want it, that you can change the software or use pieces of it
in new free programs; and that you know you can do these things.
To protect your rights, we need to make restrictions that forbid
anyone to deny you these rights or to ask you to surrender the rights.
These restrictions translate to certain responsibilities for you if you
distribute copies of the software, or if you modify it.
For example, if you distribute copies of such a program, whether
gratis or for a fee, you must give the recipients all the rights that
you have. You must make sure that they, too, receive or can get the
source code. And you must show them these terms so they know their
rights.
We protect your rights with two steps: (1) copyright the software, and
(2) offer you this license which gives you legal permission to copy,
distribute and/or modify the software.
Also, for each author's protection and ours, we want to make certain
that everyone understands that there is no warranty for this free
software. If the software is modified by someone else and passed on, we
want its recipients to know that what they have is not the original, so
that any problems introduced by others will not reflect on the original
authors' reputations.
Finally, any free program is threatened constantly by software
patents. We wish to avoid the danger that redistributors of a free
program will individually obtain patent licenses, in effect making the
program proprietary. To prevent this, we have made it clear that any
patent must be licensed for everyone's free use or not licensed at all.
The precise terms and conditions for copying, distribution and
modification follow.
GNU GENERAL PUBLIC LICENSE
TERMS AND CONDITIONS FOR COPYING, DISTRIBUTION AND MODIFICATION
0. This License applies to any program or other work which contains
a notice placed by the copyright holder saying it may be distributed
under the terms of this General Public License. The "Program", below,
refers to any such program or work, and a "work based on the Program"
means either the Program or any derivative work under copyright law:
that is to say, a work containing the Program or a portion of it,
either verbatim or with modifications and/or translated into another
language. (Hereinafter, translation is included without limitation in
the term "modification".) Each licensee is addressed as "you".
Activities other than copying, distribution and modification are not
covered by this License; they are outside its scope. The act of
running the Program is not restricted, and the output from the Program
is covered only if its contents constitute a work based on the
Program (independent of having been made by running the Program).
Whether that is true depends on what the Program does.
1. You may copy and distribute verbatim copies of the Program's
source code as you receive it, in any medium, provided that you
conspicuously and appropriately publish on each copy an appropriate
copyright notice and disclaimer of warranty; keep intact all the
notices that refer to this License and to the absence of any warranty;
and give any other recipients of the Program a copy of this License
along with the Program.
You may charge a fee for the physical act of transferring a copy, and
you may at your option offer warranty protection in exchange for a fee.
2. You may modify your copy or copies of the Program or any portion
of it, thus forming a work based on the Program, and copy and
distribute such modifications or work under the terms of Section 1
above, provided that you also meet all of these conditions:
a) You must cause the modified files to carry prominent notices
stating that you changed the files and the date of any change.
b) You must cause any work that you distribute or publish, that in
whole or in part contains or is derived from the Program or any
part thereof, to be licensed as a whole at no charge to all third
parties under the terms of this License.
c) If the modified program normally reads commands interactively
when run, you must cause it, when started running for such
interactive use in the most ordinary way, to print or display an
announcement including an appropriate copyright notice and a
notice that there is no warranty (or else, saying that you provide
a warranty) and that users may redistribute the program under
these conditions, and telling the user how to view a copy of this
License. (Exception: if the Program itself is interactive but
does not normally print such an announcement, your work based on
the Program is not required to print an announcement.)
These requirements apply to the modified work as a whole. If
identifiable sections of that work are not derived from the Program,
and can be reasonably considered independent and separate works in
themselves, then this License, and its terms, do not apply to those
sections when you distribute them as separate works. But when you
distribute the same sections as part of a whole which is a work based
on the Program, the distribution of the whole must be on the terms of
this License, whose permissions for other licensees extend to the
entire whole, and thus to each and every part regardless of who wrote it.
Thus, it is not the intent of this section to claim rights or contest
your rights to work written entirely by you; rather, the intent is to
exercise the right to control the distribution of derivative or
collective works based on the Program.
In addition, mere aggregation of another work not based on the Program
with the Program (or with a work based on the Program) on a volume of
a storage or distribution medium does not bring the other work under
the scope of this License.
3. You may copy and distribute the Program (or a work based on it,
under Section 2) in object code or executable form under the terms of
Sections 1 and 2 above provided that you also do one of the following:
a) Accompany it with the complete corresponding machine-readable
source code, which must be distributed under the terms of Sections
1 and 2 above on a medium customarily used for software interchange; or,
b) Accompany it with a written offer, valid for at least three
years, to give any third party, for a charge no more than your
cost of physically performing source distribution, a complete
machine-readable copy of the corresponding source code, to be
distributed under the terms of Sections 1 and 2 above on a medium
customarily used for software interchange; or,
c) Accompany it with the information you received as to the offer
to distribute corresponding source code. (This alternative is
allowed only for noncommercial distribution and only if you
received the program in object code or executable form with such
an offer, in accord with Subsection b above.)
The source code for a work means the preferred form of the work for
making modifications to it. For an executable work, complete source
code means all the source code for all modules it contains, plus any
associated interface definition files, plus the scripts used to
control compilation and installation of the executable. However, as a
special exception, the source code distributed need not include
anything that is normally distributed (in either source or binary
form) with the major components (compiler, kernel, and so on) of the
operating system on which the executable runs, unless that component
itself accompanies the executable.
If distribution of executable or object code is made by offering
access to copy from a designated place, then offering equivalent
access to copy the source code from the same place counts as
distribution of the source code, even though third parties are not
compelled to copy the source along with the object code.
4. You may not copy, modify, sublicense, or distribute the Program
except as expressly provided under this License. Any attempt
otherwise to copy, modify, sublicense or distribute the Program is
void, and will automatically terminate your rights under this License.
However, parties who have received copies, or rights, from you under
this License will not have their licenses terminated so long as such
parties remain in full compliance.
5. You are not required to accept this License, since you have not
signed it. However, nothing else grants you permission to modify or
distribute the Program or its derivative works. These actions are
prohibited by law if you do not accept this License. Therefore, by
modifying or distributing the Program (or any work based on the
Program), you indicate your acceptance of this License to do so, and
all its terms and conditions for copying, distributing or modifying
the Program or works based on it.
6. Each time you redistribute the Program (or any work based on the
Program), the recipient automatically receives a license from the
original licensor to copy, distribute or modify the Program subject to
these terms and conditions. You may not impose any further
restrictions on the recipients' exercise of the rights granted herein.
You are not responsible for enforcing compliance by third parties to
this License.
7. If, as a consequence of a court judgment or allegation of patent
infringement or for any other reason (not limited to patent issues),
conditions are imposed on you (whether by court order, agreement or
otherwise) that contradict the conditions of this License, they do not
excuse you from the conditions of this License. If you cannot
distribute so as to satisfy simultaneously your obligations under this
License and any other pertinent obligations, then as a consequence you
may not distribute the Program at all. For example, if a patent
license would not permit royalty-free redistribution of the Program by
all those who receive copies directly or indirectly through you, then
the only way you could satisfy both it and this License would be to
refrain entirely from distribution of the Program.
If any portion of this section is held invalid or unenforceable under
any particular circumstance, the balance of the section is intended to
apply and the section as a whole is intended to apply in other
circumstances.
It is not the purpose of this section to induce you to infringe any
patents or other property right claims or to contest validity of any
such claims; this section has the sole purpose of protecting the
integrity of the free software distribution system, which is
implemented by public license practices. Many people have made
generous contributions to the wide range of software distributed
through that system in reliance on consistent application of that
system; it is up to the author/donor to decide if he or she is willing
to distribute software through any other system and a licensee cannot
impose that choice.
This section is intended to make thoroughly clear what is believed to
be a consequence of the rest of this License.
8. If the distribution and/or use of the Program is restricted in
certain countries either by patents or by copyrighted interfaces, the
original copyright holder who places the Program under this License
may add an explicit geographical distribution limitation excluding
those countries, so that distribution is permitted only in or among
countries not thus excluded. In such case, this License incorporates
the limitation as if written in the body of this License.
9. The Free Software Foundation may publish revised and/or new versions
of the General Public License from time to time. Such new versions will
be similar in spirit to the present version, but may differ in detail to
address new problems or concerns.
Each version is given a distinguishing version number. If the Program
specifies a version number of this License which applies to it and "any
later version", you have the option of following the terms and conditions
either of that version or of any later version published by the Free
Software Foundation. If the Program does not specify a version number of
this License, you may choose any version ever published by the Free Software
Foundation.
10. If you wish to incorporate parts of the Program into other free
programs whose distribution conditions are different, write to the author
to ask for permission. For software which is copyrighted by the Free
Software Foundation, write to the Free Software Foundation; we sometimes
make exceptions for this. Our decision will be guided by the two goals
of preserving the free status of all derivatives of our free software and
of promoting the sharing and reuse of software generally.
NO WARRANTY
11. BECAUSE THE PROGRAM IS LICENSED FREE OF CHARGE, THERE IS NO WARRANTY
FOR THE PROGRAM, TO THE EXTENT PERMITTED BY APPLICABLE LAW. EXCEPT WHEN
OTHERWISE STATED IN WRITING THE COPYRIGHT HOLDERS AND/OR OTHER PARTIES
PROVIDE THE PROGRAM "AS IS" WITHOUT WARRANTY OF ANY KIND, EITHER EXPRESSED
OR IMPLIED, INCLUDING, BUT NOT LIMITED TO, THE IMPLIED WARRANTIES OF
MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE. THE ENTIRE RISK AS
TO THE QUALITY AND PERFORMANCE OF THE PROGRAM IS WITH YOU. SHOULD THE
PROGRAM PROVE DEFECTIVE, YOU ASSUME THE COST OF ALL NECESSARY SERVICING,
REPAIR OR CORRECTION.
12. IN NO EVENT UNLESS REQUIRED BY APPLICABLE LAW OR AGREED TO IN WRITING
WILL ANY COPYRIGHT HOLDER, OR ANY OTHER PARTY WHO MAY MODIFY AND/OR
REDISTRIBUTE THE PROGRAM AS PERMITTED ABOVE, BE LIABLE TO YOU FOR DAMAGES,
INCLUDING ANY GENERAL, SPECIAL, INCIDENTAL OR CONSEQUENTIAL DAMAGES ARISING
OUT OF THE USE OR INABILITY TO USE THE PROGRAM (INCLUDING BUT NOT LIMITED
TO LOSS OF DATA OR DATA BEING RENDERED INACCURATE OR LOSSES SUSTAINED BY
YOU OR THIRD PARTIES OR A FAILURE OF THE PROGRAM TO OPERATE WITH ANY OTHER
PROGRAMS), EVEN IF SUCH HOLDER OR OTHER PARTY HAS BEEN ADVISED OF THE
POSSIBILITY OF SUCH DAMAGES.
END OF TERMS AND CONDITIONS
How to Apply These Terms to Your New Programs
If you develop a new program, and you want it to be of the greatest
possible use to the public, the best way to achieve this is to make it
free software which everyone can redistribute and change under these terms.
To do so, attach the following notices to the program. It is safest
to attach them to the start of each source file to most effectively
convey the exclusion of warranty; and each file should have at least
the "copyright" line and a pointer to where the full notice is found.
<one line to give the program's name and a brief idea of what it does.>
Copyright (C) 19yy <name of author>
This program is free software; you can redistribute it and/or modify
it under the terms of the GNU General Public License as published by
the Free Software Foundation; either version 2 of the License, or
(at your option) any later version.
This program is distributed in the hope that it will be useful,
but WITHOUT ANY WARRANTY; without even the implied warranty of
MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE. See the
GNU General Public License for more details.
You should have received a copy of the GNU General Public License
along with this program; if not, write to the Free Software
Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA 02111-1307 USA
Also add information on how to contact you by electronic and paper mail.
If the program is interactive, make it output a short notice like this
when it starts in an interactive mode:
Gnomovision version 69, Copyright (C) 19yy name of author
Gnomovision comes with ABSOLUTELY NO WARRANTY; for details type `show w'.
This is free software, and you are welcome to redistribute it
under certain conditions; type `show c' for details.
The hypothetical commands `show w' and `show c' should show the appropriate
parts of the General Public License. Of course, the commands you use may
be called something other than `show w' and `show c'; they could even be
mouse-clicks or menu items--whatever suits your program.
You should also get your employer (if you work as a programmer) or your
school, if any, to sign a "copyright disclaimer" for the program, if
necessary. Here is a sample; alter the names:
Yoyodyne, Inc., hereby disclaims all copyright interest in the program
`Gnomovision' (which makes passes at compilers) written by James Hacker.
<signature of Ty Coon>, 1 April 1989
Ty Coon, President of Vice
This General Public License does not permit incorporating your program into
proprietary programs. If your program is a subroutine library, you may
consider it more useful to permit linking proprietary applications with the
library. If this is what you want to do, use the GNU Library General
Public License instead of this License.

View file

@ -0,0 +1,519 @@
%-----------------------------------------------------------------------------------------------------------------
\chapter{Absch"atzungen und N"aherungen}
%-----------------------------------------------------------------------------------------------------------------
\section{Absch"atzungen}
%------------------------------------------------------------------------------------------------------------------
Die Ergebnisse des vorigen Abschnittes sind deswegen etwas unbefriedigend, weil die angestrebte Zerlegung nur in
Spezialf"allen m"oglich ist. Im allgemeinen Fall m"ussen wir uns darauf beschr"anken, Absch"atzungen und
n"aherungsweise L"osungen zu finden.
Wir gehen wieder von unserer Rekursionsgleichung aus:
\[w_{n+1} = (w_{n}+u_{n})_{+} \]
Wir f"uhren eine neue Zufallsvariable $y_{n}$ ein, die den entsprechenden Negativteil darstellt:
\[y_{n} = (w_{n}+u_{n})_{-} ~ ~ ~ ~ ~ ((x)_{-} := (-x)_{+}) ~. \]
Damit erhalten wir
\[ w_{n+1}-y_{n} = w_{n}+u_{n} ~.\]
Das gibt f"ur die Erwartungswerte:
\[\E(w_{n+1})-\E(y_{n}) = \E(w_{n})+\E(u_{n}) ~.\]
F"ur $n$ $\rightarrow$ $\infty$ ergibt sich
\[-\E(y) = \E(u) = \E(x) - \E(t) \qquad \mbox{oder} \qquad \E(y) = \E(t) - \E(x) ~.\]
Leider haben wir keine Beziehung f"ur die Wartezeit (Anmerkung: in den letzten Gleichungen steht nur eine Beziehung f"ur die Verteilungen).
Als n"achstes quadrieren wir die Ausgangsgleichung
\[ w_{n+1}^{2}+y_{n}^{2}-2w_{n+1}y_{n}=w_{n}^{2}+2w_{n}u_{n}+u_{n}^{2} ~.\]
Wegen \( (x)_{+}(x)_{-} = 0 \) ist \( w_{n+1}y_{n} = 0 ~,\) also
\[w_{n+1}^2 + y_{n}^2 = w_{n}^2+2w_{n}u_{n}+u_{n}^2 ~.\]
Wenn wir wieder die Erwartungswerte berchnen und \(n \rightarrow \infty \) gehen lassen, so ergibt sich
\begin{eqnarray*}
\E(w^{2})+\E(y^{2})&=&\E(w^{2})+2\E(wu)+\E(u^{2}) = \\
&=&\E(w^{2})+2\E(w)\E(u)+\E(u^{2}) \\
\end{eqnarray*}
($w_{n}$ und $u_{n}$ sind ja unabh"angig).
Schlie"slich haben wir
\[\E(w) = \frac{\E(u^{2})-\E(y^{2})}{-2\E(u)} \qquad [\E(u) \mbox{ ist ja negativ}] ~.\]
Wir erhalten eine obere Absch"atzung, wenn wir $\E(y^{2})$ nach unten absch"atzen. Dazu verhilft uns die Ungleichung
\[\E(y^{2}) \geq (\E(y))^{2} = (\E(u))^{2} \qquad \mbox{also }\]
\[\E(w^{2}) \leq \frac{{\bf Var}(u)}{-2\E(u)} = \frac{{\bf Var}(x)+{\bf Var}(t)}{-2\E(u)} ~.\]
F"ur eine obere Absch"atzung f"ur $\E(y^{2})$ beachten wir, da"s
\[y=(w+u)_{-} \leq (u)_{-} \quad \mbox{da} \quad w \geq 0 ~.\]
Wegen$ \quad u^{2} = ((u)_{+}-(u)_{-})^{2} = ((u)_{+})^{2}+((u)_{-})^{2} \quad $erhalten wir
\[\E(w) \geq \frac{(\E((u)_{+}))^{2}}{-2\E(u)} ~.\]
Ein weiterer Weg, eine untere Absch"atzung zu finden ist folgender:
\[\E(w_{n+1}) = \E(w_{n}+u_{n})_{+} = \E[\E((w_{n}+u_{n})_{+}\vert w_{n})] ~.\]
Wenn wir f"ur die Verteilungsfunktion von $u_{n}$
\[C(y)=\PP(u_{n} \leq y) \]
setzen, erhalten wir
\[\E((w_{n}+u_{n})_{+} \vert w_{n} = y) = \int_{-y}^{\infty}(u+z)dC(z) = \int_{-y}^{\infty}(1-C(z))dz =: g(y) ~.\]
Also
\[\E(w_{n+1}) = \E(g(w_{n}))\]
$g$ ist konvex ($g'$ ist monoton), also k"onnen wir die JENSEN'sche Ungleichung anwenden:
\[\E(g(w_{n})) \geq g(\E(w_{n}))~.\]
F"ur $n \rightarrow \infty$ ergibt sich
\[\E(w) \geq g(\E(w)) ~.\]
Wir betrachten die Gleichung
\[g(y) = y ~.\]
Die Funktion $y-g(y)$ hat die Ableitung $G(-y) \geq 0$, ist also monoton.\\
Weiters ist $g(0) = \E((u_{n})_{+}) > 0 \mbox{ falls } W(u_{n} > 0) > 0$ ist (andernfalls ist $w = 0$).\\
F"ur $n \rightarrow \infty$ ist $g(y) \rightarrow \E(u) < 0$, es gibt also eine eindeutig bestimmte L"osung $y_{0}$, f"ur die $g(y_{0}) = y_{o}$, und
\[\E(w) \geq g(y_{o}) ~.\]
%------------------------------------
\section{N"aherungen}
%------------------------------------
\bigskip
"Ahnlich wie die Absch"atzungen des vorigen Kapitels sollen uns die N"aherungen dieses Abschnittes dazu dienen, ungef"ahre Aussagen "uber das qualitative
Verhalten einer Warteschlange zu treffen. Eine M"oglichkeit besteht darin, die auftretenden Verteilungen durch solche zu ersetzen, f"ur die wir exakte Ergebnisse
kennen. Dazu k"onnen wir etwa folgende Klassen von Verteilungen verwenden:
\begin{enumerate}
\item {\bf Verteilungen mit rationaler Laplacetransformation}
Man kann jede Verteilung durch Verteilungen mit rationalen Laplacetransformationen ann"ahern. F"ur diese Verteilungen kann \\
man die Spektralzerlegung f"ur $G/G/1$ 'leicht' durchf"uhren: \\
man findet die Nullstellen von Z"ahler und Nenner und ordnet sie, je nachdem in welcher Halbebene sie liegen, entweder
der Funktion $\Psi^{+}$ oder $\Psi^{-}$zu.
\item {\bf Diskrete Verteilungen}
"Ahnlich wie unter $1.$ kann man jede Verteilung durch eine diskrete Verteilung ann"ahern. Das folgende Beispiel zeigt, wie die diskreten Verteilungen behandelt
werden k"onnen:\\
Es sei
\begin{eqnarray*}
\PP(t_{n}=1)=a, \quad \PP(t_{n}=2)=1-a \\
\PP(x_{n}=1)=b, \quad \PP(x_{n}=2)=1-b
\end{eqnarray*}
[$b>a$].
F"ur $u_{n}=x_{n}-t_{n+1}$ ergibt sich:
\begin{eqnarray*}
\PP(u_{n}=-1)&=&b(1-a) \\
\PP(u_{n}=1)&=&a(1-b) \\
\PP(u_{n}=0)&=&ab+(1-a)(1-b) ~.
\end{eqnarray*}
F"ur die station"are Verteilung der Wartezeit $w$ ergibt sich die Rekursion
\begin{eqnarray*}
p_{k}&=&a(1-b)p_{k-1}+(ab+(1-a)(1-b))p_{k}+b(1-a)p_{k+1} \\
p_{0}&=&(a(1-b)+ab-(1-a)(1-b))p_{0}+b(1-a)p_{1} ~.
\end{eqnarray*}
Wir erhalten
\begin{eqnarray*}
p_{k}&=&p_{0}\left( \frac{a(1-b)}{b(1-a)}\right)^{k} \\
p_{0}&=&1-\frac{a(1-b)}{b(1-a)}=\frac{b-a}{b(1-a)} ~.\\
\end{eqnarray*}
Falls wir mehr als zwei m"ogliche Werte f"ur $x$ bzw. $t$ haben, m"ussen wir eine Rekursion h"oherer Ordnung l"osen; dazu sind bekanntlich die Nullstellen des
charakteristischen Polynoms zu bestimmen. Auch hier, ebenso wie im im vorigen Abschnitt, reduziert sich also das Problem auf die L"osung einer algebraischen
Gleichung. Diese L"osung ist f"ur hohe Polynomgrade nur numerisch m"oglich. Dies und die Tatsache, da"s man nicht genau wei"s, wie eine 'gute' N"aherung zu
w"ahlen
ist, reduziert die Brauchbarkeit dieser beiden N"aherungen.
\item {\bf Approximation f"ur starke Auslastung ('Heavy traffic approximation')}
Wir betrachten den Fall $\rho \approx 1$. \\
Ausgangspunkt unserer Betrachtungen ist die Spektralzerlegung der $G/G/1$:
\[\frac{\Psi^{+}(s)}{\Psi^{-}(s)}=\tilde A (-s)\tilde B (s)-1 ~.\]
F"ur $s \rightarrow 0$ erhalten wir daraus die Entwicklung
\begin{eqnarray*}
\frac{\Psi^{+}(s)}{\Psi^{-}(s)}&=&(\E(t)-\E(x))s+\frac{s^{2}}{2}\E((x-t)^{2})+o(s^{2})= \\
&=&(1-\rho)s\E(t)+\frac{s^{2}}{2}\E((x-t)^{2})+o(s^{2})= \\
&=&(1-\rho)s\E(t)+\frac{s^{2}}{2}({\bf Var}(x)+{\bf Var}(t)+ \\
&+&(1-\rho)^{2}(\E(t))^{2}) + o(s^{2}) ~.
\end{eqnarray*}
F"ur $\rho \approx 1$ ist $(1-\rho)^{2}(\E(t))^{2}$ zu vernachl"assigen, also
\begin{eqnarray*}
\frac{\Psi^{+}(s)}{\Psi^{-}(s)}&\approx&(1-\rho)s\E(t)+\frac{s^{2}}{2}({\bf Var}(x)+{\bf Var}(t))+o(s^{2}) \approx \\
&\approx&s(s-s_{0}) \frac{{\bf Var}(x)+{\bf Var}(t)}{2} ~.
\end{eqnarray*}
$\Psi^{+}(s)$ ist in der N"ahe von $0$ stetig, also haben wir
\[\Psi^{+}(s) \approx Cs(s-s_{o})\]
mit
\[s_{0}=-\frac{2(1-\rho)\E(t)}{{\bf Var}(x)+{\bf Var}(t)} \]
und
\[C=\Psi^{-}(0)\frac{{\bf Var}(x)+{\bf Var}(t)}{2} ~. \]
Wir erhalten daraus
\[\Phi(s) \approx -\frac{s_{0}}{s(s-s_{0})}=\frac{1}{s}-\frac{1}{s-s_{0}} ~.\]
Also ergibt sich f"ur die Verteilungsfunktion der Wartezeit
\[ F(y) \approx 1 - e^{-y\frac{2\E(t)(1-\rho)}{{\bf Var}(x)+{\bf Var}(t)}} ~.\]
Die Wartezeit ist also n"aherungsweise exponentialverteilt mit Mittel
\[\E(w)=\frac{{\bf Var}(x)+{\bf Var}(t)}{2\E(t)(1-\rho)} ~.\]
Dieses Ergebnis kann man als \index{Satz!Zentraler Grenzwertsatz f\"{u}r Warteschlangen}'zentralen Grenzwertsatz' f"ur Warteschlangen betrachten.
Das Mittel dieser Exponentialverteilung haben wir bereits als obere
Absch"atzung f"ur die mittlere Wartezeit erhalten.
\item{\bf Die Flussapproximation}
Diese N"aherung geht von einer einfachen Idee aus:\\
Wir ersetzen die Ank"unfte und Bedienvorg"ange durch konstante Str"ome von $\lambda$ bzw. $\mu$ Kunden
pro Zeiteinheit. In unserem Standardmodell $(\lambda < \mu)$ ergibt sich aus dieser N"aherung nat"urlich, da"s die
Schlange stets leer ist, was offensichtlich nicht sehr brauchbar ist.
F"ur zwei F"alle gibt diese Approximation aber doch interessante Resultate:
\begin{enumerate}
\item Falls $\mu < \lambda$ ist, w"achst die Anzahl der Kunden im System um $(\lambda - \mu)$ Kunden pro Zeiteinheit.
\item Falls $\lambda < \mu$ ist, und falls die Anzahl der Kunden gro"s ist, kann man die Zeit, bis das System wieder leer ist, mit Hilfe dieser
N"aherung berechnen.
\end{enumerate}
\item{\bf Die Diffusionsn"aherung}
Dies ist wie die vorige N"aherung eine Approximation durch einen kontinuierlichen Proze"s. Diesmal wird auch die Varianz betrachtet.
Es sei $N_{a}(u)$ die Anzahl der Kunden, die bis zur Zeit $t$ ankommen.\\
Es gilt die Beziehung
\[ N_{a}(u) \geq n \Leftrightarrow T_{n} \geq u \]
$T_{n}$ ist, wie "ublich, die Ankunftszeit des $n$-ten Kunden.
Aus dem Gesetz der gro"sen Zahlen folgt:
\[ T_{n} \approx n\E(t) ~.\]
Das impliziert
\[N_{a}(u) \approx \lambda u ~. \]
Der zentrale Grenzwertsatz gibt uns
\[\PP(T_{n} \leq n\E(t)+z\sqrt{n{\bf Var}(t)}) = \Phi (z) ~. \]
Daraus ergibt sich f"ur gro"ses n
\begin{eqnarray*}
& &\PP(N_{a}\geq\lambda u + y\sqrt{u}) = \\
& & ~ ~=\PP(T_{\lambda u + y\sqrt{u}} \leq u) = \\
& & ~ ~=\PP(T_{\lambda u + y\sqrt{u}} \leq \E(t)(\lambda u + y\sqrt{u}) - y\E(t)\sqrt{u} ) = \\
& & ~ ~=\PP(T_{\lambda u + y\sqrt{u}} \leq \E(t)(\lambda u + y\sqrt{u}) - \\
& & ~ ~ ~ ~ ~- y\sqrt{(\E(t))^{3}(\lambda u + y\sqrt{u})})=\\
& &~ ~=\PP(T_{\lambda u + y\sqrt{u}} \leq \E(t)(\lambda u + y\sqrt{u}) - \\
& & ~ ~ ~ ~ ~-\frac{y}{\sqrt{\lambda ^{3}{\bf Var}(t)}}\sqrt{{\bf Var}(t)(\lambda u + y\sqrt{u})}) \\
& &~ ~=1 - \Phi(\frac{y}{\sqrt{\lambda ^{3}{\bf Var}(t)}}) ~.
\end{eqnarray*}
$N_{a}(u)$ ist also n"aherungsweise normalverteilt mit Mittel $u\lambda$ und Varianz $u\lambda^{3}{\bf Var}(t)$. Genauso erh"alt man f"ur die Anzahl $N_{b}(u)$
der
Kunden, die w"ahrend der Zeit $u$ bedient werden (wenn die Schlange nicht leer ist) eine n"aherungsweise Normalverteilung mit Mittel $\mu u$ und Varianz
$\mu^{3}u{\bf Var}(x)$. Wir nehmen jetzt an, da"s diese Werte durch kontinuierliche Beitr"age zustande kommen, d.h. die 'Anzahl' der Ank"unfte (bzw.
Bedienvorg"ange)
in der kurzen Zeit $\Delta u$ soll normalverteilt mit Mittel $\lambda\Delta u$ (bzw. $\mu\Delta u$) und Varianz $\lambda^{3}\Delta u{\bf Var}(t)$ (bzw.
$\mu^{3}\Delta
u{\bf Var}(x)$) sein. Die Anzahl der Ank"unfte bzw. Bedienvorg"ange "uber disjunkten Intervallen sollen nat"urlich unabh"angig sein. Die "Anderung der Anzahl der
Kunden
im System w"ahrend der Zeit $\Delta u$ ist dann normalverteilt mit Mittel $\Delta u(\lambda - \mu)$ und Varianz $\Delta u\sigma^{2}$ mit $\sigma^{2} =
\lambda^{3}{\bf Var}(t) + \mu^{3}{\bf Var}(x)$.\\
(Die letzte Beziehung gilt nat"urlich nur, wenn die Anzahl der Kunden im System $> 0$ ist).
Es sei nun
\[F(x,u) = \PP(N(u) \leq x) ~.\]
Wir stellen eine Gleichung f"ur $F(x,u+\Delta u)$ auf, dabei sei $X(\Delta u)$ die "Anderung der Kunden w"ahrend $\Delta u$:
\begin{eqnarray*}
F(x,u+\Delta u)&=&\PP(N(u+\Delta u) \leq x) = \\
&=&\PP(N(u)+X(\Delta u) \leq x) = \\
&=&\PP(N(u) \leq x - X(\Delta u)) = \\
&=&\E(F(x-X(\Delta u),u)) = \\
&=&\E(F(x,u)-F_{x}(x,u)X(\Delta u) + \\
& &+ \frac{1}{2}F_{xx}(x,u)X(\Delta u)^{2} + o(\Delta u)) = \\
&=&F(x,u)-F_{x}(x,u)\E(X(\Delta u)) + \\
& &+\frac{1}{2}F_{xx}(x,u)(\E(X(\Delta u)^{2})) + o(\Delta u) = \\
&=&F(x,u)-F_{x}(x,u)\Delta u(\lambda-\mu) + \\
& &+\frac{1}{2}F_{xx}(x,u)\sigma^{2}\Delta u + o(\Delta u) ~.
\end{eqnarray*}
Wenn man $F(x,u)$ nach links bringt, durch $\Delta u$ dividiert, und $\Delta u \rightarrow 0$ gehen l"a"st, ergibt sich
\begin{eqnarray*}
F_{u}(x,u)&=&(\mu - \lambda)F_{x}(x,u) + \frac{1}{2}\sigma^{2}F_{xx}(x,u) \qquad (x \geq 0) \\
& & \\
F(x,0)&=&1 \qquad (x \geq 0) \\
F(x,0)&=&0 \qquad (x < 0) \\
F(0,u)&=&0 \qquad (u > 0) ~.
\end{eqnarray*}
Die Anfangsbedingung ergibt sich aus der Forderung, da"s das System zur Zeit $0$ leer sein soll, und die Randbedingung daraus, da"s die Anzahl der Kunden nicht
negativ sein darf.
Man kann sehr leicht die L"osung der Gleichung ohne Randbedingung finden, indem man die Laplace-Transformation anwendet:
\[G(z,u)=\int_{-\infty}^{\infty} e^{-xz}F(x,u)dx ~.\]
Wir erhalten nach einigen partiellen Integrationen:
\[G_{u}(z,u) = (\mu-\lambda)zG(z,u)+\frac{1}{2}\lambda^{2}z^{2}G(z,u) ~, \]
also
\[ G(z,u) = G(z,0)e^{\frac{1}{2}\sigma^{2}z^{2}+(\mu - \lambda)z} \]
und, da $G(z,0)=\frac{1}{z}$
\[G(z,u) = \frac{1}{z}e^{\frac{1}{2}\sigma^{2}uz^{2}+(\mu - \lambda)zu} ~.\]
Die Inversion der Laplace-Transformation liefert
\[F(x,u)=\Phi\left(\frac{x+(\mu - \lambda)u}{\sqrt{\sigma^{2}u}}\right) ~. \]
Um die Gleichung mit der Randbedingung zu l"osen, suchen wir zuerst die station"are Verteilung. Diese ergibt sich aus der obigen Gleichung, wenn $F(x,u)$ nicht
von $u$ abh"angt. Dann ist nat"urlich die Ableitung nach $u = 0$, und wir erhalten:
\[ F'_{0}(x)(\mu - \lambda)+\frac{1}{2}\sigma^{2}F''(x)=0 ~. \]
Diese Gleichung hat die allgemeine L"osung
\[F(x) = C_{1}+C_{2}e^{\frac{2(\lambda - \mu)}{\sigma^{2}}x} ~. \]
Da $F(0) = 0$ und $F(\infty) = 1$ sein soll, erhalten wir
\[F(x) = 1-e^{\frac{2(\lambda - \mu)}{\sigma^{2}}x} ~. \]
Es ergibt sich also wieder eine Exponentialverteilung f"ur die Wartezeit. F"ur $\rho \rightarrow 1$ stimmt diese Verteilung in erster N"aherung mit der aus
Abschnitt $3.$ "uberein. Mit etwas mehr Arbeit kann man die folgende L"osung der partiellen Differentialgleichung erhalten:
\[F(x,u)=\Phi\left(\frac{x+u(\mu - \lambda)}{\sqrt{\sigma^{2}u}}\right)-e^{\frac{2(\mu - \lambda)}{\sigma^{2}}x}\Phi\left(\frac{-x+u(\mu -
\lambda)}{\sigma^{2}}\right) ~.\]
\end {enumerate}
%------------------------------------------------------------------------------------
\chapter{Time-Sharing}
%------------------------------------------------------------------------------------
Wir wollen jetzt unsere Kenntnisse auf eine Analyse von Fragen anwenden, die bei Time-sharing Anwendungen auftreten. \\
Wir betrachten den einfachsten Fall, da"s nur eine CPU vorhanden ist, die 'gleichzeitig' mehrere Programme bearbeiten mu"s.
Dazu wird jeweils eines der wartenden Programme ausgew"ahlt, in den Hauptspeicher geladen, eine kurze Zeit (die sog. \index{Zeitscheibe}'Zeitscheibe') gerechnet,
aus dem
Hauptspeicher entfernt, und das Spiel mit dem n"achsten Programm fortgesetzt. Jedes Programm braucht eine bestimmte \index{Rechenzeit}Rechenzeit $x$, und sobald
diese Zeit (in
Form von einzelnen Zeitscheiben) abgearbeitet ist, verl"a"st das Programm das System. Da wir keine a-priori Information "uber die Rechenzeit eines Programmes
voraussetzen, k"onnen wir die Jobs nur aufgrund der schon verbrauchten Rechenzeit klassifizieren, und die Auswahl des n"achsten Programms nach dieser verbrauchten
Rechenzeit treffen. Dabei k"onnen wir verschiedene Ziele verfolgen:
\begin{enumerate}
\begin{enumerate}
\item kurze Programme sollen m"oglichst schnell erledigt werden. Dadurch wird die Anzahl der Programme im System klein gehalten, was den Verwaltungsaufwand
reduziert; au"serdem ist es psychologisch ung"unstig, wenn ein Kunde auf ein 2-Sekunden-Programm eine Stunde warten mu"s.
\item eine m"oglichst 'gerechte' Verteilung w"are eine, bei der die Zeit, die ein Job im System verbringt, proportional zur Rechenzeit ist; nur dann ist es nicht
m"oglich, durch Aufteilen eines langen Programmes in mehrere k"urzere bzw. durch Zusammenfassen mehrere k"urzere Programme einen Zeitgewinn zu erzielen.
\end{enumerate}
\end{enumerate}
Wir machen folgende Annahmen:
\begin{enumerate}
\item Die Ank"unfte erfolgen nach einem Poissonproze"s mit Rate $\lambda$, die Rechenzeiten sind unabh"angig mit Verteilungsfunktion $B$ (wir haben also eine
$M/G/1$-Situation) mit Dichte $b$.
\item Die Zeitscheibe nehmen wir als infinitesimal an; weiters nehmen wir an, da"s wir die Zeit zum Austauschen vernachl"assigen k"onnen.
\item Wir betrachten nur die station"aren Verteilungen.
\end{enumerate}
$N(u)$ sei die mittlere Anzahl von Jobs, deren verbrauchte Rechenzeit $\leq u$ ist. Dazu m"oge eine Dichte $n(u)$ existieren, soda"s
\[N(u)=\int_{0}^{u}n(s)ds \]
ist.
$T(u)$ sei die Zeit, die im Durchschnitt vergeht, bis ein Job $u$ Sekunden Rechenzeit bekommt. \\
$W(u)$ sei die Wartezeit eines Jobs mit $u$ Sekunden Rechenzeit, also
\[W(u) = T(u) - u ~. \]
Wir betrachten die Jobs, die schon zwischen $u$ und $u+\Delta u$ Sekunden gerechnet haben, als eine eigene Warteschlange. Hier kommen alle Jobs durch, deren
Rechenzeit $\geq u$ ist. Die Ankunftsrate in dieser Schlange ist also $\lambda(1-B(u))$.\\
Die mittlere Aufenthaltsdauer ist $T(u+\Delta u) - T(u)$, und die mittlere Anzahl von Jobs in dieser Schlange ist $\approx n(u)\Delta u$. \\
Mithilfe des Satzes von Little ergibt sich die Beziehung
\[n(u)=\lambda (1-B(u))\frac{dT(u)}{du} ~. \]
Wir betrachten die folgende Strategien:
\begin{enumerate}
\item {\bf FCFS} ('Batch')
\item {\bf LCFS} (pr"a-emptiv): ein Job, der das System betritt, wird sofort bearbeitet (ein eventuell laufender Job wird dazu unterbrochen); wenn ein Job fertig
ist, wird der zuletzt unterbrochene weiterbearbeitet.
\item {\bf \index{Round Robin}Round Robin (RR)}: alle Jobs, die im System sind, werden der Reihe nach bearbeitet (abwechselnd).
\item Es wird jeweils der Job bearbeitet, der am wenigsten Rechenzeit verbraucht hat.
\end{enumerate}
Es sollte Strategie 4 kurze Jobs am meisten bevorzugen, 1 am wenigsten, 2 und 3 sollten dazwischen liegen.
\begin{enumerate}
\item Kennen wir von fr"uher; hier ist die Wartezeit $W(u)$ konstant, und zwar ist
\[W(u) = \frac{\lambda \E(x^{2})}{2(1-\rho)} \]
und
\[T(u) = u + \frac{\lambda \E(x^{2})}{2(1-\rho)} ~. \]
\item Hier ist $T(u)$ leicht zu bestimmen. Denn $T(u)$ ist gleich der Rechenzeit $u$ plus der Summe der Rechenzeiten aller Programme, die w"ahrend $T(u)$
ankommen.
W"ahrend $T(u)$ kommen $\lambda T(u)$ Programme an, jedes bringt im Schnitt $\E(x)$ Sekunden Rechenzeit mit, also gilt
\[T(u) = u + \lambda T(u)\E(x)=u + \rho T(u) ~,\]
also
\[T(u)=\frac{u}{1-\rho} ~. \]
Wir haben also ein 'gerechtes' Verfahren gefunden.
\item Wenn sich $N$ Programme im System befinden, bekommt ein bestimmtes Programm $\frac{1}{N}$ der gesamten Rechenzeit. \\
Daher ist $dT(u) = Ndu$. Da nur gerechnet wird, wenn das System nicht leer ist, ergibt sich:
\[ T(u)=u\E(N \mid N \not= 0)=Cu, \]
also wieder ein 'gerechtes' System. Um $C$ zu bestimmen, betrachten wir den Fall $u \rightarrow \infty$. Wenn $u$ gro"s ist, werden die meisten Jobs, die w"ahrend
$T(u)$ ankommen, auch noch w"ahrend $T(u)$ das System verlassen. F"ur gro"ses $u$ ist also das Verhalten "ahnlich wie im vorigen Fall, und wir erhalten wieder
\[T(u)=\frac{u}{1-\rho} ~. \]
\item Wenn wir ein Programm betrachten, das genau $u$ Sekunden Rechenzeit ben"otigt, dann sehen wir, da"s f"ur $T(u)$ von der Rechenzeit aller anderen Programme
nur der Teil von Bedeutung ist, der kleiner als $u$ ist. Aus der Sicht dieses Programmes k"onnen wir also $x$ durch $(x \land u)$ ersetzen, und die
Verteilungsfunktion $B$ durch:
\[
B_{u}(y) = \left\{
\begin{array}{lc}
B(y) & y<u \\
1 & y \geq u
\end{array} \right. ~.
\]
$W(u)$ setzt sich jetzt zusammen aus der restlichen Rechenzeit aller Programme, die vor unserem Programm angekommen sind, plus der Summe der Rechenzeiten von
allen Programmen, die w"ahrend $T(u)$ ankommen. Der erste Teil ist im Mittel gleich der Wartezeit in $M_{\lambda}/B_{u}/1$, also gleich
\[W_{u}=\frac{\lambda \E((x \land u)^{2})}{2(1-\rho _{u})} \]
mit
\[\rho _{u}=\lambda \E(x \wedge u) ~.\]
F"ur den zweiten Teil ergibt sich
\[\lambda T(u)\E(x \wedge u) = T(u)\rho _{u} ~.\]
Wir bekommen die Gleichung
\[T(u)=u+W_{u}+\rho _{u}T(u) ~, \]
also
\[T(u)=\frac{u+W_{u}}{1-\rho_{u}} ~. \]
F"ur $u \rightarrow 0$ ergibt sich
\[T(u) \approx u ~, \]
f"ur $u \rightarrow \infty$
\[T(u) \approx \frac{u}{1-\rho} ~. \]
\end{enumerate}
%-------------------------------------------------------------------------------------------
\chapter{Priorit"aten}
%----------------------------------------------------------------------------------------------
Wir betrachten den Fall, da"s es mehrere \index{Klassen}Klassen von Kunden gibt, die von unserem System unterschiedlich behandelt werden. Genauer gesagt soll es
$p > 0$ Klassen
von Kunden geben. Die Kunden aus Klasse $i$ kommen nach einem Poissonproze"s mit Rate $\lambda_{i}$ an und ben"otigen eine Bedienzeit mit Verteilungsfunktion
$B_{i}$ (wir betrachten also wieder eine $M/G/1$-Situation). Weiters sei
\begin{eqnarray*}
\lambda &=& \sum_{i=1}^{p}\lambda _{i} \\
B(y) &=& \frac{1}{\lambda}\sum_{i=1}^{p}\lambda _{i}B_{i}(y) \\
\rho _{i} &=& \lambda _{i}\int ydB_{i}(y) \\
\rho &=& \lambda \int ydB(y) ~.
\end{eqnarray*}
Es gibt jetzt eine ganze Reihe von M"oglichkeiten, Disziplinen zu definieren, die eine Klasse gegeb"uber anderen bevorzugen. Wir sprechen von unterschiedlichen
{\bf \index{Priorit\"{a}ten}Priorit"aten}.
Die Disziplinen, die wir untersuchen, sollen folgende Eigenschaften haben:
\begin{enumerate}
\item {\bf Nicht-pr"a-emptiv}: Ein einmal begonnener Bedienvorgang wird ohne Unterbrechung zu Ende gef"uhrt.
\item {\bf Arbeitserhaltend}: Niemand, der wartet, wird weggeschickt, ohne bedient zu worden zu sein.
\end{enumerate}
Weiters soll immer, wenn das System nicht leer ist, bedient werden.
%-------------------------------
\section{Ein Erhaltungssatz}
%------------------------------
$U_{t}$ sei die unverrichtete Zeit im System, d.h. die Zeit, die ben"otigt wird, um alle anwesenden Kunden fertig zu bedienen. Offensichtlich ist die Verteilung
von $U_{t}$ unabh"angig von der Disziplin: \\
$U_{t}$ w"achst mit jeder Ankunft eines Kunden um seine Bedienzeit an, und f"allt pro Sekunde um $1$ Sekunde, solange $U_{t}>0$ ist. Die station"are Verteilung
von $U_{t}$ entspricht der Verteilung der Wartezeit eines zuf"allig ankommenden Kunden bei der FCFS-Disziplin. \\
Insbesondere ist
\[\E(U) = \frac{\lambda \E(x^{2})}{2(1-\rho)} ~ \]
wobei $x$ nach der Funktion $B$ verteilt ist.
Wir berechnen jetzt $\E(U)$ auf eine andere Art. Dazu bezeichnen wir mit $W_{i}$, $i=1, \dots , p$, die mittlere Wartezeit eines Kunden mit Priorit"at $i$, und
mit
$N_{i}$ die Anzahl der Kunden aus der $i$-ten Priorit"atsgruppe in der Warteschlange.
$\E(U)$ setzt sich jetzt aus folgenden Beitr"agen zusammen:
\begin{enumerate}
\item $W_{0}$: die mittlere restliche Bedienzeit f"ur den Kunden, der gerade bedient wird.
\item Die Summe der mittleren Bedienzeiten f"ur alle Kunden, die sich in der Warteschlange befinden.
\end{enumerate}
Um $W_{0}$ zu bestimmen, stellen wir fest, da"s $W_{0}$ gleich der Zeit ist, die ein zuf"allig ankommender Kunde warten mu"s, bis der Kunde fertig ist, der gerade
bedient wird. Mit Wahrscheinlichkeit $(1-\rho)$ findet der ankommende Kunde das System leer vor. Falls der Server besetzt ist, kann man die Verteilung der
restlichen Bedienzeit folgenderma"sen bestimmen: \\
Wir betrachten eine gro"se Anzahl $n$ von unabh"angigen Variablen mit Verteilung $B$. Ihre Summe ist nach dem Gesetz der gro"sen Zahlen $\approx n\E(x)$. Wenn wir
in dem Intervall der L"ange $n\E(x)$ einen Punkt zuf"allig w"ahlen, ist die Chance, da"s wir bis zum Ende des Teilintervalls, in das der zuf"allig gew"ahlte Punkt
f"allt, einen Abstand zwischen $u$ und $u+\Delta u$ haben, gleich $\frac{\Delta u}{n\E(x)}$ mal der Anzahl der Intervalle mit L"ange $> u$, also
\[ \approx \frac{\Delta u}{n\E(x)}n(1-B(u)) ~. \]
F"ur $n \rightarrow \infty$ ergibt sich f"ur die Verteilung der restlichen Wartezeit die Dichte
\[f(u)=\frac{1-B(u)}{\E(x)} ~. \]
Schlie"slich ist
\[W_{0}=\rho \int_{0}^{\infty}uf(u)du = \frac{\rho \E(x^{2})}{2\E(x)}=\frac{\lambda \E(x^{2})}{2} ~. \]
Die Summe der Bedienzeiten der Kunden in der Warteschlange ergibt sich nat"urlich aus der Summe der gesamten Bedienzeiten der Kunden in den einzelnen Gruppen.
Es sind im Schnitt $N_{i}$ Kunden aus der $i$-ten Gruppe anwesend. F"ur jeden wird im Schnitt eine Bedienzeit $\E(x_{i})$ ($x_{i}$ soll eine $ZV$ mit Verteilung
$B_{i}$ sein) ben"otigt. \\
Damit gilt
\[\E(U)=W_{0}+\sum_{i=1}^{p}\E(x_{i})N_{i}=\frac{W_{0}}{1-\rho} ~. \]
Nach Little gilt $N_{i}=\lambda_{i}W_{i}$, also schlie"slich
\[ \sum_{i=1}^{p}\rho_{i}W_{i}=\frac{\rho W_{0}}{1-\rho}=\frac{\lambda \rho \E(x^{2})}{2(1-\rho)} ~.\]
Dieses Ergebnis zeigt, da"s wir eine Gruppe nur bevorzugen k"onnen, indem eine andere Gruppe gr"o"sere Wartezeiten in Kauf nehmen mu"s.
%----------------------------------------------------
\section{Eine Methode zur Bestimmung der Wartezeit}
%----------------------------------------------------
Wir betrachten einen Kunden aus der Gruppe $i$, der das System betritt: \\
$N_{ij} \dots$ mittlere Anzahl der Kunden aus Gruppe $j$, die unser Kunde im System antrifft, und die vor ihm bedient werden (ausgenommen der Kunde, der eventuell
gerade bedient werden, wenn unser Kunde ankommt). \\
$M_{ij} \dots$ mittlere Anzahl der Kunden aus Gruppe $j$, die w"ahrend der Wartezeit unseres Kunden ankommen und vor ihm bedient werden. \\
Damit gilt
\[W_{i}=W_{0}+\sum_{j=1}^{p}(N_{ij}+M_{ij})\E(x_{j}) ~. \]
Wir verwenden diesen Zugang f"ur die einfachste Disziplin: \\
Jeder Kunde aus Gruppe $i$ wird vor allen Kunden aus Gruppe $i-1$ bedient, und innerhalb einer Gruppe wird nach $FCFS$ gearbeitet. \\
Dann ist
\begin{eqnarray*}
N_{ij}&=&0 \qquad j<i \\
M_{ij}&=&0 \qquad j \leq i ~.
\end{eqnarray*}
F"ur $j \geq i$ ist
\[N_{ij}=N_{j}=\lambda _{j}W_{j} ~. \]
F"ur $j>i$ ist $M_{ij}$ die Anzahl der Kunden aus Gruppe $j$, die im Mittel w"ahrend $W_{i} = \lambda _{j}W_{i}$ ankommen.
Wir erhalten
\begin{eqnarray*}
W_{i}&=&W_{0}+\sum_{j=i}^{p}\rho _{j}W_{j}+\sum_{j=i+1}^{p}\rho_{j}W_{i} = \\
&=&W_{0} + W_{i}\sum_{j=i}^{p}\rho_{j} + \sum_{j=i+1}^{p}\rho_{j}W_{j}
\end{eqnarray*}
oder
\[W_{i}(1-\sum_{j=i}^{p}\rho_{j})=W_{0}+\sum_{j=i+1}^{p}\rho_{j}W_{j} ~. \]
Wir schreiben
\[\sigma_{j} = \sum_{j=i}^{p}\rho_{j} \]
und erhalten
\[W_{i-1}(1-\sigma_{i-1})=W_{i}(1-\sigma_{i})+\rho_{i}W_{i}=W_{i}(1-\sigma_{i+1}) ~, \]
und schlie"slich
\[W_{i}=\frac{W_{0}}{(1-\sigma_{i})(1-\sigma_{i+1})} ~. \]
%----------------------------------------------------------------------------
\begin{appendix}
\chapter{Transformationen}
%----------------------------------------------------------------------------
F"ur unsere Untersuchungen ben"otigen wir die folgenden Transformationen:
\begin{enumerate}
\item Die erzeugende Funktion oder \index{erzeugende Funktion}$z$ - Transformierte: Falls $p_{n}$, $n
\geq 0$ eine diskrete Verteilung ist, nennen wir
\begin{displaymath}
P^{*}(z) = \sum_{}^{} p_{n} z^{n}
\end{displaymath}
die erzeugende Funktion von $(p_{n})$. Falls $X$ die Verteilung $(p_{n})$
hat, so gilt
\begin{displaymath}
P^{*}(z) = \E (z^{X}) ~.
\end{displaymath}
$P^{*}(z)$ existiert jedenfalls f"ur $|z|<1$. Bekanntlich kann man aus
$P^{*}$ eindeutig $(p_{n})$ bestimmen:
\begin{displaymath}
p_{n} = \frac{1}{n!} P^{*^{n}} (0) ~.
\end{displaymath}
\item Die Laplace - Transformierte: Falls $f(x)$, $x \geq 0$ eine
Dichtefunktion ist, d.h.
\begin{displaymath}
f \geq 0 \qquad \mbox{und} \qquad \int_{0}^{\infty} f(x)dx = 1 ~,
\end{displaymath}
hei\3t
\begin{displaymath}
\hat F(t) = \int_{0}^{\infty} e^{-xt} f(x)dx
\end{displaymath}
die \index{Laplace - Transformierte}Laplace - Transformierte von $f$. Dieses Integral ist f"ur $t \geq 0$
endlich, und es gibt auch hier eine eindeutige Beziehung zwischen $\hat F$
und $f$. Falls $X$ mit der Dichte $f$ verteilt ist, ist
\begin{displaymath}
\hat F(t) = \E (e^{-Xt}) ~.
\end{displaymath}
Diese Beziehung kann man auch verwenden, um die Laplace - Transformierte
f"ur nicht stetige Verteilungen zu definieren.
\end{enumerate}
Es bestehen folgende Eigenschaften der Transformationen:
\begin{enumerate}
\item $P^{*}(z)$ ist regul"ar f"ur $|z| \leq 1$.
\item $ \hat F(z)$ ist regul"ar f"ur $ \Re (z) \geq 0$. Falls $X$ eine
Verteilung $(p_{n})$ hat, ist
\begin{displaymath}
\E(X) = (P^{*})^{'}(1) ~.
\end{displaymath}
Falls $X$ Dichte $f$ hat, ist
\begin{displaymath}
\E(X) = -\hat F^{'}(0) ~.
\end{displaymath}
\item Falls $X$, $T$ unabh"angig sind, ist die Transformierte der Summe
das Produkt der Transformierten.
\item Weiters sei $N_{t}$ ein \index{Poissonproze\3}Poissonproze\3 (d.h. eine Folge von
Ereignissen, wobei die Zeit zwischen zwei Ereignissen nach $M_{\lambda}$
verteilt ist. $N_{t}$ ist die Anzahl dieser Ereignisse im Intervall
$[0,t])$. F"ur eine zuf"allige Zeit $T$ wollen wir die Anzahl $N_{T}$ von
Ereignissen in $[0,T]$ bestimmen. Falls $T=t$ ist, ist diese Anzahl
Poisson - verteilt mit Parameter $\lambda t$:
\begin{displaymath}
\PP (N_{T} = n | T = t) = \frac{(\lambda t)^{n}}{n!} e^{- \lambda t} ~,
\end{displaymath}
also ist
\begin{displaymath}
\PP (N_{T} = n) = \E \left[ \frac{( \lambda
T)^n}{n!} e^{- \lambda T} \right] ~.
\end{displaymath}
Die erzeugende Funktion ist
\begin{eqnarray*}
\hat \PP(z) &=& \sum_{}^{} \PP(N_{T} = n) z^{n} = \\
&=& \E \left[ \sum_{}^{} e^{-\lambda T} \frac{(\lambda z T)^{n}}{n!}
\right] = \\
&=& \E (e^{- \lambda (1-z)T}) = \\
&=& \tilde F (\lambda(1-z)) ~,
\end{eqnarray*}
falls $T$ mit Dichte $f$ verteilt ist.
\end{enumerate}
%------------------------------------------------------------------------------
\end{appendix}

View file

@ -0,0 +1,565 @@
%-----------------------------------------------------------------------------
\chapter{Einleitung}
%-----------------------------------------------------------------------------
Wir betrachten folgendes grundlegendes Modell: Kunden kommen zu
zuf"alligen Zeiten $T_{1} < T_{2} < \dots <T_{n} < \dots$ im System an,
wobei $T_{n}$
die \index{Ankunftszeit}Ankunftszeit des $n$-ten Kunden bezeichnet.
Ein oder mehrere Bediener arbeiten die Schlange ab und f"ur jeden Kunden
wird eine bestimmte \index{Bedienzeit}`Bedienzeit' ben"otigt. Es sei $x_{n}$ die Bedienzeit
des $n$-ten Kunden.
Die Reihenfolge der Bedienung der Kunden wird durch
die sogenannte \index{Disziplin}`Disziplin' der Warteschlange bestimmt.Wir nehmen meistens
FCFS (First Come First Serve) an. Andere M"oglichkeiten w"aren LCFS (Last
Come First Serve) oder `Priorit"aten'.
Folgende Annahmen werden getroffen:
\begin{enumerate}
\item Die $x_{n}$ sollen unabh"angig und identisch verteilt sein.
\item $t_{n}$ ist die $n$-te \index{Zwischenankunftszeit}Zwischenankunftszeit also $t_{n}= T_{n} -
T_{n-1}$, $T_{0}=0$ (Die Zeit zwischen der Ankunft des $n$-ten und des
$(n-1)$-ten Kunden). Die $t_{n}$ sind auch unabh"angig und identisch
verteilt.
\end{enumerate}
Wir verwenden folgende \index{Warteschlangen!Kurznotation}Kurznotation f"ur
Warteschlangen: $A/B/s$.
$A \dots$ Verteilung der Zwischenankuftszeiten $t_{n}$, wobei $a$ die Dichte
von $t_{n}$ ist. \\
$B \dots$ Verteilung der Bedienzeiten $x_{n}$ wobei $b$ die Dichte von
$x_{n}$ ist. \\
$s \dots$ Anzahl der Bediener \index{Server}(Server).
Kurznotationen f"ur Verteilungen sind: \\
$M$ $\dots$ \index{Verteilung!Exponential-}Exponentialverteilung (`memoryless'). \\
Dichtefunktion:
\begin{displaymath}
f(x) = \lambda e^{-\lambda x} \qquad x\geq 0.
\end{displaymath}
$E_{n}$ $\dots$ \index{Verteilung!Erlang-}Erlangverteilung: Die Summe von $n$ unabh"angigen
Exponentialverteilungen.\\
Dichtefunktion:
\begin{displaymath}
f(x)=\frac{\lambda^{n}x^{n-1}}{(n-1)!}e^{-\lambda x} \qquad x\geq 0.
\end{displaymath}
$H$ $\dots$ \index{Verteilung!Hyperexponentelle}Hyperexponentielle Verteilung: Die Mischung von unabh"angigen
Exponentialverteilungen. Wir haben $p_{1} \dots p_{n}$, $p_{i} \geq 0$,
und
$\sum_{i=1}^{n} p_{i} = 1$, $\lambda_{1} \dots \lambda_{n} \geq 0$. \\
Dichtefunktion:
\begin{displaymath}
f(x)=\sum_{i=1}^{n} p_{i} \lambda_{i} e^{-\lambda_{i}x}.
\end{displaymath}
$D$ $\dots$ \index{Verteilung!Deterministische}Deterministisch: Ein fixer Wert wird angenommen. \\
$G$ $\dots$ \index{Verteilung!Allgemeine}`General': Allgemeine Verteilung (alles, was nicht vorher erw"ahnt
wurde).
Die Sonderstellung der Exponentialverteilung ist begr"undet durch ihre
Ged"achtnislosigkeit. Falls n"amlich etwa eine Wartezeit
exponentialverteilt ist, und wir schon t Zeiteinheiten gewartet haben, so
ist die Verteilung der restlichen Wartezeit gegeben durch
\begin{eqnarray*}
\PP(\mbox{restliche Wartezeit} \geq x \mid \mbox{schon $t$
gewartet}) = \\
= \PP(T \geq t+x \mid T \geq t) = \frac{\PP(T \geq t+x)}{\PP(T\geq t)} ~.
\end{eqnarray*}
Angenommen $T$ sei exponentialverteilt $\Rightarrow$ $\PP(T \geq t) =
e^{-\lambda t}$ $\Rightarrow$
\begin{displaymath}
\frac{\PP(T \geq t+x)}{\PP(T \geq t)} = \frac{e^{-\lambda
(t+x)}}{e^{-\lambda
t}}= e^{-\lambda x},
\end{displaymath}
also unabh"angig davon, wie lange wir schon vorher gewartet haben.
Es gibt abgeleitete Gr"o\3en, die das Verhalten der Warteschlange
beschreiben wie:
\begin{enumerate}
\item $w_{n}$ $\dots$ \index{Wartezeit}Wartezeit des $n$-ten Kunden.
\item $z_{n} = w_{n} + x_{n} \dots$ Zeit, die der $n$-te Kunde im System
verbringt.
\item $N_{t}$ $\dots$ Anzahl der Kunden, die zum Zeitpunkt $t$ im System
sind ($=$ wartende + eventuell die, die gerade bedient werden).
\end{enumerate}
Es gibt einige Fragen, die uns interessieren:
\begin{enumerate}
\item Die Verteilungen von $w_{n}$, $z_{n}$, $N_{t}$.
\item Gibt es Grenzverteilungen f"ur $n \rightarrow \infty$ bzw. $t
\rightarrow \infty$ (d.h. pendelt sich das Verhalten der Schlange auf
einen station"aren Zustand ein?) und Bestimmung der Grenzverteilungen.
\item Erwartungswerte der Grenzverteilungen in 2.
\item Absch"atzungen f"ur 3.
\end{enumerate}
Die Aufgaben sind hier in abnehmender Schwierigkeit geordnet. Leider sind
die genauen Verteilungen 1. nicht leicht zu bestimmen, also beschr"anken
wir uns meist auf 2. ; im ganz allgemeinen Fall wird es sogar notwendig
sein, nur Absch"atzungen zu betrachten.
%-----------------------------------------------------------------------------
\chapter{Erste Resultate}
\section{Eine Rekursion f"ur die Wartezeit}
%----------------------------------------------------------------------------
Wir wollen nun die Wartezeit des $(n+1)$-ten Kunden durch die des $n$-ten
Kunden ausdrucken. Dazu ist
\begin{enumerate}
\item $T_{n} \ldots $ die Ankunftszeit des $n$-ten Kunden.
\item $T_{n} + w_{n} \ldots$ die Zeit, wenn der $n$-te Kunde bedient wird.
\item $T_{n} + w_{n} + x_{n} \ldots$ die Zeit wenn der $n$-te Kunde geht.
Ab jetzt kann der $(n+1)$-te bedient werden.
\item $T_{n+1} = T_{n} + t_{n+1} \ldots$ Ankuftszeit des $(n+1)$-ten
Kunden.
\end{enumerate}
Falls $T_{n+1} < T_{n} + w_{n} + x_{n}$,
dann ist $w_{n+1} = T_{n+1} + w_{n} + x_{n} - T_{n+1} = w_{n} + x_{n} -
t_{n+1}$. Falls $T_{n+1} \geq T_{n} + w_{n} + x_{n}$ ist $w_{n+1} = 0$.
Also
\begin{displaymath}
w_{n+1}= \max (w_{n}+x_{n}-t_{n+1}, 0) =: (w_{n} + x_{n} - t_{n+1})_{+} ~.
\end{displaymath}
Sei $u_{n} = x_{n} - t_{n+1}.$ Die $u_{i}$ sind unabh"angig und
identisch verteilt.
\begin{eqnarray*}
\Rightarrow w_{n} &=& \max (w_{n-1}+ u_{n-1}, 0) = 0 \\
\Rightarrow w_{n} &=& \max (0, u_{n-1} + \max (w_{n-2} + u_{n-2}, 0)) = \\
&=& \max (0, u_{n-1}, u_{n-1} + u_{n-2} + w_{n-2}) = \dots\\
&=& \max (0, u_{n-1}, u_{n-1} + u_{n-2}, \cdots , u_{n-1} + u_{n-2} +
\cdots + u_{1}) ~.
\end{eqnarray*}
Also ist die Verteilung von $w_{n}$ dieselbe wie die von $\tilde w_{n}$ mit
\begin{displaymath}
\tilde w_{n} = \max (0, u_{1}, u_{1} + u_{2}, \cdots, u_{n-1}+ u_{n-2} +
\cdots + u_{1}) ~.
\end{displaymath}
Offensichtlich ist $\tilde w_{n}$ eine monoton nichtfallende Folge, also
existiert
\[ \tilde w = \lim_{n \rightarrow \infty} w_{n}. \]
Falls $\E u > 0$, dann geht $u_{1}+ \cdots + u_{n-1}$ $\rightarrow
\infty$, also auch $\tilde w$. Falls $\E u < 0$, dann geht $u_{1}+ \cdots
+ u_{n-1}$ $\rightarrow -\infty$, also ist f"ur $n>n_{0}$ $u_{1}+ \cdots +
u_{n-1} <0 $, was bedeutet da\3 nur die ersten Glieder in der Definition
von $\tilde w_{n}$ wichtig sind; also ist $\tilde w$ endlich. Falls $\E
u = 0$, ist k"onnen wir den einfachen Fall $D/D/1$ betrachten. In diesem
Fall ist $w_{n}=0$, also ist das Verhalten station"ar. Leider ist das der
einzige Fall; sobald $A$ oder $B$ nicht degenerierte Verteilungen haben,
kann $\tilde w_{n}$ nicht gegen eine endliche Zufallsvariable
konvergieren, weil etwa nach dem zentralen Grenzwertsatz f"ur $n$ gro\3
genug
\begin{displaymath}
\PP(\tilde w_{n} > a \sqrt{n.{\bf Var}(u)}) \geq 1- \Phi(a)- \epsilon > 0 ~.
\end{displaymath}
Somit ist f"ur jedes $n$
\begin{displaymath}
\PP(\tilde w > a \sqrt{n.{\bf Var}(u)}) \geq 1- \Phi(a)- \epsilon ~,
\end{displaymath}
also
\begin{displaymath}
\PP(\tilde w = \infty) \geq 1- \Phi(a)- \epsilon ~.
\end{displaymath}
Es bleibt uns also f"ur station"ares Verhalten (au\3er im Trivialfall \\
$D/D/1$) die Bedingung
\begin{displaymath}
\E (u) < 0 \Leftrightarrow \E (x) < \E (t) \Leftrightarrow \rho=
\frac{\E (x)}{\E (t)} < 1 ~.
\end{displaymath}
Wir bezeichnen den Kehrwert von $\E (t)$ als die \index{Ankunftsrate}`Ankunftsrate' $\lambda =
\frac{1}{\E (t)}$ und $\mu = \frac{1}{\E (x)}$ als die \index{Bedienrate}`Bedienrate'. Es
sind dies die Anzahl von Kunden, die in einem langen Zeitraum
durchschnittlich pro Zeiteinheit ankommen bzw. bedient werden, falls
ununterbrochen
bedient wird. Mit diesen Bezeichnungen ist $\rho = \frac{\lambda}{\mu}$ \index{Auslastung}(Auslastung)
und die Bedingung f"ur station"ares Verhalten wird zu $ \lambda < \mu$ bzw.\
$\rho<1$.
%--------------------------------------------------------------------------
\section{Der Satz von Little}
%---------------------------------------------------------------------------
Wir nehmen jetzt an, da\3 in unserer Schlange station"ares Verhalten
herrscht; wir wollen eine Beziehung zwischen der Ankuftsrate, der mittleren
Anzahl der Kunden im System und der mittleren Aufenthaltsdauer finden.
Dazu nehmen wir an, da\3 wir jeden Kunden f"ur die Zeit, die er im System
verbringt, bezahlen m"ussen. Die Summe, die insgesamt zu bezahlen ist,
berechnet sich als $T \E (N)$, da zu jedem Zeitpunkt durchschnittlich $\E
(N)$
Kunden anwesend sind. Andererseits bekommt jeder Kunde durchschnittlich
$\E (z)$ bezahlt. In der Zeit $T$ kommen $\lambda T$ Kunden an, also ist
die
zu bezahlende Summe auch gleich $\lambda T \E (z)$.
Beide Gleichungen sind nicht vollst"andig exakt, weil in beiden F"allen
noch zuf"allige Schwankungen dazukommen, und weil bei der zweiten
Gleichung auch nicht ber"ucksichtigt wurde, da\3 einige Kunden noch nach
$T$ bleiben. Diese Fehler sind aber von kleineren Ordnung als $T$. Wir
haben also
\begin{displaymath}
T \E (N) = \lambda T \E (z) + o(T) ~.
\end{displaymath}
Dividieren wir durch $T$ und $T \rightarrow \infty$ gibt
\begin{displaymath}
\E (N) = \lambda \E (z) ~,
\end{displaymath}
d.h. Mittlere Anzahl = Ankuftsrate $*$ Mittlere Aufenthaltsdauer. Wendet
man dieses Ergebnis auf den Server allein an, ergibt sich, da\3 die
Mittlere Anzahl der Kunden, die gerade bedient werden =
\begin{displaymath}
\lambda \E (x) = \frac{\lambda}{\mu} = \rho ~.
\end{displaymath}
Da aber h"ochstens 1 Kunde bedient wird, ist das gleich der
Wahrscheinlichkeit, da\3 der Server besetzt ist, oder der Auslastung des
Servers.
%---------------------------------------------------------------------------
\chapter{Warteschlangensysteme}
\section{Die Schlange $M/M/1$}
%---------------------------------------------------------------------------
Im Folgenden gehen wir von der `FCFS'-Disziplin aus.
Um die zuk"unftige Entwicklung einer Warteschlange bestimmen zu k"onnen,
ben"otigen wir 3 Angaben zur Zeit $t$.
\begin{enumerate}
\item Die Anzahl $N_{t}$ der anwesenden Kunden.
\item Die Zeit, die seit der letzten Ankunft vergangen ist.
\item Die Zeit, die seit dem Beginn des letzten Bedienvorgangs vergangen
ist (falls dieser noch andauert).
\end{enumerate}
Die letzten beiden Angaben sind notwendig, damit wir die Verteilung der
verbleibenden Zeit bis zur n"achsten Ankunft bzw. bis zum Ende des
Bedienvorganges bestimmen k"onnen. F"ur den Fall $M/M/1$ sind diese
Angaben nicht notwendig, weil diese Verteilungen wegen der
Ged"achtnislosigkeit der Exponentialverteilung nicht von der schon
verstrichenen Zeit abh"angen. Deshalb gen"ugt uns $N_{t}$ zur Beschreibung
des Systems.
Wir betrachten jetzt die Anzahl der Kunden zur Zeit $t+ \Delta t$, wenn
die Anzahl zur Zeit t bekannt ist. Die Anzahl kann sich in folgender Weise
"andern:
\begin{enumerate}
\item Es kann gar nichts geschehen.
\item Es kann genau ein Kunde aufkommen.
\item Es kann genau ein Kunde fertig werden.
\item Es kann mehr als ein Ereignis (Ankunft, gehen) auftreten.
\end{enumerate}
Die Wahrscheinlichkeit, da\3 mindestens ein Kunde im Intervall $(t, t+ \Delta t)$
ankommt, ist $1-e^{-\lambda \Delta t} = \lambda \Delta t + o (\Delta t)$.
Ebenso ist die Wahrscheinlichkeit, da\3 ein Kunde fertig wird $\mu \Delta
t + o(\Delta t)$. Die Wahrscheinlichkeit f"ur 4. ist, wie man leicht
einsieht, $o(\Delta t)$. Das gibt f"ur 1. die Wahrscheinlichkeit $1 -
(\lambda + \mu) \Delta t + o(\Delta t)$. Falls die Schlange leer ist,
fallen nat"urlich die Summanden mit $\mu$ weg (es kann ja niemand gehen).
Somit gilt f"ur
\begin{eqnarray*}
p_{n}(t) &=& \PP (N_{t} = n) \\
p_{n}(t+ \Delta t) &=& \mu \Delta t . p_{n+1}(t) + (1 - (\lambda +
\mu) \Delta t) p_{n}(t) + \\
& &+ \lambda \Delta t p_{n-1}(t) + o(\Delta t)
\qquad [n \geq 1] \\
p_{0}(t + \Delta t) &=& \mu \Delta t . p_{1}(t) + (1 - \lambda \Delta t)
p_{0}(t) + o(\Delta t) ~.
\end{eqnarray*}
Wenn man $p_{n}(t)$ auf die linke Seite bringt und durch $\Delta t$
dividiert und $\Delta t \rightarrow 0$ l"a\3t, ergibt sich
\begin{eqnarray*}
p'_{n}(t) &=& \mu p_{n+1}(t)-(\lambda + \mu) p_{n}(t)+ \lambda p_{n-1}(t)
\\
p'_{0}(t) &=& \mu p_{1}(t)- \lambda p_{0}(t) ~.
\end{eqnarray*}
Diese Gleichungen lassen sich etwa mit Hilfe von Transformationen l"osen,
aber das Ergebnis ist nicht besonders sch"on. Wir beschr"anken uns daher
jetzt und in der Folge auf die Bestimmung der station"aren L"osung. Diese
ist nat"urlich dadurch gekennzeichnet, da\3 $p_{n}(t)$ nicht von der Zeit
$t$ abh"angt, also $p'_{n}(t)=0$. Das ergibt die Gleichungen
\begin{eqnarray*}
\mu p_{n+1}-(\lambda +\mu) p_{n} + \lambda p_{n-1} &=& 0 \\
\mu p_{1} - \lambda p_{0} &=& 0 ~.
\end{eqnarray*}
Durch Induktion erhalten wir daraus
\begin{displaymath}
\mu p_{n+1} - \lambda p_{n} = 0 ~,
\end{displaymath}
oder
\begin{displaymath}
p_{n+1} = \frac{\lambda}{\mu} p_{n} = \rho p_{n} ~.
\end{displaymath}
Also ist
\begin{displaymath}
p_{n} = \rho^{n}p_{0}
\end{displaymath}
und wegen $\sum_{n=0}^{\infty} p_{n} = 1$
\begin{displaymath}
p_{0} = 1- \rho
\end{displaymath}
und
\begin{displaymath}
p_{n} = \rho^{n} (1- \rho) ~.
\end{displaymath}
Die Anzahl der Kunden im System ist also geometrisch verteilt. Aus dieser
Verteilung k"onnen wir jetzt die Verteilungen von $w$ und $z$ bestimmen.
Die Zeit im System $z$, falls bei der Ankunft $n$ Personen anwesend sind,
ist die Summe von $(n+1)$ exponentialverteilten Zufallsvariablen (die
Bedienzeiten der $n$ anwesenden + die der neu hinzugekommenen), hat also
die Dichte
\begin{displaymath}
f_{z}(u|N_{t}=n) = \frac{u^{n}}{n!} \mu^{n+1} e^{- \mu u} \qquad [u>0] ~.
\end{displaymath}
Die unbedingte Dichte ergibt sich also zu
\begin{eqnarray*}
f_{z}(u) &=& \sum_{n}^{} \PP(N_{t}=n).f_{z}(u|N_{t}=n) = \\
&=& \sum_{n}^{} (1- \rho) \rho^{n}. \frac{u^{n}}{n!} \mu^{n+1} e^{- \mu
u} = \\
&=& (1- \rho) e^{- \mu(1- \rho)u} \qquad [u>0] ~.
\end{eqnarray*}
$z$ ist also exponentialverteilt mit Parameter
\begin{displaymath}
\mu (1- \rho) = \mu - \lambda ~.
\end{displaymath}
Die Verteilung von $w$ ist gemischt: $\PP (w=0) = 1- \rho$, und die
bedingte Verteilung von $w$ unter der Bedingung $[w>0]$ ist wieder eine
Exponentialverteilung mit Parameter $\mu - \lambda$.
%----------------------------------------------------------------------------
\section{Das System $M/G/1$}
%------------------------------------------------------------------------------
Jetzt ben"otigen wir zus"atzlich zu $N_{t}$ die Information "uber die
schon verbrauchte Bedienzeit. Die einfachste Methode besteht darin, das
System nur in solchen Zeitpunkten zu betrachten, an denen die verbrauchte
Bedienzeit bekannt ist (und zwar = 0), n"amlich die Zeitpunkte $T_{n}$, in
denen der n-te Kunde das System verl"a\3t. Es sei $N_{n}$ die Anzahl der
Kunden, die dann im System verbleiben. Es gilt: Falls $N_{n}=0$, so mu\3
zuerst gewartet werden, bis ein neuer Kunde ankommt; wenn dieser Kunde
geht, sind noch genau die Kunden da, die w"ahrend seiner Bedienzeit
angekommen sind; bezeichnet man $M_{n}$ als die Anzahl der Kunden, die
w"ahrend der Bedienzeit des $n$-ten Kunden ankommen, so gilt
\begin{displaymath}
N_{n+1} = M_{n} ~.
\end{displaymath}
Falls $N_{n} \not= 0$ ist
\begin{displaymath}
N_{n+1} = N_{n} - 1 + M_{n} ~.
\end{displaymath}
Zusammengefa\3t ergibt sich:
\begin{displaymath}
N_{n+1} = (N_{n} - 1)_{+} + M_{n} ~.
\end{displaymath}
Wir suchen eine station"are L"osung; es sei also $\PP (N_{n}=k)=p_{k}$
unabh"angig von $n$. Die erzeugende Funktion von $N_{n}$ ist
\begin{displaymath}
P^{*}(z) = \sum_{}^{}p_{k}z^{k} ~.
\end{displaymath}
Die erzeugende Funktion von $(N_{n}-1)_{+}=$
\begin{eqnarray*}
= p_{0} + \sum_{k=1}^{\infty} p_{k} z^{k-1} &=& p_{0}+ \frac{\hat P
(z) - p_{0}}{z} = \\
&=& \frac{\hat P(z) - p_{0}(1-z)}{z} ~.
\end{eqnarray*}
Mithilfe der Transformationen (Anhang A) ergibt sich die erzeugende Funktion von $M_{n}$
(die Ank"unfte bilden ja einen Poisson - Proze\3) als
\begin{displaymath}
\tilde B (\lambda(1 - z)) ~,
\end{displaymath}
wobei $B$ die Verteilung der Bedienzeit (mit Dichte $\beta$) ist. Wir
erhalten also
\begin{displaymath}
P^{*}(z) = \frac{(P^{*}(z) - p_{0}(1-z))}{z} \tilde B (\lambda(1-z)) ~,
\end{displaymath}
also
\begin{displaymath}
P^{*}(z) = \frac{p_{0}(1-z) \tilde B ( \lambda (1-z))}{ \tilde B (
\lambda(1-z)) - z} ~.
\end{displaymath}
Hier ist noch $p_{0}$ zu bestimmen, und zwar aus der Bedingung $P^{*}(1) =
1$. Es ergibt sich $p_{0} = 1 - \rho$ und
\begin{displaymath}
P^{*}(z) = \frac{(1- \rho)(1-z) \tilde B ( \lambda (1-z))}{ \tilde B (
\lambda(1-z)) - z} ~,
\end{displaymath}
eine sogenannte \index{Pollaczek - Khinchin Formel}Pollaczek - Khinchin Formel. Die Anzahl der Kunden, die der $n$-te
Kunde zur"uckl"a\3t, ist genau die Anzahl der Kunden, die ankommen
w"ahrend er im System ist (d.h. w"ahrend $z_{n}$), d.h. f"ur die
$L$-Transformierte $ \tilde Z (t)$ der Verteilung von $z$ gilt:
\begin{displaymath}
\tilde Z (\lambda(1-z)) = P^{*}(z) ~,
\end{displaymath}
also
\begin{displaymath}
\tilde Z (t) = \frac{(1- \rho)t \tilde B (t)}{t + \lambda \tilde B (t) -
\lambda} ~.
\end{displaymath}
Auch das nennt man eine Pollaczek - Khinchin Formel. F"ur die Wartezeit
gilt
(wegen $z_{n} = w_{n} + x_{n}$)
\begin{displaymath}
\tilde Z (t) = \tilde W (t) \tilde B(t) ~,
\end{displaymath}
also
\begin{displaymath}
\tilde W (t) = \frac{(1- \rho)t}{t + \lambda \tilde B (t) - \lambda} ~.
\end{displaymath}
F"ur die Erwartungswerte ergibt sich:
\begin{eqnarray*}
\E (N) &=& \rho + \frac{\lambda^{2} \E x^{2}}{2(1- \rho)} \\
\E (Z) &=& \frac{1}{\mu} + \frac{\lambda \E x^{2}}{2(1 - \rho)} \\
\E (W) &=& \frac{\lambda \E x^{2}}{2(1 - \rho)} ~.
\end{eqnarray*}
%------------------------------------------------------------------------------
\section{Das System $G/M/1$}
%------------------------------------------------------------------------------
Jetzt betrachten wir analog zum vorigen Kapitel das System zu den Zeiten
$T_{n}$, wo der $n$-te Kunde ankommt. $N_{n}$ sei die Anzahl der
anwesenden Kunden, die der $n$-te Kunde vorfindet.
\begin{displaymath}
N_{n+1} = N_{n}+1-\mbox{Anzahl der Kunden, die w"ahrend $t_{n+1}$ gehen.}
\end{displaymath}
F"ur $n>0$ gilt, wenn wir $p_{k}= \PP (N_{n}=k)$ (station"ar!) setzen:
\begin{displaymath}
p_{k} = \sum_{j=k-1}^{\infty} p_{j} q_{j+1-k} \qquad [k \geq 1] ~,
\end{displaymath}
wobei
\begin{displaymath}
q_{s} = \PP (\mbox{ $s$ Kunden gehen w" ahrend
$t_{n+1}$)} =
\end{displaymath}
\begin{eqnarray*}
= \PP (\mbox{w"ahrend $t_{n+1}$ treten genau $s$ Ereignisse eines Poissons
-} \\
\mbox{Prozesses mit Rate $\mu$ auf)} ~. & &
\end{eqnarray*}
Die Gleichung f"ur $k=0$ ist "uberfl"ussig, da sie aus den Gleichungen
f"ur $k>0$ und der Beziehung $\sum_{}^{} p_{k}=1$ gefolgert werden kann.
Man kann zeigen, da\3 diese Gleichung eine eindeutige L"osung besitzt.
Falls nun $(p_{k})$ eine L"osung ist, ist auch
\begin{displaymath}
\tilde p_{k} = \frac{p_{k+1}}{1-p_{0}}
\end{displaymath}
eine L"osung. Es mu\3 also
\begin{displaymath}
\tilde p_{k} = p_{k} ~,
\end{displaymath}
somit
\begin{displaymath}
p_{k+1} = p_{k}(1-p_{0})
\end{displaymath}
und
\begin{displaymath}
p_{k} = p_{0}(1-p_{0})^{k} =
\sigma^{k}(1- \sigma) \qquad [ \sigma := 1 - p_{0}] ~.
\end{displaymath}
Setzt man das in die Gleichung f"ur $k=1$ ein, ergibt sich
\begin{displaymath}
\sigma = \sum_{j=0}^{\infty} \sigma^{j} q_{j} = \tilde A (\mu(1-\sigma))
~.
\end{displaymath}
Falls $\rho < 1$, gibt es genau eine L"osung $\sigma \in (0,1)$. Dann ist
$N$ geometrisch verteilt mit Parameter $\sigma$. Wie f"ur die Schlange
$M/M/1$ ergibt sich die Verteilung der Zeit $z$ im System als
Exponentialverteilt mit Parameter $\mu(1- \sigma)$; die Wartezeit $w$ hat
$\PP (w=0)= 1 - \sigma$ und die bedingte Verteilung von $w$ unter $[w>0]$
ist wieder dieselbe Exponentialverteilung wie die von $z$.
%---------------------------------------------------------------------------
\section{Das System $G/G/1$}
%---------------------------------------------------------------------------
Hier sind beide Verteilungen - die der Zwischenankunftszeiten und die der
Bedienzeiten - allgemeine Verteilungen. Der Trick der vorigen beiden
Kapitel funktioniert jetzt nicht mehr gut. Um beide Zeiten zu
kontrollieren, m"u\3ten wir das System nun zu den Zeitpunkten betrachten,
in denen ein Kunde das leere System betritt; diese Zeitpunkte sind aber zu
selten, um vern"uftig damit zu arbeiten. Statt dessen gehen wir von der
Rekursion f"ur die Wartezeiten aus:
\begin{displaymath}
w_{n+1} = (w_{n} + u_{n})_{+} ~.
\end{displaymath}
Das bedeutet f"ur die Verteilungsfunktion $W(.)$ von $w$
\begin{displaymath}
W(x) = \PP (w_{n+1} \leq x) = \left\{
\begin{array}{lc}
\PP (w_{n} + u_{n} \leq x) & x \geq 0 \\
0 & x < 0
\end{array} \right. ~.
\end{displaymath}
Die Wahrscheinlichkeit $\PP (w_{n}+ u_{n} \leq x)$ berechnet sich als
\begin{displaymath}
\PP (w_{n} + u_{n} \leq x) = \int_{- \infty}^{\infty} W(x-u) c(u) du ~,
\end{displaymath}
wobei $c(u)$ die Dichte von $u_{n} = x_{n} - t_{n+1}$ ist. Falls in der
Gleichung f"ur $W(x)$ die Fallunterscheidung nicht auftreten w"urde, w"are
sie leicht durch Transformationen zu l"osen. Wir erreichen dies durch
einen Kunstgriff: Wir setzen
\begin{displaymath}
Y(x) = \left\{
\begin{array}{lc}
\int_{- \infty}^{\infty} W(x-u)c(u) du & x< 0 \\
0 & x \geq 0
\end{array} \right. ~.
\end{displaymath}
Dann ist
\begin{displaymath}
W(x) + Y(x) = \int_{-\infty}^{\infty} W(x-u) c(u) du ~.
\end{displaymath}
Wir bezeichnen jetzt die Laplace - Transformierte von $W$ mit $\Phi (t)$,
und die von $Y$ mit $\Phi^{-}(t)$. Durch partielle Integration zeigt man,
da\3
\begin{displaymath}
\Phi (t) = \frac{1}{t} \tilde W(t)
\end{displaymath}
gilt. F"ur die Transformationen ergeben sich die Formeln
\begin{displaymath}
\Phi (t) + \Phi^{-}(t) = \Phi (t) \tilde C (t) = \Phi (t) \tilde A (-t)
\tilde B (t) ~,
\end{displaymath}
oder
\begin{displaymath}
\frac{\Phi^{-}(t)}{\Phi (t)} = \tilde A (-t) \tilde B (t) -1 ~.
\end{displaymath}
Wir nehmen an, da\3 $\tilde A(t)$ f"ur $t \geq -D$ existiert. (Das ist
gleichbedeutend damit, da\3 $\PP (t_{n} \geq x)$ wie $e^{-Dx}$ f"allt).
Dann existiert $\tilde A (-t) \tilde B (t) - 1$ f"ur $0 \leq t \leq D$;
Ferner existiert $\Phi (t)$ f"ur $t >0$ und $t \Phi (t)$ ist in $\Re (t)
\geq 0$ regul"ar und beschr"ankt; $\Phi^{-}(t)$ existiert f"ur $t \leq D$
und in $\Re (t) < D$ ist $t\Phi^{-}(t)$ regul"ar und beschr"ankt. Wir
versuchen 2 Funktionen $\Psi^{+}$ und $\Psi^{-}$ zu finden, die folgendes
erf"ullen:
\begin{enumerate}
\item $\frac{\Psi^{+}(t)}{\Psi^{-}(t)} = \tilde A(-t) \tilde B(t) -1$ ~ ~\index{Spektralzerlegung}(Spektralzerlegung).
\item $\frac{\Psi^{+}(t)}{t}$ ist f"ur $\Re(t)>0$ regul"ar und beschr"ankt
und hat dort keine Nullstellen.
\item $\frac{\Psi^{-}(t)}{t}$ ist f"ur $\Re (t) < D$ regul"ar und
beschr"ankt und hat dort keine Nullstellen.
\end{enumerate}
Dann gilt
\begin{displaymath}
\frac{\Phi^{-}(t)}{\Phi (t)} = \frac{\Psi^{+}(t)}{\Psi^{-}(t)} \qquad
0< \Re (t) < D ~,
\end{displaymath}
oder
\begin{displaymath}
\Phi^{-}(t) \Psi^{-}(t) = \Psi^{+}(t) \Phi (t) \qquad 0< \Re (t) < D ~.
\end{displaymath}
Die linke Seite ist f"ur $\Re (t) < D$ regul"ar und beschr"ankt, die
rechte Seite f"ur $\Re (t) > 0$. Es ist dadurch also eine Funktion
bestimmt, die in der ganzen Ebene regul"ar und beschr"ankt ist. Nach dem
Satz von \index{Satz!LIOUVILLE}LIOUVILLE mu\3 eine solche Funktion konstant sein. Es gilt also
\begin{displaymath}
\Phi (t) = \frac{K}{\Psi^{+}(t)} ~,
\end{displaymath}
und
\begin{displaymath}
\tilde W (t) = \frac{Kt}{\Psi^{+}(t)} ~.
\end{displaymath}
Es bleibt die Konstante $K$ zu bestimmen. Sie folgt wieder aus
\begin{displaymath}
\tilde W (0) = 1 \qquad \mbox{zu} \qquad
K = \frac{\Phi^{+}(t)}{t} \Bigg \bracevert_{t=0} = (\Phi^{+})^{'}(0) ~.
\end{displaymath}
{\bf Beispiel: $M/M/1$}
\begin{displaymath}
A = M_{\lambda}: \quad \tilde A(t) = \frac{\lambda}{\lambda + t}, \quad
B = M_{\mu}: \quad \tilde B(t) =\frac{\mu}{\mu +t}
\end{displaymath}
\begin{eqnarray*}
\frac{\Psi^{+}(t)}{\Psi^{-}(t)} &=& \tilde A(-t) \tilde B(t)-1 =
\frac{\lambda \mu}{(\lambda - t)(\mu + t)} - 1 = \\
&=& \frac{t(\mu - \lambda + t)}{(\lambda - t)(\mu + t)}. \\
\Psi^{+}(t) &=& \frac{t(\mu -\lambda + t)}{(t + \mu} \\
\Psi^{-}(t) &=& (\lambda - t) \\
\Phi (z) &=& \frac{\Psi^{+'}(0)}{\Psi^{+}(z)} =
\frac{(\mu - \lambda)(\mu +t)}{\mu t(\mu - \lambda + t)} =
\frac{1}{t} - \frac{\lambda}{\mu(\mu - \lambda + t)} \\
\Psi^{+'}(0) &=& \frac{\Psi^{+}(t)}{t} \Bigg \bracevert_{t=0} =\frac{\mu -
\lambda}{\mu} \\
F(x) &=& 1 - \rho e^{-(\mu - \lambda)x} \quad \mbox{f"ur} \quad x \geq 0
\end{eqnarray*}
also die Verteilung der Wartezeit aus dem ersten Kapitel.

View file

@ -0,0 +1,27 @@
\documentstyle[12pt,german,makeidx]{book}
\setlength{\parindent}{0mm}
\setlength{\parskip}{0.25cm}
\newcommand{\E}{{\rm I\kern-0.2em E}}
\newcommand{\PP}{{\rm I\kern-0.2em P}}
\date{Version 1.0\\October 11, 1999}
\author{Klaus Berger \\
Pantelis Christodoulides \\
Karl Grill\thanks{ copyright\copyright 1999 by Karl Grill
( grill@ci.tuwien.ac.at )
\protect\\ \LaTeX\ source erh"altlich bei:
\protect\\ http://www.ci.tuwien.ac.at/$\sim$grill
\protect\\ Unterliegt der the GNU general public license
\protect\\ Details siehe file ``copying''}}
\makeindex
\begin{document}
\title{Warteschlangentheorie}
\maketitle
\tableofcontents
\input{pantelis.tex}
\input{klaus.tex}
\printindex
\end{document}