diff --git a/documents/Warteschlangen/copying b/documents/Warteschlangen/copying new file mode 100644 index 0000000..60549be --- /dev/null +++ b/documents/Warteschlangen/copying @@ -0,0 +1,340 @@ + GNU GENERAL PUBLIC LICENSE + Version 2, June 1991 + + Copyright (C) 1989, 1991 Free Software Foundation, Inc. + 59 Temple Place, Suite 330, Boston, MA 02111-1307 USA + Everyone is permitted to copy and distribute verbatim copies + of this license document, but changing it is not allowed. + + Preamble + + The licenses for most software are designed to take away your +freedom to share and change it. By contrast, the GNU General Public +License is intended to guarantee your freedom to share and change free +software--to make sure the software is free for all its users. This +General Public License applies to most of the Free Software +Foundation's software and to any other program whose authors commit to +using it. (Some other Free Software Foundation software is covered by +the GNU Library General Public License instead.) You can apply it to +your programs, too. + + When we speak of free software, we are referring to freedom, not +price. Our General Public Licenses are designed to make sure that you +have the freedom to distribute copies of free software (and charge for +this service if you wish), that you receive source code or can get it +if you want it, that you can change the software or use pieces of it +in new free programs; and that you know you can do these things. + + To protect your rights, we need to make restrictions that forbid +anyone to deny you these rights or to ask you to surrender the rights. +These restrictions translate to certain responsibilities for you if you +distribute copies of the software, or if you modify it. + + For example, if you distribute copies of such a program, whether +gratis or for a fee, you must give the recipients all the rights that +you have. You must make sure that they, too, receive or can get the +source code. And you must show them these terms so they know their +rights. + + We protect your rights with two steps: (1) copyright the software, and +(2) offer you this license which gives you legal permission to copy, +distribute and/or modify the software. + + Also, for each author's protection and ours, we want to make certain +that everyone understands that there is no warranty for this free +software. If the software is modified by someone else and passed on, we +want its recipients to know that what they have is not the original, so +that any problems introduced by others will not reflect on the original +authors' reputations. + + Finally, any free program is threatened constantly by software +patents. We wish to avoid the danger that redistributors of a free +program will individually obtain patent licenses, in effect making the +program proprietary. To prevent this, we have made it clear that any +patent must be licensed for everyone's free use or not licensed at all. + + The precise terms and conditions for copying, distribution and +modification follow. + + GNU GENERAL PUBLIC LICENSE + TERMS AND CONDITIONS FOR COPYING, DISTRIBUTION AND MODIFICATION + + 0. This License applies to any program or other work which contains +a notice placed by the copyright holder saying it may be distributed +under the terms of this General Public License. The "Program", below, +refers to any such program or work, and a "work based on the Program" +means either the Program or any derivative work under copyright law: +that is to say, a work containing the Program or a portion of it, +either verbatim or with modifications and/or translated into another +language. (Hereinafter, translation is included without limitation in +the term "modification".) Each licensee is addressed as "you". + +Activities other than copying, distribution and modification are not +covered by this License; they are outside its scope. The act of +running the Program is not restricted, and the output from the Program +is covered only if its contents constitute a work based on the +Program (independent of having been made by running the Program). +Whether that is true depends on what the Program does. + + 1. You may copy and distribute verbatim copies of the Program's +source code as you receive it, in any medium, provided that you +conspicuously and appropriately publish on each copy an appropriate +copyright notice and disclaimer of warranty; keep intact all the +notices that refer to this License and to the absence of any warranty; +and give any other recipients of the Program a copy of this License +along with the Program. + +You may charge a fee for the physical act of transferring a copy, and +you may at your option offer warranty protection in exchange for a fee. + + 2. You may modify your copy or copies of the Program or any portion +of it, thus forming a work based on the Program, and copy and +distribute such modifications or work under the terms of Section 1 +above, provided that you also meet all of these conditions: + + a) You must cause the modified files to carry prominent notices + stating that you changed the files and the date of any change. + + b) You must cause any work that you distribute or publish, that in + whole or in part contains or is derived from the Program or any + part thereof, to be licensed as a whole at no charge to all third + parties under the terms of this License. + + c) If the modified program normally reads commands interactively + when run, you must cause it, when started running for such + interactive use in the most ordinary way, to print or display an + announcement including an appropriate copyright notice and a + notice that there is no warranty (or else, saying that you provide + a warranty) and that users may redistribute the program under + these conditions, and telling the user how to view a copy of this + License. (Exception: if the Program itself is interactive but + does not normally print such an announcement, your work based on + the Program is not required to print an announcement.) + +These requirements apply to the modified work as a whole. If +identifiable sections of that work are not derived from the Program, +and can be reasonably considered independent and separate works in +themselves, then this License, and its terms, do not apply to those +sections when you distribute them as separate works. But when you +distribute the same sections as part of a whole which is a work based +on the Program, the distribution of the whole must be on the terms of +this License, whose permissions for other licensees extend to the +entire whole, and thus to each and every part regardless of who wrote it. + +Thus, it is not the intent of this section to claim rights or contest +your rights to work written entirely by you; rather, the intent is to +exercise the right to control the distribution of derivative or +collective works based on the Program. + +In addition, mere aggregation of another work not based on the Program +with the Program (or with a work based on the Program) on a volume of +a storage or distribution medium does not bring the other work under +the scope of this License. + + 3. You may copy and distribute the Program (or a work based on it, +under Section 2) in object code or executable form under the terms of +Sections 1 and 2 above provided that you also do one of the following: + + a) Accompany it with the complete corresponding machine-readable + source code, which must be distributed under the terms of Sections + 1 and 2 above on a medium customarily used for software interchange; or, + + b) Accompany it with a written offer, valid for at least three + years, to give any third party, for a charge no more than your + cost of physically performing source distribution, a complete + machine-readable copy of the corresponding source code, to be + distributed under the terms of Sections 1 and 2 above on a medium + customarily used for software interchange; or, + + c) Accompany it with the information you received as to the offer + to distribute corresponding source code. (This alternative is + allowed only for noncommercial distribution and only if you + received the program in object code or executable form with such + an offer, in accord with Subsection b above.) + +The source code for a work means the preferred form of the work for +making modifications to it. For an executable work, complete source +code means all the source code for all modules it contains, plus any +associated interface definition files, plus the scripts used to +control compilation and installation of the executable. However, as a +special exception, the source code distributed need not include +anything that is normally distributed (in either source or binary +form) with the major components (compiler, kernel, and so on) of the +operating system on which the executable runs, unless that component +itself accompanies the executable. + +If distribution of executable or object code is made by offering +access to copy from a designated place, then offering equivalent +access to copy the source code from the same place counts as +distribution of the source code, even though third parties are not +compelled to copy the source along with the object code. + + 4. You may not copy, modify, sublicense, or distribute the Program +except as expressly provided under this License. Any attempt +otherwise to copy, modify, sublicense or distribute the Program is +void, and will automatically terminate your rights under this License. +However, parties who have received copies, or rights, from you under +this License will not have their licenses terminated so long as such +parties remain in full compliance. + + 5. You are not required to accept this License, since you have not +signed it. However, nothing else grants you permission to modify or +distribute the Program or its derivative works. These actions are +prohibited by law if you do not accept this License. Therefore, by +modifying or distributing the Program (or any work based on the +Program), you indicate your acceptance of this License to do so, and +all its terms and conditions for copying, distributing or modifying +the Program or works based on it. + + 6. Each time you redistribute the Program (or any work based on the +Program), the recipient automatically receives a license from the +original licensor to copy, distribute or modify the Program subject to +these terms and conditions. You may not impose any further +restrictions on the recipients' exercise of the rights granted herein. +You are not responsible for enforcing compliance by third parties to +this License. + + 7. If, as a consequence of a court judgment or allegation of patent +infringement or for any other reason (not limited to patent issues), +conditions are imposed on you (whether by court order, agreement or +otherwise) that contradict the conditions of this License, they do not +excuse you from the conditions of this License. If you cannot +distribute so as to satisfy simultaneously your obligations under this +License and any other pertinent obligations, then as a consequence you +may not distribute the Program at all. For example, if a patent +license would not permit royalty-free redistribution of the Program by +all those who receive copies directly or indirectly through you, then +the only way you could satisfy both it and this License would be to +refrain entirely from distribution of the Program. + +If any portion of this section is held invalid or unenforceable under +any particular circumstance, the balance of the section is intended to +apply and the section as a whole is intended to apply in other +circumstances. + +It is not the purpose of this section to induce you to infringe any +patents or other property right claims or to contest validity of any +such claims; this section has the sole purpose of protecting the +integrity of the free software distribution system, which is +implemented by public license practices. Many people have made +generous contributions to the wide range of software distributed +through that system in reliance on consistent application of that +system; it is up to the author/donor to decide if he or she is willing +to distribute software through any other system and a licensee cannot +impose that choice. + +This section is intended to make thoroughly clear what is believed to +be a consequence of the rest of this License. + + 8. If the distribution and/or use of the Program is restricted in +certain countries either by patents or by copyrighted interfaces, the +original copyright holder who places the Program under this License +may add an explicit geographical distribution limitation excluding +those countries, so that distribution is permitted only in or among +countries not thus excluded. In such case, this License incorporates +the limitation as if written in the body of this License. + + 9. The Free Software Foundation may publish revised and/or new versions +of the General Public License from time to time. Such new versions will +be similar in spirit to the present version, but may differ in detail to +address new problems or concerns. + +Each version is given a distinguishing version number. If the Program +specifies a version number of this License which applies to it and "any +later version", you have the option of following the terms and conditions +either of that version or of any later version published by the Free +Software Foundation. If the Program does not specify a version number of +this License, you may choose any version ever published by the Free Software +Foundation. + + 10. If you wish to incorporate parts of the Program into other free +programs whose distribution conditions are different, write to the author +to ask for permission. For software which is copyrighted by the Free +Software Foundation, write to the Free Software Foundation; we sometimes +make exceptions for this. Our decision will be guided by the two goals +of preserving the free status of all derivatives of our free software and +of promoting the sharing and reuse of software generally. + + NO WARRANTY + + 11. BECAUSE THE PROGRAM IS LICENSED FREE OF CHARGE, THERE IS NO WARRANTY +FOR THE PROGRAM, TO THE EXTENT PERMITTED BY APPLICABLE LAW. EXCEPT WHEN +OTHERWISE STATED IN WRITING THE COPYRIGHT HOLDERS AND/OR OTHER PARTIES +PROVIDE THE PROGRAM "AS IS" WITHOUT WARRANTY OF ANY KIND, EITHER EXPRESSED +OR IMPLIED, INCLUDING, BUT NOT LIMITED TO, THE IMPLIED WARRANTIES OF +MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE. THE ENTIRE RISK AS +TO THE QUALITY AND PERFORMANCE OF THE PROGRAM IS WITH YOU. SHOULD THE +PROGRAM PROVE DEFECTIVE, YOU ASSUME THE COST OF ALL NECESSARY SERVICING, +REPAIR OR CORRECTION. + + 12. IN NO EVENT UNLESS REQUIRED BY APPLICABLE LAW OR AGREED TO IN WRITING +WILL ANY COPYRIGHT HOLDER, OR ANY OTHER PARTY WHO MAY MODIFY AND/OR +REDISTRIBUTE THE PROGRAM AS PERMITTED ABOVE, BE LIABLE TO YOU FOR DAMAGES, +INCLUDING ANY GENERAL, SPECIAL, INCIDENTAL OR CONSEQUENTIAL DAMAGES ARISING +OUT OF THE USE OR INABILITY TO USE THE PROGRAM (INCLUDING BUT NOT LIMITED +TO LOSS OF DATA OR DATA BEING RENDERED INACCURATE OR LOSSES SUSTAINED BY +YOU OR THIRD PARTIES OR A FAILURE OF THE PROGRAM TO OPERATE WITH ANY OTHER +PROGRAMS), EVEN IF SUCH HOLDER OR OTHER PARTY HAS BEEN ADVISED OF THE +POSSIBILITY OF SUCH DAMAGES. + + END OF TERMS AND CONDITIONS + + How to Apply These Terms to Your New Programs + + If you develop a new program, and you want it to be of the greatest +possible use to the public, the best way to achieve this is to make it +free software which everyone can redistribute and change under these terms. + + To do so, attach the following notices to the program. It is safest +to attach them to the start of each source file to most effectively +convey the exclusion of warranty; and each file should have at least +the "copyright" line and a pointer to where the full notice is found. + + + Copyright (C) 19yy + + This program is free software; you can redistribute it and/or modify + it under the terms of the GNU General Public License as published by + the Free Software Foundation; either version 2 of the License, or + (at your option) any later version. + + This program is distributed in the hope that it will be useful, + but WITHOUT ANY WARRANTY; without even the implied warranty of + MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE. See the + GNU General Public License for more details. + + You should have received a copy of the GNU General Public License + along with this program; if not, write to the Free Software + Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA 02111-1307 USA + + +Also add information on how to contact you by electronic and paper mail. + +If the program is interactive, make it output a short notice like this +when it starts in an interactive mode: + + Gnomovision version 69, Copyright (C) 19yy name of author + Gnomovision comes with ABSOLUTELY NO WARRANTY; for details type `show w'. + This is free software, and you are welcome to redistribute it + under certain conditions; type `show c' for details. + +The hypothetical commands `show w' and `show c' should show the appropriate +parts of the General Public License. Of course, the commands you use may +be called something other than `show w' and `show c'; they could even be +mouse-clicks or menu items--whatever suits your program. + +You should also get your employer (if you work as a programmer) or your +school, if any, to sign a "copyright disclaimer" for the program, if +necessary. Here is a sample; alter the names: + + Yoyodyne, Inc., hereby disclaims all copyright interest in the program + `Gnomovision' (which makes passes at compilers) written by James Hacker. + + , 1 April 1989 + Ty Coon, President of Vice + +This General Public License does not permit incorporating your program into +proprietary programs. If your program is a subroutine library, you may +consider it more useful to permit linking proprietary applications with the +library. If this is what you want to do, use the GNU Library General +Public License instead of this License. diff --git a/documents/Warteschlangen/klaus.tex b/documents/Warteschlangen/klaus.tex new file mode 100644 index 0000000..9afd53e --- /dev/null +++ b/documents/Warteschlangen/klaus.tex @@ -0,0 +1,519 @@ + +%----------------------------------------------------------------------------------------------------------------- +\chapter{Absch"atzungen und N"aherungen} +%----------------------------------------------------------------------------------------------------------------- +\section{Absch"atzungen} +%------------------------------------------------------------------------------------------------------------------ +Die Ergebnisse des vorigen Abschnittes sind deswegen etwas unbefriedigend, weil die angestrebte Zerlegung nur in +Spezialf"allen m"oglich ist. Im allgemeinen Fall m"ussen wir uns darauf beschr"anken, Absch"atzungen und +n"aherungsweise L"osungen zu finden. + +Wir gehen wieder von unserer Rekursionsgleichung aus: +\[w_{n+1} = (w_{n}+u_{n})_{+} \] +Wir f"uhren eine neue Zufallsvariable $y_{n}$ ein, die den entsprechenden Negativteil darstellt: +\[y_{n} = (w_{n}+u_{n})_{-} ~ ~ ~ ~ ~ ((x)_{-} := (-x)_{+}) ~. \] +Damit erhalten wir +\[ w_{n+1}-y_{n} = w_{n}+u_{n} ~.\] +Das gibt f"ur die Erwartungswerte: +\[\E(w_{n+1})-\E(y_{n}) = \E(w_{n})+\E(u_{n}) ~.\] +F"ur $n$ $\rightarrow$ $\infty$ ergibt sich +\[-\E(y) = \E(u) = \E(x) - \E(t) \qquad \mbox{oder} \qquad \E(y) = \E(t) - \E(x) ~.\] +Leider haben wir keine Beziehung f"ur die Wartezeit (Anmerkung: in den letzten Gleichungen steht nur eine Beziehung f"ur die Verteilungen). + +Als n"achstes quadrieren wir die Ausgangsgleichung +\[ w_{n+1}^{2}+y_{n}^{2}-2w_{n+1}y_{n}=w_{n}^{2}+2w_{n}u_{n}+u_{n}^{2} ~.\] +Wegen \( (x)_{+}(x)_{-} = 0 \) ist \( w_{n+1}y_{n} = 0 ~,\) also +\[w_{n+1}^2 + y_{n}^2 = w_{n}^2+2w_{n}u_{n}+u_{n}^2 ~.\] +Wenn wir wieder die Erwartungswerte berchnen und \(n \rightarrow \infty \) gehen lassen, so ergibt sich +\begin{eqnarray*} +\E(w^{2})+\E(y^{2})&=&\E(w^{2})+2\E(wu)+\E(u^{2}) = \\ + &=&\E(w^{2})+2\E(w)\E(u)+\E(u^{2}) \\ +\end{eqnarray*} +($w_{n}$ und $u_{n}$ sind ja unabh"angig). + +Schlie"slich haben wir +\[\E(w) = \frac{\E(u^{2})-\E(y^{2})}{-2\E(u)} \qquad [\E(u) \mbox{ ist ja negativ}] ~.\] +Wir erhalten eine obere Absch"atzung, wenn wir $\E(y^{2})$ nach unten absch"atzen. Dazu verhilft uns die Ungleichung +\[\E(y^{2}) \geq (\E(y))^{2} = (\E(u))^{2} \qquad \mbox{also }\] +\[\E(w^{2}) \leq \frac{{\bf Var}(u)}{-2\E(u)} = \frac{{\bf Var}(x)+{\bf Var}(t)}{-2\E(u)} ~.\] +F"ur eine obere Absch"atzung f"ur $\E(y^{2})$ beachten wir, da"s +\[y=(w+u)_{-} \leq (u)_{-} \quad \mbox{da} \quad w \geq 0 ~.\] +Wegen$ \quad u^{2} = ((u)_{+}-(u)_{-})^{2} = ((u)_{+})^{2}+((u)_{-})^{2} \quad $erhalten wir +\[\E(w) \geq \frac{(\E((u)_{+}))^{2}}{-2\E(u)} ~.\] +Ein weiterer Weg, eine untere Absch"atzung zu finden ist folgender: +\[\E(w_{n+1}) = \E(w_{n}+u_{n})_{+} = \E[\E((w_{n}+u_{n})_{+}\vert w_{n})] ~.\] +Wenn wir f"ur die Verteilungsfunktion von $u_{n}$ +\[C(y)=\PP(u_{n} \leq y) \] +setzen, erhalten wir +\[\E((w_{n}+u_{n})_{+} \vert w_{n} = y) = \int_{-y}^{\infty}(u+z)dC(z) = \int_{-y}^{\infty}(1-C(z))dz =: g(y) ~.\] +Also +\[\E(w_{n+1}) = \E(g(w_{n}))\] +$g$ ist konvex ($g'$ ist monoton), also k"onnen wir die JENSEN'sche Ungleichung anwenden: +\[\E(g(w_{n})) \geq g(\E(w_{n}))~.\] +F"ur $n \rightarrow \infty$ ergibt sich +\[\E(w) \geq g(\E(w)) ~.\] +Wir betrachten die Gleichung +\[g(y) = y ~.\] +Die Funktion $y-g(y)$ hat die Ableitung $G(-y) \geq 0$, ist also monoton.\\ +Weiters ist $g(0) = \E((u_{n})_{+}) > 0 \mbox{ falls } W(u_{n} > 0) > 0$ ist (andernfalls ist $w = 0$).\\ +F"ur $n \rightarrow \infty$ ist $g(y) \rightarrow \E(u) < 0$, es gibt also eine eindeutig bestimmte L"osung $y_{0}$, f"ur die $g(y_{0}) = y_{o}$, und +\[\E(w) \geq g(y_{o}) ~.\] + +%------------------------------------ +\section{N"aherungen} +%------------------------------------ +\bigskip +"Ahnlich wie die Absch"atzungen des vorigen Kapitels sollen uns die N"aherungen dieses Abschnittes dazu dienen, ungef"ahre Aussagen "uber das qualitative +Verhalten einer Warteschlange zu treffen. Eine M"oglichkeit besteht darin, die auftretenden Verteilungen durch solche zu ersetzen, f"ur die wir exakte Ergebnisse +kennen. Dazu k"onnen wir etwa folgende Klassen von Verteilungen verwenden: +\begin{enumerate} + +\item {\bf Verteilungen mit rationaler Laplacetransformation} + +Man kann jede Verteilung durch Verteilungen mit rationalen Laplacetransformationen ann"ahern. F"ur diese Verteilungen kann \\ + man die Spektralzerlegung f"ur $G/G/1$ 'leicht' durchf"uhren: \\ +man findet die Nullstellen von Z"ahler und Nenner und ordnet sie, je nachdem in welcher Halbebene sie liegen, entweder +der Funktion $\Psi^{+}$ oder $\Psi^{-}$zu. + +\item {\bf Diskrete Verteilungen} + +"Ahnlich wie unter $1.$ kann man jede Verteilung durch eine diskrete Verteilung ann"ahern. Das folgende Beispiel zeigt, wie die diskreten Verteilungen behandelt +werden k"onnen:\\ +Es sei +\begin{eqnarray*} + \PP(t_{n}=1)=a, \quad \PP(t_{n}=2)=1-a \\ + \PP(x_{n}=1)=b, \quad \PP(x_{n}=2)=1-b +\end{eqnarray*} +[$b>a$]. + +F"ur $u_{n}=x_{n}-t_{n+1}$ ergibt sich: +\begin{eqnarray*} + \PP(u_{n}=-1)&=&b(1-a) \\ + \PP(u_{n}=1)&=&a(1-b) \\ + \PP(u_{n}=0)&=&ab+(1-a)(1-b) ~. +\end{eqnarray*} +F"ur die station"are Verteilung der Wartezeit $w$ ergibt sich die Rekursion +\begin{eqnarray*} + p_{k}&=&a(1-b)p_{k-1}+(ab+(1-a)(1-b))p_{k}+b(1-a)p_{k+1} \\ + p_{0}&=&(a(1-b)+ab-(1-a)(1-b))p_{0}+b(1-a)p_{1} ~. +\end{eqnarray*} +Wir erhalten +\begin{eqnarray*} + p_{k}&=&p_{0}\left( \frac{a(1-b)}{b(1-a)}\right)^{k} \\ + p_{0}&=&1-\frac{a(1-b)}{b(1-a)}=\frac{b-a}{b(1-a)} ~.\\ +\end{eqnarray*} +Falls wir mehr als zwei m"ogliche Werte f"ur $x$ bzw. $t$ haben, m"ussen wir eine Rekursion h"oherer Ordnung l"osen; dazu sind bekanntlich die Nullstellen des +charakteristischen Polynoms zu bestimmen. Auch hier, ebenso wie im im vorigen Abschnitt, reduziert sich also das Problem auf die L"osung einer algebraischen +Gleichung. Diese L"osung ist f"ur hohe Polynomgrade nur numerisch m"oglich. Dies und die Tatsache, da"s man nicht genau wei"s, wie eine 'gute' N"aherung zu +w"ahlen +ist, reduziert die Brauchbarkeit dieser beiden N"aherungen. + +\item {\bf Approximation f"ur starke Auslastung ('Heavy traffic approximation')} + +Wir betrachten den Fall $\rho \approx 1$. \\ +Ausgangspunkt unserer Betrachtungen ist die Spektralzerlegung der $G/G/1$: +\[\frac{\Psi^{+}(s)}{\Psi^{-}(s)}=\tilde A (-s)\tilde B (s)-1 ~.\] +F"ur $s \rightarrow 0$ erhalten wir daraus die Entwicklung +\begin{eqnarray*} + \frac{\Psi^{+}(s)}{\Psi^{-}(s)}&=&(\E(t)-\E(x))s+\frac{s^{2}}{2}\E((x-t)^{2})+o(s^{2})= \\ + &=&(1-\rho)s\E(t)+\frac{s^{2}}{2}\E((x-t)^{2})+o(s^{2})= \\ + &=&(1-\rho)s\E(t)+\frac{s^{2}}{2}({\bf Var}(x)+{\bf Var}(t)+ \\ + &+&(1-\rho)^{2}(\E(t))^{2}) + o(s^{2}) ~. +\end{eqnarray*} +F"ur $\rho \approx 1$ ist $(1-\rho)^{2}(\E(t))^{2}$ zu vernachl"assigen, also +\begin{eqnarray*} + \frac{\Psi^{+}(s)}{\Psi^{-}(s)}&\approx&(1-\rho)s\E(t)+\frac{s^{2}}{2}({\bf Var}(x)+{\bf Var}(t))+o(s^{2}) \approx \\ + &\approx&s(s-s_{0}) \frac{{\bf Var}(x)+{\bf Var}(t)}{2} ~. +\end{eqnarray*} + +$\Psi^{+}(s)$ ist in der N"ahe von $0$ stetig, also haben wir +\[\Psi^{+}(s) \approx Cs(s-s_{o})\] +mit +\[s_{0}=-\frac{2(1-\rho)\E(t)}{{\bf Var}(x)+{\bf Var}(t)} \] +und +\[C=\Psi^{-}(0)\frac{{\bf Var}(x)+{\bf Var}(t)}{2} ~. \] +Wir erhalten daraus +\[\Phi(s) \approx -\frac{s_{0}}{s(s-s_{0})}=\frac{1}{s}-\frac{1}{s-s_{0}} ~.\] +Also ergibt sich f"ur die Verteilungsfunktion der Wartezeit +\[ F(y) \approx 1 - e^{-y\frac{2\E(t)(1-\rho)}{{\bf Var}(x)+{\bf Var}(t)}} ~.\] +Die Wartezeit ist also n"aherungsweise exponentialverteilt mit Mittel +\[\E(w)=\frac{{\bf Var}(x)+{\bf Var}(t)}{2\E(t)(1-\rho)} ~.\] +Dieses Ergebnis kann man als \index{Satz!Zentraler Grenzwertsatz f\"{u}r Warteschlangen}'zentralen Grenzwertsatz' f"ur Warteschlangen betrachten. + +Das Mittel dieser Exponentialverteilung haben wir bereits als obere +Absch"atzung f"ur die mittlere Wartezeit erhalten. + +\item{\bf Die Flussapproximation} + +Diese N"aherung geht von einer einfachen Idee aus:\\ +Wir ersetzen die Ank"unfte und Bedienvorg"ange durch konstante Str"ome von $\lambda$ bzw. $\mu$ Kunden +pro Zeiteinheit. In unserem Standardmodell $(\lambda < \mu)$ ergibt sich aus dieser N"aherung nat"urlich, da"s die +Schlange stets leer ist, was offensichtlich nicht sehr brauchbar ist. + +F"ur zwei F"alle gibt diese Approximation aber doch interessante Resultate: + \begin{enumerate} + \item Falls $\mu < \lambda$ ist, w"achst die Anzahl der Kunden im System um $(\lambda - \mu)$ Kunden pro Zeiteinheit. + \item Falls $\lambda < \mu$ ist, und falls die Anzahl der Kunden gro"s ist, kann man die Zeit, bis das System wieder leer ist, mit Hilfe dieser + N"aherung berechnen. + \end{enumerate} + +\item{\bf Die Diffusionsn"aherung} + +Dies ist wie die vorige N"aherung eine Approximation durch einen kontinuierlichen Proze"s. Diesmal wird auch die Varianz betrachtet. + +Es sei $N_{a}(u)$ die Anzahl der Kunden, die bis zur Zeit $t$ ankommen.\\ +Es gilt die Beziehung +\[ N_{a}(u) \geq n \Leftrightarrow T_{n} \geq u \] +$T_{n}$ ist, wie "ublich, die Ankunftszeit des $n$-ten Kunden. + +Aus dem Gesetz der gro"sen Zahlen folgt: +\[ T_{n} \approx n\E(t) ~.\] +Das impliziert +\[N_{a}(u) \approx \lambda u ~. \] +Der zentrale Grenzwertsatz gibt uns +\[\PP(T_{n} \leq n\E(t)+z\sqrt{n{\bf Var}(t)}) = \Phi (z) ~. \] +Daraus ergibt sich f"ur gro"ses n +\begin{eqnarray*} +& &\PP(N_{a}\geq\lambda u + y\sqrt{u}) = \\ +& & ~ ~=\PP(T_{\lambda u + y\sqrt{u}} \leq u) = \\ +& & ~ ~=\PP(T_{\lambda u + y\sqrt{u}} \leq \E(t)(\lambda u + y\sqrt{u}) - y\E(t)\sqrt{u} ) = \\ +& & ~ ~=\PP(T_{\lambda u + y\sqrt{u}} \leq \E(t)(\lambda u + y\sqrt{u}) - \\ +& & ~ ~ ~ ~ ~- y\sqrt{(\E(t))^{3}(\lambda u + y\sqrt{u})})=\\ +& &~ ~=\PP(T_{\lambda u + y\sqrt{u}} \leq \E(t)(\lambda u + y\sqrt{u}) - \\ +& & ~ ~ ~ ~ ~-\frac{y}{\sqrt{\lambda ^{3}{\bf Var}(t)}}\sqrt{{\bf Var}(t)(\lambda u + y\sqrt{u})}) \\ +& &~ ~=1 - \Phi(\frac{y}{\sqrt{\lambda ^{3}{\bf Var}(t)}}) ~. +\end{eqnarray*} +$N_{a}(u)$ ist also n"aherungsweise normalverteilt mit Mittel $u\lambda$ und Varianz $u\lambda^{3}{\bf Var}(t)$. Genauso erh"alt man f"ur die Anzahl $N_{b}(u)$ +der +Kunden, die w"ahrend der Zeit $u$ bedient werden (wenn die Schlange nicht leer ist) eine n"aherungsweise Normalverteilung mit Mittel $\mu u$ und Varianz +$\mu^{3}u{\bf Var}(x)$. Wir nehmen jetzt an, da"s diese Werte durch kontinuierliche Beitr"age zustande kommen, d.h. die 'Anzahl' der Ank"unfte (bzw. +Bedienvorg"ange) +in der kurzen Zeit $\Delta u$ soll normalverteilt mit Mittel $\lambda\Delta u$ (bzw. $\mu\Delta u$) und Varianz $\lambda^{3}\Delta u{\bf Var}(t)$ (bzw. +$\mu^{3}\Delta +u{\bf Var}(x)$) sein. Die Anzahl der Ank"unfte bzw. Bedienvorg"ange "uber disjunkten Intervallen sollen nat"urlich unabh"angig sein. Die "Anderung der Anzahl der +Kunden +im System w"ahrend der Zeit $\Delta u$ ist dann normalverteilt mit Mittel $\Delta u(\lambda - \mu)$ und Varianz $\Delta u\sigma^{2}$ mit $\sigma^{2} = +\lambda^{3}{\bf Var}(t) + \mu^{3}{\bf Var}(x)$.\\ +(Die letzte Beziehung gilt nat"urlich nur, wenn die Anzahl der Kunden im System $> 0$ ist). + +Es sei nun +\[F(x,u) = \PP(N(u) \leq x) ~.\] +Wir stellen eine Gleichung f"ur $F(x,u+\Delta u)$ auf, dabei sei $X(\Delta u)$ die "Anderung der Kunden w"ahrend $\Delta u$: +\begin{eqnarray*} +F(x,u+\Delta u)&=&\PP(N(u+\Delta u) \leq x) = \\ + &=&\PP(N(u)+X(\Delta u) \leq x) = \\ + &=&\PP(N(u) \leq x - X(\Delta u)) = \\ + &=&\E(F(x-X(\Delta u),u)) = \\ + &=&\E(F(x,u)-F_{x}(x,u)X(\Delta u) + \\ + & &+ \frac{1}{2}F_{xx}(x,u)X(\Delta u)^{2} + o(\Delta u)) = \\ + &=&F(x,u)-F_{x}(x,u)\E(X(\Delta u)) + \\ + & &+\frac{1}{2}F_{xx}(x,u)(\E(X(\Delta u)^{2})) + o(\Delta u) = \\ + &=&F(x,u)-F_{x}(x,u)\Delta u(\lambda-\mu) + \\ + & &+\frac{1}{2}F_{xx}(x,u)\sigma^{2}\Delta u + o(\Delta u) ~. +\end{eqnarray*} +Wenn man $F(x,u)$ nach links bringt, durch $\Delta u$ dividiert, und $\Delta u \rightarrow 0$ gehen l"a"st, ergibt sich +\begin{eqnarray*} +F_{u}(x,u)&=&(\mu - \lambda)F_{x}(x,u) + \frac{1}{2}\sigma^{2}F_{xx}(x,u) \qquad (x \geq 0) \\ + & & \\ +F(x,0)&=&1 \qquad (x \geq 0) \\ +F(x,0)&=&0 \qquad (x < 0) \\ +F(0,u)&=&0 \qquad (u > 0) ~. +\end{eqnarray*} +Die Anfangsbedingung ergibt sich aus der Forderung, da"s das System zur Zeit $0$ leer sein soll, und die Randbedingung daraus, da"s die Anzahl der Kunden nicht +negativ sein darf. + +Man kann sehr leicht die L"osung der Gleichung ohne Randbedingung finden, indem man die Laplace-Transformation anwendet: +\[G(z,u)=\int_{-\infty}^{\infty} e^{-xz}F(x,u)dx ~.\] +Wir erhalten nach einigen partiellen Integrationen: +\[G_{u}(z,u) = (\mu-\lambda)zG(z,u)+\frac{1}{2}\lambda^{2}z^{2}G(z,u) ~, \] +also +\[ G(z,u) = G(z,0)e^{\frac{1}{2}\sigma^{2}z^{2}+(\mu - \lambda)z} \] +und, da $G(z,0)=\frac{1}{z}$ +\[G(z,u) = \frac{1}{z}e^{\frac{1}{2}\sigma^{2}uz^{2}+(\mu - \lambda)zu} ~.\] +Die Inversion der Laplace-Transformation liefert +\[F(x,u)=\Phi\left(\frac{x+(\mu - \lambda)u}{\sqrt{\sigma^{2}u}}\right) ~. \] +Um die Gleichung mit der Randbedingung zu l"osen, suchen wir zuerst die station"are Verteilung. Diese ergibt sich aus der obigen Gleichung, wenn $F(x,u)$ nicht +von $u$ abh"angt. Dann ist nat"urlich die Ableitung nach $u = 0$, und wir erhalten: +\[ F'_{0}(x)(\mu - \lambda)+\frac{1}{2}\sigma^{2}F''(x)=0 ~. \] +Diese Gleichung hat die allgemeine L"osung +\[F(x) = C_{1}+C_{2}e^{\frac{2(\lambda - \mu)}{\sigma^{2}}x} ~. \] +Da $F(0) = 0$ und $F(\infty) = 1$ sein soll, erhalten wir +\[F(x) = 1-e^{\frac{2(\lambda - \mu)}{\sigma^{2}}x} ~. \] +Es ergibt sich also wieder eine Exponentialverteilung f"ur die Wartezeit. F"ur $\rho \rightarrow 1$ stimmt diese Verteilung in erster N"aherung mit der aus +Abschnitt $3.$ "uberein. Mit etwas mehr Arbeit kann man die folgende L"osung der partiellen Differentialgleichung erhalten: +\[F(x,u)=\Phi\left(\frac{x+u(\mu - \lambda)}{\sqrt{\sigma^{2}u}}\right)-e^{\frac{2(\mu - \lambda)}{\sigma^{2}}x}\Phi\left(\frac{-x+u(\mu - +\lambda)}{\sigma^{2}}\right) ~.\] +\end {enumerate} +%------------------------------------------------------------------------------------ +\chapter{Time-Sharing} +%------------------------------------------------------------------------------------ +Wir wollen jetzt unsere Kenntnisse auf eine Analyse von Fragen anwenden, die bei Time-sharing Anwendungen auftreten. \\ +Wir betrachten den einfachsten Fall, da"s nur eine CPU vorhanden ist, die 'gleichzeitig' mehrere Programme bearbeiten mu"s. +Dazu wird jeweils eines der wartenden Programme ausgew"ahlt, in den Hauptspeicher geladen, eine kurze Zeit (die sog. \index{Zeitscheibe}'Zeitscheibe') gerechnet, +aus dem +Hauptspeicher entfernt, und das Spiel mit dem n"achsten Programm fortgesetzt. Jedes Programm braucht eine bestimmte \index{Rechenzeit}Rechenzeit $x$, und sobald +diese Zeit (in +Form von einzelnen Zeitscheiben) abgearbeitet ist, verl"a"st das Programm das System. Da wir keine a-priori Information "uber die Rechenzeit eines Programmes +voraussetzen, k"onnen wir die Jobs nur aufgrund der schon verbrauchten Rechenzeit klassifizieren, und die Auswahl des n"achsten Programms nach dieser verbrauchten +Rechenzeit treffen. Dabei k"onnen wir verschiedene Ziele verfolgen: +\begin{enumerate} +\begin{enumerate} +\item kurze Programme sollen m"oglichst schnell erledigt werden. Dadurch wird die Anzahl der Programme im System klein gehalten, was den Verwaltungsaufwand +reduziert; au"serdem ist es psychologisch ung"unstig, wenn ein Kunde auf ein 2-Sekunden-Programm eine Stunde warten mu"s. +\item eine m"oglichst 'gerechte' Verteilung w"are eine, bei der die Zeit, die ein Job im System verbringt, proportional zur Rechenzeit ist; nur dann ist es nicht +m"oglich, durch Aufteilen eines langen Programmes in mehrere k"urzere bzw. durch Zusammenfassen mehrere k"urzere Programme einen Zeitgewinn zu erzielen. +\end{enumerate} +\end{enumerate} + +Wir machen folgende Annahmen: +\begin{enumerate} +\item Die Ank"unfte erfolgen nach einem Poissonproze"s mit Rate $\lambda$, die Rechenzeiten sind unabh"angig mit Verteilungsfunktion $B$ (wir haben also eine +$M/G/1$-Situation) mit Dichte $b$. +\item Die Zeitscheibe nehmen wir als infinitesimal an; weiters nehmen wir an, da"s wir die Zeit zum Austauschen vernachl"assigen k"onnen. +\item Wir betrachten nur die station"aren Verteilungen. +\end{enumerate} +$N(u)$ sei die mittlere Anzahl von Jobs, deren verbrauchte Rechenzeit $\leq u$ ist. Dazu m"oge eine Dichte $n(u)$ existieren, soda"s +\[N(u)=\int_{0}^{u}n(s)ds \] +ist. + +$T(u)$ sei die Zeit, die im Durchschnitt vergeht, bis ein Job $u$ Sekunden Rechenzeit bekommt. \\ +$W(u)$ sei die Wartezeit eines Jobs mit $u$ Sekunden Rechenzeit, also +\[W(u) = T(u) - u ~. \] +Wir betrachten die Jobs, die schon zwischen $u$ und $u+\Delta u$ Sekunden gerechnet haben, als eine eigene Warteschlange. Hier kommen alle Jobs durch, deren +Rechenzeit $\geq u$ ist. Die Ankunftsrate in dieser Schlange ist also $\lambda(1-B(u))$.\\ +Die mittlere Aufenthaltsdauer ist $T(u+\Delta u) - T(u)$, und die mittlere Anzahl von Jobs in dieser Schlange ist $\approx n(u)\Delta u$. \\ +Mithilfe des Satzes von Little ergibt sich die Beziehung +\[n(u)=\lambda (1-B(u))\frac{dT(u)}{du} ~. \] +Wir betrachten die folgende Strategien: +\begin{enumerate} +\item {\bf FCFS} ('Batch') +\item {\bf LCFS} (pr"a-emptiv): ein Job, der das System betritt, wird sofort bearbeitet (ein eventuell laufender Job wird dazu unterbrochen); wenn ein Job fertig +ist, wird der zuletzt unterbrochene weiterbearbeitet. +\item {\bf \index{Round Robin}Round Robin (RR)}: alle Jobs, die im System sind, werden der Reihe nach bearbeitet (abwechselnd). +\item Es wird jeweils der Job bearbeitet, der am wenigsten Rechenzeit verbraucht hat. +\end{enumerate} +Es sollte Strategie 4 kurze Jobs am meisten bevorzugen, 1 am wenigsten, 2 und 3 sollten dazwischen liegen. + +\begin{enumerate} +\item Kennen wir von fr"uher; hier ist die Wartezeit $W(u)$ konstant, und zwar ist +\[W(u) = \frac{\lambda \E(x^{2})}{2(1-\rho)} \] +und +\[T(u) = u + \frac{\lambda \E(x^{2})}{2(1-\rho)} ~. \] +\item Hier ist $T(u)$ leicht zu bestimmen. Denn $T(u)$ ist gleich der Rechenzeit $u$ plus der Summe der Rechenzeiten aller Programme, die w"ahrend $T(u)$ +ankommen. +W"ahrend $T(u)$ kommen $\lambda T(u)$ Programme an, jedes bringt im Schnitt $\E(x)$ Sekunden Rechenzeit mit, also gilt +\[T(u) = u + \lambda T(u)\E(x)=u + \rho T(u) ~,\] +also +\[T(u)=\frac{u}{1-\rho} ~. \] +Wir haben also ein 'gerechtes' Verfahren gefunden. +\item Wenn sich $N$ Programme im System befinden, bekommt ein bestimmtes Programm $\frac{1}{N}$ der gesamten Rechenzeit. \\ +Daher ist $dT(u) = Ndu$. Da nur gerechnet wird, wenn das System nicht leer ist, ergibt sich: +\[ T(u)=u\E(N \mid N \not= 0)=Cu, \] +also wieder ein 'gerechtes' System. Um $C$ zu bestimmen, betrachten wir den Fall $u \rightarrow \infty$. Wenn $u$ gro"s ist, werden die meisten Jobs, die w"ahrend +$T(u)$ ankommen, auch noch w"ahrend $T(u)$ das System verlassen. F"ur gro"ses $u$ ist also das Verhalten "ahnlich wie im vorigen Fall, und wir erhalten wieder +\[T(u)=\frac{u}{1-\rho} ~. \] +\item Wenn wir ein Programm betrachten, das genau $u$ Sekunden Rechenzeit ben"otigt, dann sehen wir, da"s f"ur $T(u)$ von der Rechenzeit aller anderen Programme +nur der Teil von Bedeutung ist, der kleiner als $u$ ist. Aus der Sicht dieses Programmes k"onnen wir also $x$ durch $(x \land u)$ ersetzen, und die +Verteilungsfunktion $B$ durch: +\[ +B_{u}(y) = \left\{ +\begin{array}{lc} +B(y) & y 0$ Klassen +von Kunden geben. Die Kunden aus Klasse $i$ kommen nach einem Poissonproze"s mit Rate $\lambda_{i}$ an und ben"otigen eine Bedienzeit mit Verteilungsfunktion +$B_{i}$ (wir betrachten also wieder eine $M/G/1$-Situation). Weiters sei +\begin{eqnarray*} +\lambda &=& \sum_{i=1}^{p}\lambda _{i} \\ +B(y) &=& \frac{1}{\lambda}\sum_{i=1}^{p}\lambda _{i}B_{i}(y) \\ +\rho _{i} &=& \lambda _{i}\int ydB_{i}(y) \\ +\rho &=& \lambda \int ydB(y) ~. +\end{eqnarray*} +Es gibt jetzt eine ganze Reihe von M"oglichkeiten, Disziplinen zu definieren, die eine Klasse gegeb"uber anderen bevorzugen. Wir sprechen von unterschiedlichen +{\bf \index{Priorit\"{a}ten}Priorit"aten}. + +Die Disziplinen, die wir untersuchen, sollen folgende Eigenschaften haben: +\begin{enumerate} +\item {\bf Nicht-pr"a-emptiv}: Ein einmal begonnener Bedienvorgang wird ohne Unterbrechung zu Ende gef"uhrt. +\item {\bf Arbeitserhaltend}: Niemand, der wartet, wird weggeschickt, ohne bedient zu worden zu sein. +\end{enumerate} +Weiters soll immer, wenn das System nicht leer ist, bedient werden. + +%------------------------------- +\section{Ein Erhaltungssatz} +%------------------------------ + +$U_{t}$ sei die unverrichtete Zeit im System, d.h. die Zeit, die ben"otigt wird, um alle anwesenden Kunden fertig zu bedienen. Offensichtlich ist die Verteilung +von $U_{t}$ unabh"angig von der Disziplin: \\ +$U_{t}$ w"achst mit jeder Ankunft eines Kunden um seine Bedienzeit an, und f"allt pro Sekunde um $1$ Sekunde, solange $U_{t}>0$ ist. Die station"are Verteilung +von $U_{t}$ entspricht der Verteilung der Wartezeit eines zuf"allig ankommenden Kunden bei der FCFS-Disziplin. \\ +Insbesondere ist +\[\E(U) = \frac{\lambda \E(x^{2})}{2(1-\rho)} ~ \] +wobei $x$ nach der Funktion $B$ verteilt ist. + +Wir berechnen jetzt $\E(U)$ auf eine andere Art. Dazu bezeichnen wir mit $W_{i}$, $i=1, \dots , p$, die mittlere Wartezeit eines Kunden mit Priorit"at $i$, und +mit +$N_{i}$ die Anzahl der Kunden aus der $i$-ten Priorit"atsgruppe in der Warteschlange. + +$\E(U)$ setzt sich jetzt aus folgenden Beitr"agen zusammen: +\begin{enumerate} +\item $W_{0}$: die mittlere restliche Bedienzeit f"ur den Kunden, der gerade bedient wird. +\item Die Summe der mittleren Bedienzeiten f"ur alle Kunden, die sich in der Warteschlange befinden. +\end{enumerate} +Um $W_{0}$ zu bestimmen, stellen wir fest, da"s $W_{0}$ gleich der Zeit ist, die ein zuf"allig ankommender Kunde warten mu"s, bis der Kunde fertig ist, der gerade +bedient wird. Mit Wahrscheinlichkeit $(1-\rho)$ findet der ankommende Kunde das System leer vor. Falls der Server besetzt ist, kann man die Verteilung der +restlichen Bedienzeit folgenderma"sen bestimmen: \\ +Wir betrachten eine gro"se Anzahl $n$ von unabh"angigen Variablen mit Verteilung $B$. Ihre Summe ist nach dem Gesetz der gro"sen Zahlen $\approx n\E(x)$. Wenn wir +in dem Intervall der L"ange $n\E(x)$ einen Punkt zuf"allig w"ahlen, ist die Chance, da"s wir bis zum Ende des Teilintervalls, in das der zuf"allig gew"ahlte Punkt +f"allt, einen Abstand zwischen $u$ und $u+\Delta u$ haben, gleich $\frac{\Delta u}{n\E(x)}$ mal der Anzahl der Intervalle mit L"ange $> u$, also +\[ \approx \frac{\Delta u}{n\E(x)}n(1-B(u)) ~. \] + F"ur $n \rightarrow \infty$ ergibt sich f"ur die Verteilung der restlichen Wartezeit die Dichte +\[f(u)=\frac{1-B(u)}{\E(x)} ~. \] +Schlie"slich ist +\[W_{0}=\rho \int_{0}^{\infty}uf(u)du = \frac{\rho \E(x^{2})}{2\E(x)}=\frac{\lambda \E(x^{2})}{2} ~. \] +Die Summe der Bedienzeiten der Kunden in der Warteschlange ergibt sich nat"urlich aus der Summe der gesamten Bedienzeiten der Kunden in den einzelnen Gruppen. +Es sind im Schnitt $N_{i}$ Kunden aus der $i$-ten Gruppe anwesend. F"ur jeden wird im Schnitt eine Bedienzeit $\E(x_{i})$ ($x_{i}$ soll eine $ZV$ mit Verteilung +$B_{i}$ sein) ben"otigt. \\ +Damit gilt +\[\E(U)=W_{0}+\sum_{i=1}^{p}\E(x_{i})N_{i}=\frac{W_{0}}{1-\rho} ~. \] +Nach Little gilt $N_{i}=\lambda_{i}W_{i}$, also schlie"slich +\[ \sum_{i=1}^{p}\rho_{i}W_{i}=\frac{\rho W_{0}}{1-\rho}=\frac{\lambda \rho \E(x^{2})}{2(1-\rho)} ~.\] +Dieses Ergebnis zeigt, da"s wir eine Gruppe nur bevorzugen k"onnen, indem eine andere Gruppe gr"o"sere Wartezeiten in Kauf nehmen mu"s. + +%---------------------------------------------------- +\section{Eine Methode zur Bestimmung der Wartezeit} +%---------------------------------------------------- + +Wir betrachten einen Kunden aus der Gruppe $i$, der das System betritt: \\ +$N_{ij} \dots$ mittlere Anzahl der Kunden aus Gruppe $j$, die unser Kunde im System antrifft, und die vor ihm bedient werden (ausgenommen der Kunde, der eventuell +gerade bedient werden, wenn unser Kunde ankommt). \\ +$M_{ij} \dots$ mittlere Anzahl der Kunden aus Gruppe $j$, die w"ahrend der Wartezeit unseres Kunden ankommen und vor ihm bedient werden. \\ +Damit gilt +\[W_{i}=W_{0}+\sum_{j=1}^{p}(N_{ij}+M_{ij})\E(x_{j}) ~. \] +Wir verwenden diesen Zugang f"ur die einfachste Disziplin: \\ +Jeder Kunde aus Gruppe $i$ wird vor allen Kunden aus Gruppe $i-1$ bedient, und innerhalb einer Gruppe wird nach $FCFS$ gearbeitet. \\ +Dann ist +\begin{eqnarray*} +N_{ij}&=&0 \qquad ji$ ist $M_{ij}$ die Anzahl der Kunden aus Gruppe $j$, die im Mittel w"ahrend $W_{i} = \lambda _{j}W_{i}$ ankommen. + +Wir erhalten +\begin{eqnarray*} +W_{i}&=&W_{0}+\sum_{j=i}^{p}\rho _{j}W_{j}+\sum_{j=i+1}^{p}\rho_{j}W_{i} = \\ +&=&W_{0} + W_{i}\sum_{j=i}^{p}\rho_{j} + \sum_{j=i+1}^{p}\rho_{j}W_{j} +\end{eqnarray*} +oder +\[W_{i}(1-\sum_{j=i}^{p}\rho_{j})=W_{0}+\sum_{j=i+1}^{p}\rho_{j}W_{j} ~. \] +Wir schreiben +\[\sigma_{j} = \sum_{j=i}^{p}\rho_{j} \] +und erhalten +\[W_{i-1}(1-\sigma_{i-1})=W_{i}(1-\sigma_{i})+\rho_{i}W_{i}=W_{i}(1-\sigma_{i+1}) ~, \] +und schlie"slich +\[W_{i}=\frac{W_{0}}{(1-\sigma_{i})(1-\sigma_{i+1})} ~. \] + +%---------------------------------------------------------------------------- +\begin{appendix} +\chapter{Transformationen} +%---------------------------------------------------------------------------- +F"ur unsere Untersuchungen ben"otigen wir die folgenden Transformationen: +\begin{enumerate} +\item Die erzeugende Funktion oder \index{erzeugende Funktion}$z$ - Transformierte: Falls $p_{n}$, $n +\geq 0$ eine diskrete Verteilung ist, nennen wir +\begin{displaymath} +P^{*}(z) = \sum_{}^{} p_{n} z^{n} +\end{displaymath} +die erzeugende Funktion von $(p_{n})$. Falls $X$ die Verteilung $(p_{n})$ +hat, so gilt +\begin{displaymath} +P^{*}(z) = \E (z^{X}) ~. +\end{displaymath} +$P^{*}(z)$ existiert jedenfalls f"ur $|z|<1$. Bekanntlich kann man aus +$P^{*}$ eindeutig $(p_{n})$ bestimmen: +\begin{displaymath} +p_{n} = \frac{1}{n!} P^{*^{n}} (0) ~. +\end{displaymath} +\item Die Laplace - Transformierte: Falls $f(x)$, $x \geq 0$ eine +Dichtefunktion ist, d.h. +\begin{displaymath} +f \geq 0 \qquad \mbox{und} \qquad \int_{0}^{\infty} f(x)dx = 1 ~, +\end{displaymath} +hei\3t +\begin{displaymath} +\hat F(t) = \int_{0}^{\infty} e^{-xt} f(x)dx +\end{displaymath} +die \index{Laplace - Transformierte}Laplace - Transformierte von $f$. Dieses Integral ist f"ur $t \geq 0$ +endlich, und es gibt auch hier eine eindeutige Beziehung zwischen $\hat F$ +und $f$. Falls $X$ mit der Dichte $f$ verteilt ist, ist +\begin{displaymath} +\hat F(t) = \E (e^{-Xt}) ~. +\end{displaymath} +Diese Beziehung kann man auch verwenden, um die Laplace - Transformierte +f"ur nicht stetige Verteilungen zu definieren. +\end{enumerate} +Es bestehen folgende Eigenschaften der Transformationen: +\begin{enumerate} +\item $P^{*}(z)$ ist regul"ar f"ur $|z| \leq 1$. +\item $ \hat F(z)$ ist regul"ar f"ur $ \Re (z) \geq 0$. Falls $X$ eine +Verteilung $(p_{n})$ hat, ist +\begin{displaymath} +\E(X) = (P^{*})^{'}(1) ~. +\end{displaymath} +Falls $X$ Dichte $f$ hat, ist +\begin{displaymath} +\E(X) = -\hat F^{'}(0) ~. +\end{displaymath} +\item Falls $X$, $T$ unabh"angig sind, ist die Transformierte der Summe +das Produkt der Transformierten. +\item Weiters sei $N_{t}$ ein \index{Poissonproze\3}Poissonproze\3 (d.h. eine Folge von +Ereignissen, wobei die Zeit zwischen zwei Ereignissen nach $M_{\lambda}$ +verteilt ist. $N_{t}$ ist die Anzahl dieser Ereignisse im Intervall +$[0,t])$. F"ur eine zuf"allige Zeit $T$ wollen wir die Anzahl $N_{T}$ von +Ereignissen in $[0,T]$ bestimmen. Falls $T=t$ ist, ist diese Anzahl +Poisson - verteilt mit Parameter $\lambda t$: +\begin{displaymath} +\PP (N_{T} = n | T = t) = \frac{(\lambda t)^{n}}{n!} e^{- \lambda t} ~, +\end{displaymath} +also ist +\begin{displaymath} +\PP (N_{T} = n) = \E \left[ \frac{( \lambda +T)^n}{n!} e^{- \lambda T} \right] ~. +\end{displaymath} +Die erzeugende Funktion ist +\begin{eqnarray*} +\hat \PP(z) &=& \sum_{}^{} \PP(N_{T} = n) z^{n} = \\ +&=& \E \left[ \sum_{}^{} e^{-\lambda T} \frac{(\lambda z T)^{n}}{n!} +\right] = \\ +&=& \E (e^{- \lambda (1-z)T}) = \\ +&=& \tilde F (\lambda(1-z)) ~, +\end{eqnarray*} +falls $T$ mit Dichte $f$ verteilt ist. +\end{enumerate} +%------------------------------------------------------------------------------ +\end{appendix} diff --git a/documents/Warteschlangen/pantelis.tex b/documents/Warteschlangen/pantelis.tex new file mode 100644 index 0000000..e5e0a36 --- /dev/null +++ b/documents/Warteschlangen/pantelis.tex @@ -0,0 +1,565 @@ +%----------------------------------------------------------------------------- +\chapter{Einleitung} +%----------------------------------------------------------------------------- +Wir betrachten folgendes grundlegendes Modell: Kunden kommen zu +zuf"alligen Zeiten $T_{1} < T_{2} < \dots 0$, dann geht $u_{1}+ \cdots + u_{n-1}$ $\rightarrow +\infty$, also auch $\tilde w$. Falls $\E u < 0$, dann geht $u_{1}+ \cdots ++ u_{n-1}$ $\rightarrow -\infty$, also ist f"ur $n>n_{0}$ $u_{1}+ \cdots + +u_{n-1} <0 $, was bedeutet da\3 nur die ersten Glieder in der Definition +von $\tilde w_{n}$ wichtig sind; also ist $\tilde w$ endlich. Falls $\E +u = 0$, ist k"onnen wir den einfachen Fall $D/D/1$ betrachten. In diesem +Fall ist $w_{n}=0$, also ist das Verhalten station"ar. Leider ist das der +einzige Fall; sobald $A$ oder $B$ nicht degenerierte Verteilungen haben, +kann $\tilde w_{n}$ nicht gegen eine endliche Zufallsvariable +konvergieren, weil etwa nach dem zentralen Grenzwertsatz f"ur $n$ gro\3 +genug +\begin{displaymath} +\PP(\tilde w_{n} > a \sqrt{n.{\bf Var}(u)}) \geq 1- \Phi(a)- \epsilon > 0 ~. +\end{displaymath} +Somit ist f"ur jedes $n$ +\begin{displaymath} +\PP(\tilde w > a \sqrt{n.{\bf Var}(u)}) \geq 1- \Phi(a)- \epsilon ~, +\end{displaymath} +also +\begin{displaymath} +\PP(\tilde w = \infty) \geq 1- \Phi(a)- \epsilon ~. +\end{displaymath} +Es bleibt uns also f"ur station"ares Verhalten (au\3er im Trivialfall \\ +$D/D/1$) die Bedingung +\begin{displaymath} +\E (u) < 0 \Leftrightarrow \E (x) < \E (t) \Leftrightarrow \rho= +\frac{\E (x)}{\E (t)} < 1 ~. +\end{displaymath} +Wir bezeichnen den Kehrwert von $\E (t)$ als die \index{Ankunftsrate}`Ankunftsrate' $\lambda = +\frac{1}{\E (t)}$ und $\mu = \frac{1}{\E (x)}$ als die \index{Bedienrate}`Bedienrate'. Es +sind dies die Anzahl von Kunden, die in einem langen Zeitraum +durchschnittlich pro Zeiteinheit ankommen bzw. bedient werden, falls +ununterbrochen +bedient wird. Mit diesen Bezeichnungen ist $\rho = \frac{\lambda}{\mu}$ \index{Auslastung}(Auslastung) +und die Bedingung f"ur station"ares Verhalten wird zu $ \lambda < \mu$ bzw.\ +$\rho<1$. +%-------------------------------------------------------------------------- +\section{Der Satz von Little} +%--------------------------------------------------------------------------- +Wir nehmen jetzt an, da\3 in unserer Schlange station"ares Verhalten +herrscht; wir wollen eine Beziehung zwischen der Ankuftsrate, der mittleren +Anzahl der Kunden im System und der mittleren Aufenthaltsdauer finden. +Dazu nehmen wir an, da\3 wir jeden Kunden f"ur die Zeit, die er im System +verbringt, bezahlen m"ussen. Die Summe, die insgesamt zu bezahlen ist, +berechnet sich als $T \E (N)$, da zu jedem Zeitpunkt durchschnittlich $\E +(N)$ +Kunden anwesend sind. Andererseits bekommt jeder Kunde durchschnittlich +$\E (z)$ bezahlt. In der Zeit $T$ kommen $\lambda T$ Kunden an, also ist +die +zu bezahlende Summe auch gleich $\lambda T \E (z)$. + +Beide Gleichungen sind nicht vollst"andig exakt, weil in beiden F"allen +noch zuf"allige Schwankungen dazukommen, und weil bei der zweiten +Gleichung auch nicht ber"ucksichtigt wurde, da\3 einige Kunden noch nach +$T$ bleiben. Diese Fehler sind aber von kleineren Ordnung als $T$. Wir +haben also +\begin{displaymath} +T \E (N) = \lambda T \E (z) + o(T) ~. +\end{displaymath} +Dividieren wir durch $T$ und $T \rightarrow \infty$ gibt +\begin{displaymath} +\E (N) = \lambda \E (z) ~, +\end{displaymath} +d.h. Mittlere Anzahl = Ankuftsrate $*$ Mittlere Aufenthaltsdauer. Wendet +man dieses Ergebnis auf den Server allein an, ergibt sich, da\3 die +Mittlere Anzahl der Kunden, die gerade bedient werden = +\begin{displaymath} +\lambda \E (x) = \frac{\lambda}{\mu} = \rho ~. +\end{displaymath} +Da aber h"ochstens 1 Kunde bedient wird, ist das gleich der +Wahrscheinlichkeit, da\3 der Server besetzt ist, oder der Auslastung des +Servers. +%--------------------------------------------------------------------------- +\chapter{Warteschlangensysteme} +\section{Die Schlange $M/M/1$} +%--------------------------------------------------------------------------- +Im Folgenden gehen wir von der `FCFS'-Disziplin aus. +Um die zuk"unftige Entwicklung einer Warteschlange bestimmen zu k"onnen, +ben"otigen wir 3 Angaben zur Zeit $t$. +\begin{enumerate} +\item Die Anzahl $N_{t}$ der anwesenden Kunden. +\item Die Zeit, die seit der letzten Ankunft vergangen ist. +\item Die Zeit, die seit dem Beginn des letzten Bedienvorgangs vergangen +ist (falls dieser noch andauert). +\end{enumerate} +Die letzten beiden Angaben sind notwendig, damit wir die Verteilung der +verbleibenden Zeit bis zur n"achsten Ankunft bzw. bis zum Ende des +Bedienvorganges bestimmen k"onnen. F"ur den Fall $M/M/1$ sind diese +Angaben nicht notwendig, weil diese Verteilungen wegen der +Ged"achtnislosigkeit der Exponentialverteilung nicht von der schon +verstrichenen Zeit abh"angen. Deshalb gen"ugt uns $N_{t}$ zur Beschreibung +des Systems. + +Wir betrachten jetzt die Anzahl der Kunden zur Zeit $t+ \Delta t$, wenn +die Anzahl zur Zeit t bekannt ist. Die Anzahl kann sich in folgender Weise +"andern: +\begin{enumerate} +\item Es kann gar nichts geschehen. +\item Es kann genau ein Kunde aufkommen. +\item Es kann genau ein Kunde fertig werden. +\item Es kann mehr als ein Ereignis (Ankunft, gehen) auftreten. +\end{enumerate} +Die Wahrscheinlichkeit, da\3 mindestens ein Kunde im Intervall $(t, t+ \Delta t)$ +ankommt, ist $1-e^{-\lambda \Delta t} = \lambda \Delta t + o (\Delta t)$. +Ebenso ist die Wahrscheinlichkeit, da\3 ein Kunde fertig wird $\mu \Delta +t + o(\Delta t)$. Die Wahrscheinlichkeit f"ur 4. ist, wie man leicht +einsieht, $o(\Delta t)$. Das gibt f"ur 1. die Wahrscheinlichkeit $1 - +(\lambda + \mu) \Delta t + o(\Delta t)$. Falls die Schlange leer ist, +fallen nat"urlich die Summanden mit $\mu$ weg (es kann ja niemand gehen). +Somit gilt f"ur +\begin{eqnarray*} +p_{n}(t) &=& \PP (N_{t} = n) \\ +p_{n}(t+ \Delta t) &=& \mu \Delta t . p_{n+1}(t) + (1 - (\lambda + +\mu) \Delta t) p_{n}(t) + \\ + & &+ \lambda \Delta t p_{n-1}(t) + o(\Delta t) +\qquad [n \geq 1] \\ +p_{0}(t + \Delta t) &=& \mu \Delta t . p_{1}(t) + (1 - \lambda \Delta t) +p_{0}(t) + o(\Delta t) ~. +\end{eqnarray*} +Wenn man $p_{n}(t)$ auf die linke Seite bringt und durch $\Delta t$ +dividiert und $\Delta t \rightarrow 0$ l"a\3t, ergibt sich +\begin{eqnarray*} +p'_{n}(t) &=& \mu p_{n+1}(t)-(\lambda + \mu) p_{n}(t)+ \lambda p_{n-1}(t) +\\ +p'_{0}(t) &=& \mu p_{1}(t)- \lambda p_{0}(t) ~. +\end{eqnarray*} +Diese Gleichungen lassen sich etwa mit Hilfe von Transformationen l"osen, +aber das Ergebnis ist nicht besonders sch"on. Wir beschr"anken uns daher +jetzt und in der Folge auf die Bestimmung der station"aren L"osung. Diese +ist nat"urlich dadurch gekennzeichnet, da\3 $p_{n}(t)$ nicht von der Zeit +$t$ abh"angt, also $p'_{n}(t)=0$. Das ergibt die Gleichungen +\begin{eqnarray*} +\mu p_{n+1}-(\lambda +\mu) p_{n} + \lambda p_{n-1} &=& 0 \\ +\mu p_{1} - \lambda p_{0} &=& 0 ~. +\end{eqnarray*} +Durch Induktion erhalten wir daraus +\begin{displaymath} +\mu p_{n+1} - \lambda p_{n} = 0 ~, +\end{displaymath} +oder +\begin{displaymath} +p_{n+1} = \frac{\lambda}{\mu} p_{n} = \rho p_{n} ~. +\end{displaymath} +Also ist +\begin{displaymath} +p_{n} = \rho^{n}p_{0} +\end{displaymath} +und wegen $\sum_{n=0}^{\infty} p_{n} = 1$ +\begin{displaymath} +p_{0} = 1- \rho +\end{displaymath} +und +\begin{displaymath} +p_{n} = \rho^{n} (1- \rho) ~. +\end{displaymath} +Die Anzahl der Kunden im System ist also geometrisch verteilt. Aus dieser +Verteilung k"onnen wir jetzt die Verteilungen von $w$ und $z$ bestimmen. +Die Zeit im System $z$, falls bei der Ankunft $n$ Personen anwesend sind, +ist die Summe von $(n+1)$ exponentialverteilten Zufallsvariablen (die +Bedienzeiten der $n$ anwesenden + die der neu hinzugekommenen), hat also +die Dichte +\begin{displaymath} +f_{z}(u|N_{t}=n) = \frac{u^{n}}{n!} \mu^{n+1} e^{- \mu u} \qquad [u>0] ~. +\end{displaymath} +Die unbedingte Dichte ergibt sich also zu +\begin{eqnarray*} +f_{z}(u) &=& \sum_{n}^{} \PP(N_{t}=n).f_{z}(u|N_{t}=n) = \\ + &=& \sum_{n}^{} (1- \rho) \rho^{n}. \frac{u^{n}}{n!} \mu^{n+1} e^{- \mu +u} = \\ + &=& (1- \rho) e^{- \mu(1- \rho)u} \qquad [u>0] ~. +\end{eqnarray*} +$z$ ist also exponentialverteilt mit Parameter +\begin{displaymath} +\mu (1- \rho) = \mu - \lambda ~. +\end{displaymath} +Die Verteilung von $w$ ist gemischt: $\PP (w=0) = 1- \rho$, und die +bedingte Verteilung von $w$ unter der Bedingung $[w>0]$ ist wieder eine +Exponentialverteilung mit Parameter $\mu - \lambda$. +%---------------------------------------------------------------------------- +\section{Das System $M/G/1$} +%------------------------------------------------------------------------------ +Jetzt ben"otigen wir zus"atzlich zu $N_{t}$ die Information "uber die +schon verbrauchte Bedienzeit. Die einfachste Methode besteht darin, das +System nur in solchen Zeitpunkten zu betrachten, an denen die verbrauchte +Bedienzeit bekannt ist (und zwar = 0), n"amlich die Zeitpunkte $T_{n}$, in +denen der n-te Kunde das System verl"a\3t. Es sei $N_{n}$ die Anzahl der +Kunden, die dann im System verbleiben. Es gilt: Falls $N_{n}=0$, so mu\3 +zuerst gewartet werden, bis ein neuer Kunde ankommt; wenn dieser Kunde +geht, sind noch genau die Kunden da, die w"ahrend seiner Bedienzeit +angekommen sind; bezeichnet man $M_{n}$ als die Anzahl der Kunden, die +w"ahrend der Bedienzeit des $n$-ten Kunden ankommen, so gilt +\begin{displaymath} +N_{n+1} = M_{n} ~. +\end{displaymath} +Falls $N_{n} \not= 0$ ist +\begin{displaymath} +N_{n+1} = N_{n} - 1 + M_{n} ~. +\end{displaymath} +Zusammengefa\3t ergibt sich: +\begin{displaymath} +N_{n+1} = (N_{n} - 1)_{+} + M_{n} ~. +\end{displaymath} +Wir suchen eine station"are L"osung; es sei also $\PP (N_{n}=k)=p_{k}$ +unabh"angig von $n$. Die erzeugende Funktion von $N_{n}$ ist +\begin{displaymath} +P^{*}(z) = \sum_{}^{}p_{k}z^{k} ~. +\end{displaymath} +Die erzeugende Funktion von $(N_{n}-1)_{+}=$ +\begin{eqnarray*} += p_{0} + \sum_{k=1}^{\infty} p_{k} z^{k-1} &=& p_{0}+ \frac{\hat P +(z) - p_{0}}{z} = \\ + &=& \frac{\hat P(z) - p_{0}(1-z)}{z} ~. +\end{eqnarray*} +Mithilfe der Transformationen (Anhang A) ergibt sich die erzeugende Funktion von $M_{n}$ +(die Ank"unfte bilden ja einen Poisson - Proze\3) als +\begin{displaymath} +\tilde B (\lambda(1 - z)) ~, +\end{displaymath} +wobei $B$ die Verteilung der Bedienzeit (mit Dichte $\beta$) ist. Wir +erhalten also +\begin{displaymath} +P^{*}(z) = \frac{(P^{*}(z) - p_{0}(1-z))}{z} \tilde B (\lambda(1-z)) ~, +\end{displaymath} +also +\begin{displaymath} +P^{*}(z) = \frac{p_{0}(1-z) \tilde B ( \lambda (1-z))}{ \tilde B ( +\lambda(1-z)) - z} ~. +\end{displaymath} +Hier ist noch $p_{0}$ zu bestimmen, und zwar aus der Bedingung $P^{*}(1) = +1$. Es ergibt sich $p_{0} = 1 - \rho$ und +\begin{displaymath} +P^{*}(z) = \frac{(1- \rho)(1-z) \tilde B ( \lambda (1-z))}{ \tilde B ( +\lambda(1-z)) - z} ~, +\end{displaymath} +eine sogenannte \index{Pollaczek - Khinchin Formel}Pollaczek - Khinchin Formel. Die Anzahl der Kunden, die der $n$-te +Kunde zur"uckl"a\3t, ist genau die Anzahl der Kunden, die ankommen +w"ahrend er im System ist (d.h. w"ahrend $z_{n}$), d.h. f"ur die +$L$-Transformierte $ \tilde Z (t)$ der Verteilung von $z$ gilt: +\begin{displaymath} +\tilde Z (\lambda(1-z)) = P^{*}(z) ~, +\end{displaymath} +also +\begin{displaymath} +\tilde Z (t) = \frac{(1- \rho)t \tilde B (t)}{t + \lambda \tilde B (t) - +\lambda} ~. +\end{displaymath} +Auch das nennt man eine Pollaczek - Khinchin Formel. F"ur die Wartezeit +gilt +(wegen $z_{n} = w_{n} + x_{n}$) +\begin{displaymath} +\tilde Z (t) = \tilde W (t) \tilde B(t) ~, +\end{displaymath} +also +\begin{displaymath} +\tilde W (t) = \frac{(1- \rho)t}{t + \lambda \tilde B (t) - \lambda} ~. +\end{displaymath} +F"ur die Erwartungswerte ergibt sich: +\begin{eqnarray*} +\E (N) &=& \rho + \frac{\lambda^{2} \E x^{2}}{2(1- \rho)} \\ +\E (Z) &=& \frac{1}{\mu} + \frac{\lambda \E x^{2}}{2(1 - \rho)} \\ +\E (W) &=& \frac{\lambda \E x^{2}}{2(1 - \rho)} ~. +\end{eqnarray*} +%------------------------------------------------------------------------------ +\section{Das System $G/M/1$} +%------------------------------------------------------------------------------ +Jetzt betrachten wir analog zum vorigen Kapitel das System zu den Zeiten +$T_{n}$, wo der $n$-te Kunde ankommt. $N_{n}$ sei die Anzahl der +anwesenden Kunden, die der $n$-te Kunde vorfindet. +\begin{displaymath} +N_{n+1} = N_{n}+1-\mbox{Anzahl der Kunden, die w"ahrend $t_{n+1}$ gehen.} +\end{displaymath} +F"ur $n>0$ gilt, wenn wir $p_{k}= \PP (N_{n}=k)$ (station"ar!) setzen: +\begin{displaymath} +p_{k} = \sum_{j=k-1}^{\infty} p_{j} q_{j+1-k} \qquad [k \geq 1] ~, +\end{displaymath} +wobei +\begin{displaymath} +q_{s} = \PP (\mbox{ $s$ Kunden gehen w" ahrend +$t_{n+1}$)} = +\end{displaymath} +\begin{eqnarray*} += \PP (\mbox{w"ahrend $t_{n+1}$ treten genau $s$ Ereignisse eines Poissons +-} \\ +\mbox{Prozesses mit Rate $\mu$ auf)} ~. & & +\end{eqnarray*} +Die Gleichung f"ur $k=0$ ist "uberfl"ussig, da sie aus den Gleichungen +f"ur $k>0$ und der Beziehung $\sum_{}^{} p_{k}=1$ gefolgert werden kann. +Man kann zeigen, da\3 diese Gleichung eine eindeutige L"osung besitzt. +Falls nun $(p_{k})$ eine L"osung ist, ist auch +\begin{displaymath} +\tilde p_{k} = \frac{p_{k+1}}{1-p_{0}} +\end{displaymath} +eine L"osung. Es mu\3 also +\begin{displaymath} +\tilde p_{k} = p_{k} ~, +\end{displaymath} +somit +\begin{displaymath} +p_{k+1} = p_{k}(1-p_{0}) +\end{displaymath} +und +\begin{displaymath} +p_{k} = p_{0}(1-p_{0})^{k} = +\sigma^{k}(1- \sigma) \qquad [ \sigma := 1 - p_{0}] ~. +\end{displaymath} +Setzt man das in die Gleichung f"ur $k=1$ ein, ergibt sich +\begin{displaymath} +\sigma = \sum_{j=0}^{\infty} \sigma^{j} q_{j} = \tilde A (\mu(1-\sigma)) +~. +\end{displaymath} +Falls $\rho < 1$, gibt es genau eine L"osung $\sigma \in (0,1)$. Dann ist +$N$ geometrisch verteilt mit Parameter $\sigma$. Wie f"ur die Schlange +$M/M/1$ ergibt sich die Verteilung der Zeit $z$ im System als +Exponentialverteilt mit Parameter $\mu(1- \sigma)$; die Wartezeit $w$ hat +$\PP (w=0)= 1 - \sigma$ und die bedingte Verteilung von $w$ unter $[w>0]$ +ist wieder dieselbe Exponentialverteilung wie die von $z$. +%--------------------------------------------------------------------------- +\section{Das System $G/G/1$} +%--------------------------------------------------------------------------- +Hier sind beide Verteilungen - die der Zwischenankunftszeiten und die der +Bedienzeiten - allgemeine Verteilungen. Der Trick der vorigen beiden +Kapitel funktioniert jetzt nicht mehr gut. Um beide Zeiten zu +kontrollieren, m"u\3ten wir das System nun zu den Zeitpunkten betrachten, +in denen ein Kunde das leere System betritt; diese Zeitpunkte sind aber zu +selten, um vern"uftig damit zu arbeiten. Statt dessen gehen wir von der +Rekursion f"ur die Wartezeiten aus: +\begin{displaymath} +w_{n+1} = (w_{n} + u_{n})_{+} ~. +\end{displaymath} +Das bedeutet f"ur die Verteilungsfunktion $W(.)$ von $w$ +\begin{displaymath} +W(x) = \PP (w_{n+1} \leq x) = \left\{ +\begin{array}{lc} +\PP (w_{n} + u_{n} \leq x) & x \geq 0 \\ +0 & x < 0 +\end{array} \right. ~. +\end{displaymath} +Die Wahrscheinlichkeit $\PP (w_{n}+ u_{n} \leq x)$ berechnet sich als +\begin{displaymath} +\PP (w_{n} + u_{n} \leq x) = \int_{- \infty}^{\infty} W(x-u) c(u) du ~, +\end{displaymath} +wobei $c(u)$ die Dichte von $u_{n} = x_{n} - t_{n+1}$ ist. Falls in der +Gleichung f"ur $W(x)$ die Fallunterscheidung nicht auftreten w"urde, w"are +sie leicht durch Transformationen zu l"osen. Wir erreichen dies durch +einen Kunstgriff: Wir setzen +\begin{displaymath} +Y(x) = \left\{ +\begin{array}{lc} +\int_{- \infty}^{\infty} W(x-u)c(u) du & x< 0 \\ +0 & x \geq 0 +\end{array} \right. ~. +\end{displaymath} +Dann ist +\begin{displaymath} +W(x) + Y(x) = \int_{-\infty}^{\infty} W(x-u) c(u) du ~. +\end{displaymath} +Wir bezeichnen jetzt die Laplace - Transformierte von $W$ mit $\Phi (t)$, +und die von $Y$ mit $\Phi^{-}(t)$. Durch partielle Integration zeigt man, +da\3 +\begin{displaymath} +\Phi (t) = \frac{1}{t} \tilde W(t) +\end{displaymath} +gilt. F"ur die Transformationen ergeben sich die Formeln +\begin{displaymath} +\Phi (t) + \Phi^{-}(t) = \Phi (t) \tilde C (t) = \Phi (t) \tilde A (-t) +\tilde B (t) ~, +\end{displaymath} +oder +\begin{displaymath} +\frac{\Phi^{-}(t)}{\Phi (t)} = \tilde A (-t) \tilde B (t) -1 ~. +\end{displaymath} +Wir nehmen an, da\3 $\tilde A(t)$ f"ur $t \geq -D$ existiert. (Das ist +gleichbedeutend damit, da\3 $\PP (t_{n} \geq x)$ wie $e^{-Dx}$ f"allt). +Dann existiert $\tilde A (-t) \tilde B (t) - 1$ f"ur $0 \leq t \leq D$; +Ferner existiert $\Phi (t)$ f"ur $t >0$ und $t \Phi (t)$ ist in $\Re (t) +\geq 0$ regul"ar und beschr"ankt; $\Phi^{-}(t)$ existiert f"ur $t \leq D$ +und in $\Re (t) < D$ ist $t\Phi^{-}(t)$ regul"ar und beschr"ankt. Wir +versuchen 2 Funktionen $\Psi^{+}$ und $\Psi^{-}$ zu finden, die folgendes +erf"ullen: +\begin{enumerate} +\item $\frac{\Psi^{+}(t)}{\Psi^{-}(t)} = \tilde A(-t) \tilde B(t) -1$ ~ ~\index{Spektralzerlegung}(Spektralzerlegung). +\item $\frac{\Psi^{+}(t)}{t}$ ist f"ur $\Re(t)>0$ regul"ar und beschr"ankt +und hat dort keine Nullstellen. +\item $\frac{\Psi^{-}(t)}{t}$ ist f"ur $\Re (t) < D$ regul"ar und +beschr"ankt und hat dort keine Nullstellen. +\end{enumerate} +Dann gilt +\begin{displaymath} +\frac{\Phi^{-}(t)}{\Phi (t)} = \frac{\Psi^{+}(t)}{\Psi^{-}(t)} \qquad +0< \Re (t) < D ~, +\end{displaymath} +oder +\begin{displaymath} +\Phi^{-}(t) \Psi^{-}(t) = \Psi^{+}(t) \Phi (t) \qquad 0< \Re (t) < D ~. +\end{displaymath} +Die linke Seite ist f"ur $\Re (t) < D$ regul"ar und beschr"ankt, die +rechte Seite f"ur $\Re (t) > 0$. Es ist dadurch also eine Funktion +bestimmt, die in der ganzen Ebene regul"ar und beschr"ankt ist. Nach dem +Satz von \index{Satz!LIOUVILLE}LIOUVILLE mu\3 eine solche Funktion konstant sein. Es gilt also +\begin{displaymath} +\Phi (t) = \frac{K}{\Psi^{+}(t)} ~, +\end{displaymath} +und +\begin{displaymath} +\tilde W (t) = \frac{Kt}{\Psi^{+}(t)} ~. +\end{displaymath} +Es bleibt die Konstante $K$ zu bestimmen. Sie folgt wieder aus +\begin{displaymath} +\tilde W (0) = 1 \qquad \mbox{zu} \qquad +K = \frac{\Phi^{+}(t)}{t} \Bigg \bracevert_{t=0} = (\Phi^{+})^{'}(0) ~. +\end{displaymath} +{\bf Beispiel: $M/M/1$} +\begin{displaymath} +A = M_{\lambda}: \quad \tilde A(t) = \frac{\lambda}{\lambda + t}, \quad +B = M_{\mu}: \quad \tilde B(t) =\frac{\mu}{\mu +t} +\end{displaymath} +\begin{eqnarray*} +\frac{\Psi^{+}(t)}{\Psi^{-}(t)} &=& \tilde A(-t) \tilde B(t)-1 = +\frac{\lambda \mu}{(\lambda - t)(\mu + t)} - 1 = \\ + &=& \frac{t(\mu - \lambda + t)}{(\lambda - t)(\mu + t)}. \\ +\Psi^{+}(t) &=& \frac{t(\mu -\lambda + t)}{(t + \mu} \\ +\Psi^{-}(t) &=& (\lambda - t) \\ +\Phi (z) &=& \frac{\Psi^{+'}(0)}{\Psi^{+}(z)} = +\frac{(\mu - \lambda)(\mu +t)}{\mu t(\mu - \lambda + t)} = +\frac{1}{t} - \frac{\lambda}{\mu(\mu - \lambda + t)} \\ +\Psi^{+'}(0) &=& \frac{\Psi^{+}(t)}{t} \Bigg \bracevert_{t=0} =\frac{\mu - +\lambda}{\mu} \\ +F(x) &=& 1 - \rho e^{-(\mu - \lambda)x} \quad \mbox{f"ur} \quad x \geq 0 +\end{eqnarray*} +also die Verteilung der Wartezeit aus dem ersten Kapitel. diff --git a/documents/Warteschlangen/warteschlangen.tex b/documents/Warteschlangen/warteschlangen.tex new file mode 100644 index 0000000..0a86921 --- /dev/null +++ b/documents/Warteschlangen/warteschlangen.tex @@ -0,0 +1,27 @@ +\documentstyle[12pt,german,makeidx]{book} +\setlength{\parindent}{0mm} +\setlength{\parskip}{0.25cm} +\newcommand{\E}{{\rm I\kern-0.2em E}} +\newcommand{\PP}{{\rm I\kern-0.2em P}} +\date{Version 1.0\\October 11, 1999} +\author{Klaus Berger \\ +Pantelis Christodoulides \\ +Karl Grill\thanks{ copyright\copyright 1999 by Karl Grill +( grill@ci.tuwien.ac.at ) +\protect\\ \LaTeX\ source erh"altlich bei: +\protect\\ http://www.ci.tuwien.ac.at/$\sim$grill +\protect\\ Unterliegt der the GNU general public license +\protect\\ Details siehe file ``copying''}} + + +\makeindex + +\begin{document} +\title{Warteschlangentheorie} +\maketitle +\tableofcontents +\input{pantelis.tex} +\input{klaus.tex} +\printindex +\end{document} +