siguientenivel superioranteriorcontenidos
Siguiente:Modelos de colas estocásticosNivel anterior:Modelos de colas estocásticosPrevia:Comportamiento transitorio de M/M/1/1

El modelo M/G/1

En este caso, los tiempos de servicio son variables aleatorias independientes, no necesariamente exponenciales, aunque sí idénticamente distribuidas e independientes de los tiempos entre llegadas.
\begin{displaymath}S_i \equiv S >0 \ \text{(v.a. continua)}\end{displaymath}
\begin{displaymath}f_S(s) = \text{función de densidad de } S\end{displaymath}
\begin{displaymath}F_S(s) = \text{función de distribución de } S\end{displaymath}


Sea tn el instante en que se produce la n-ésima salida del sistema.

Justo después de tn, sea Nn el número de clientes en el sistema. Son variables aleatorias con valores enteros (y no negativos): $\{N_n\}_{n=1}^{+\infty}$ es un proceso estocástico en tiempo discreto.

Si existe el estado estacionario, entonces existirá

\begin{displaymath}N=\lim_{n \rightarrow + \infty} N_n.\end{displaymath}


N es el número de clientes tras una salida en estado estacionario. Se pretende calcular E(N).

\begin{displaymath}N_{n+1}= \left \{ \begin {array}{ccccc}N_n & + & \text{nº......S \text{\ unidades de tiempo} & , & N_n=0\end{array} \right. \end{displaymath}


Entonces

Nn+1 = Nn + A - Un,


siendo A el número de llegadas al sistema en S unidades de tiempo (A también es v.a.) y

\begin{displaymath}U_n= \left \{ \begin {array}{ccc}0 & si & N_n=0,\\1 & si & N_n \geq 1.\end{array} \right. \end{displaymath}


Sabiendo que S=s, entonces $A\equiv P(\lambda s)$. Además, usaremos la notación $E(S)=\frac{1}{\mu}$.

\begin{displaymath}E(A)=\int_0^{+\infty} {E(A\vert S=s)} dF_S(s) = \int_0^{+\inf......bda s} dF_S(s) = \lambda E(S) = \lambda \frac {1}{\mu} =\rho.\end{displaymath}


El estado estacionario existe si $\rho<1$.

Como Nn+1 = Nn + A - Un, tomando esperanzas:

\begin{displaymath}E(N_{n+1})=E(N_n) + \rho - E(U_n).\end{displaymath}


Y tomando límites:

\begin{displaymath}E(N) = E(N) + \rho - E(U)\Rightarrow \end{displaymath}
\begin{displaymath}E(U)=\rho .\end{displaymath}


(Probabilidad de que queden clientes en el sistema tras una salida en estado estacionario)

Ahora, como paso previo para el cálculo de E(N), interesa determinar P(Nn+1=j|Nn=i). Es obvio que P(Nn+1=j|Nn=i)=0 si $j=0,1,\dots,i-2$. Basta ahora considerar $j \geq i-1$.

Caso 1: $i\geq 1 \quad (j\geq i-1)$.
 

\begin{displaymath}P(N_{n+1}=j\vert N_n=i)=P(\text{haya \ } j-i+1 \text{\ llegadas al sistemaen\ }S\text{\ unidades} \end{displaymath}
\begin{displaymath}\text{de tiempo})=\int_0^{+\infty} {P(P(\lambda s)=j-i+1)}d......{e^{-\lambda s} \frac{(\lambda s)^{j-i+1}}{(j-i+1)!}}dF_S(s).\end{displaymath}


Este valor no depende de n: son probabilidades estacionarias (sólo dependen del estdo del sistema). Vienen en función de la diferencia j-i. Lo llamaremos kj-i+1 .

Una vez conocida la distribución de S, ya se puede determinar el valor anterior.

Caso 2: $i=0 \ (j\geq 0)$.

Razonando como antes, pero teniendo en cuenta que en esta ocasión deben llegar j:

\begin{displaymath}P(N_{n+1}=j\vert N_n=0) = \dots = \int_0^{+\infty} {e^{-\lambda s}\frac {(\lambda s)^j}{j!}} dF_S(s).\end{displaymath}


Éste es el valor que toma kj .
Calculemos ahora E(N). Se parte de

Nn+1=Nn + A - Un.


Elevamos al cuadrado y tomamos esperanzas:

E(Nn+12)=E(Nn2)+E(A2)+E(Un2)+2E(NnA)-2E(NnUn)-2E(UnA).


Ahora se observa que por definición de Un es E(Un2)=E(Un) y E(NnUn)=E(Nn). Además, A y Nn son independientes (el proceso de llegadas y el proceso de salidas son independientes). De igual modo, A y Un son independientes.

E(Nn+12)=E(Nn2)+E(A2)+E(Un)+2E(Nn)E(A)-2E(Nn)-2E(Un)E(A)


Tomando límites en n y usando $E(A)=\rho$:

\begin{displaymath}E(N^2)=E(N^2)+\rho+E(A^2)+2\rho E(N) -2\rho^2 -2E(N)\Rightarrow \end{displaymath}
\begin{displaymath}E(N)=\frac {\rho - 2\rho^2 + E(A^2)}{2(1-\rho)}.\end{displaymath}


Como $E(A^2)=Var(A) + \rho^2$, basta conocer Var(A).

Para su cálculo se necesita de estos resultados previos:

1.
Si X es una variable aleatoria, entonces Var(X)=E(X2)-E2(X).
2.
Si E(X) es finita y $h:\mathbb{R}\rightarrow \mathbb{R} $,
EY[EX(h(X)|Y=y)]=EX(X).
3.
Si E(X2) es finita, entonces
VarY[EX(X|Y=y)]=VarX(X) - EY[VarX(X|Y=y)].


Los dos primeros resultados son de inmediata demostración, así como el tercero usando el segundo. Ahora, haciendo
\begin{displaymath}\sigma_S^2=Var(S)\end{displaymath}


y teniendo en cuenta que la variable (A|S=s) sigue una distribución $P(\lambda s)$, se tiene:

\begin{displaymath}Var(A)=Var_S(E_A(A\vert S=s)) + E_S(Var_A(A\vert S=s))=Var_S(\lambda S) +E_S(\lambda S) = \end{displaymath}
\begin{displaymath}=\lambda^2 Var_S(S) + \lambda E_S(S) =\lambda^2 \sigma_S^2 + \rho.\end{displaymath}


Así

\begin{displaymath}E(N)= \frac {\rho -2\rho^2 + \rho^2 + \lambda^2 \sigma_S^2 +......o)} = \rho + \frac {\rho^2 + \lambda^2\sigma_S^2}{2(1-\rho)}.\end{displaymath}


Finalmente, calculemos P(N=n). Sea Pj=P(N=j).

Por el teorema de la probabiliad total,

\begin{displaymath}P(N_{n+1}=j)=\sum_{l=0}^{j+1}P(N_{n+1}=j\vert N_n=l)P(N_n=l)= k_jP(N_n=0) +\end{displaymath}
\begin{displaymath}+ k_jP(N_n=1) +k_{j-1}P(N_n=2)+\dots+k_0P(N_n=j+1).\end{displaymath}


Al tomar límites en n:

\begin{displaymath}P_j=P_0 k_j + \sum_{i=1}^{+\infty} P_ik_{j-i+1} \ , \ j=0,1,2 \dots \ ,\end{displaymath}


siendo kl=0 si l<0.

En notación matricial:

\begin{displaymath}\begin{array}{rl}K=& \left(\begin{array}{ccccc}k_0 & k......s & \vdots & \vdots & \ddots\end{array}\right)\end{array}\end{displaymath}


La entrada (i,j) representa la probabilidad de pasar del estado i al estado j en estado estacionario.

Si P=PK para cierto $P=(P_0,P_1,P_2,\dots)$, entonces existirá el estado estacionario.

Las entradas de P vienen dadas por

\begin{displaymath}P_j=P_0 k_j +\sum_{i=1}^{+\infty} P_i k_{j-i+1} \ , \ j=0,1,2,\ldots \end{displaymath}


Multiplicando por sj+1 la j-ésima ecuación:

\begin{displaymath}s^{j+1} P_j = s^{j+1} P_0 k_j + \sum_{i=1}^{+\infty} s^{j+1} P_ik_{j-i+1}.\end{displaymath}


Sumando todas las igualdades obtenidas (y representado por G la función generatriz de probabilidades de N):

\begin{displaymath}s\sum_{j=0}^{+\infty} P_j s^j = P_0 s \sum_{j=0}^{+\infty} k_......^{+\infty} \sum_{i=1}^{j+1} s^{j+1} P_i k_{j-i+1}\Rightarrow \end{displaymath}
\begin{displaymath}s G(s) = P_0 s \sum_{j=0}^{+\infty} k_j s^j +\sum_{j=0}^{+\......1} s^{j+1} P_i k_{j-i+1}= P_0 s\sum_{j=0}^{+\infty} k_j s^j +\end{displaymath}
\begin{displaymath}+\sum_{l=0}^{+\infty} k_l \left( \sum_{t=1}^{+\infty} P_t s......y} k_l s^l(G(s)-P_0)=(s-1)P_0 \sum_{j=0}^{+\infty} k_j s^j + \end{displaymath}
\begin{displaymath}+G(s) \sum_{l=0}^{+\infty} k_l s^l\Rightarrow \end{displaymath}
\begin{displaymath}G(s)=\frac{(1-s) P_0 \sum_{j=0}^{+\infty} k_js^j}{\sum_{j=0}^{+\infty} k_j s^j -s}.\end{displaymath}


Como G(1)=1, utilizando la regla de l'Hôpital se tiene

\begin{displaymath}1=G(1)= \lim_{s\rightarrow 1} \frac{(1-s)\sum_{j=0}^{+\infty}k_j s^j}{\sum_{j=0}^{+\infty} k_j s^j - s} P_0 =\end{displaymath}
\begin{displaymath}=\lim_{s\rightarrow 1} \frac {-\sum_{j=0}^{+\infty}k_j s^j +......} j k_j s^{j-1}}{\sum_{j=1}^{+\infty} jk_j s^{j-1} - 1} P_0 =\end{displaymath}
\begin{displaymath}= \frac{-1}{\sum_{j=1}^{+\infty} j k_j-1} P_0 = \frac{-1}{E(A)-1} P_0 = \frac {P_0}{-\rho+1}\Rightarrow \end{displaymath}
\begin{displaymath}P_0 = 1-\rho.\end{displaymath}


Caso particular: El modelo M/D/1

Los tiempos de servicio son constantes: $\frac{1}{\mu}$.

$E(S)=\frac{1}{\mu}$

kj = P(haya j llegadas en $\frac{1}{\mu}$ unidades de tiempo) =

\begin{displaymath}P(P(\rho)=j)=e^{-\rho} \frac{\rho^j}{j!}.\end{displaymath}


Ahora

\begin{displaymath}\sum_{j=0}^{+\infty} e^{-\rho} \frac{\rho^j}{j!} s^j =e^{-\......\frac{(\rho s)^j}{j!} = e^{-\rho}e^{\rho s} = e^{-\rho(1-s)}.\end{displaymath}


Luego

\begin{displaymath}G(s)= \frac{(1-s)(1-\rho)e^{\rho(s-1)}}{e^{\rho(s-1)}-s} =\frac {(1-s)(1-\rho)}{1-se^{\rho (1-s)}}.\end{displaymath}


Como

\begin{displaymath}G(s)=\sum_{n=0}^{+\infty} s P_n,\end{displaymath}


entonces

Gn)(0)=n! P(N=n).


Así que

\begin{displaymath}P_n= (1-\rho) \sum_{i=1}^n (-1)^{n-i} e^{i\rho} \left [\fra......)!} + \sum_{n-i-1>0}\frac{(i\rho)^{n-i-1}}{(n-i-1)!} \right].\end{displaymath}


Caso particular: el modelo M/M/1

Los tiempos de servicio son $Exp(\mu)$.
 

\begin{displaymath}k_j=P(A=j)=\int_0^{+\infty} {P(A=j\vert S=s) f_S(s)} ds =\i......e^{-\lambda s} \frac {(\lambda s)^j}{j!} \mue^{-\mu s}} ds = \end{displaymath}
\begin{displaymath}=(\lambda+\mu)^{-(j+1)} \lambda^j \mu =\left ( \frac{\rho}{1+\rho} \right )^j \frac {1}{1+\rho}\end{displaymath}


(Distribución geométrica) Ahora

\begin{displaymath}\sum_{j=0}^{+\infty}k_j s^j = \sum_{j=0}^{+\infty} \left (\......rho} \right )^j \frac{1}{1+\rho} s^j = \frac{1}{1+\rho(1-s)}.\end{displaymath}
\begin{displaymath}G(s)= \frac{\frac{(1-s)(1-\rho)}{1+\rho(1-s)}}{\frac{1}{1+\rho(1-s)}-s}=\frac{1-\rho}{1-\rhos}\end{displaymath}


Función generatriz de una distribución geométrica)

Así

\begin{displaymath}P(N=n)=(1-\rho) \rho^n.\end{displaymath}