siguiente nivel superior anterior contenidos
Siguiente: Generación de variables multivariantes Nivel anterior: Métodos específicos de generación de vv.aa. Previa: Generación de variables aleatorias discretas

Subsecciones

Generación de variables continuas

Distribución exponencial

Un método que ya se usado varias veces consiste en tomar

\begin{displaymath}x=-\frac{1}{\lambda} \ln u,\end{displaymath}

con $u\equiv U(0,1)$. Otro método, basado en los estadísticos ordenados y que permite generar n valores a la vez, es el siguiente: se generan

\begin{displaymath}u_1, \, u_2,\dots, \, u_n, \, u_{n+1},\dots, \, u_{2n-1}.\end{displaymath}

Ordenando obtenemos $u_{(1)},\dots, \, u_{(n-1)}$ y definimos u(0)=0, u(n)=1. Ahora se hace

\begin{displaymath}x_k=(u_{(k-1)}-u_{(k)}) \ln \prod_{i=1}^n u_i, \, k=1,\dots, \, n.\end{displaymath}

Estos valores corresponden a una variable Exp(1) y son independientes.

Distribución gamma

Sea y $X\equiv \Gamma(\beta, \alpha)$. Como esta distribución es reproductiva respecto del segundo parámetro y una variable $\Gamma(\beta,1)$ es una $Exp(\beta)$, consideramos la siguiente descomposición:

\begin{displaymath}\Gamma(\beta,\alpha) = \sum_{i=1}^{[\alpha]} Exp(\beta) +
\Gamma(\beta,frac(\alpha)).\end{displaymath}

Es por esto por lo que basta limitarse a simular variables $\Gamma(\beta,\alpha)$ con $0<\alpha<1$. El siguiente teorema nos da un método directo para simular estas variables. Si $W\equiv Be(\alpha,1-\alpha)$ y $V\equiv Exp(1)$ son independientes, entonces

\begin{displaymath}WV/\beta  \equiv \Gamma(\beta,\alpha).\end{displaymath}

Demostración:
Sean v>0, 0<w<1. Por la independencia de W y V:

\begin{displaymath}f_{(W,V)}(w,v)= f_W(w) f_V(v) = e^{-v} \frac {1}
{Be(\alpha,1-\alpha)} w^{\alpha-1} (1-w)^{-\alpha} = \end{displaymath}


\begin{displaymath}=e^{-v} \frac {\Gamma(\alpha+1-\alpha)}{\Gamma(\alpha)\Gamma(...
...(\alpha)\Gamma(1-\alpha)} e^{-v} w^{\alpha-1}
(1-w)^{-\alpha}.\end{displaymath}

Se considera el cambio

\begin{displaymath}\left. \begin{array}{ccc} U & = & V \\ X & = & \frac{VW}{\bet...
...c} V & = & U \\ W & = & \frac{\beta X}{U} \end{array} \right \}\end{displaymath}


\begin{displaymath}\frac{\partial (v,w)}{\partial (x,u)} = \left\vert
\begin{ar...
...frac{\beta x}{u^2}
\end{array} \right\vert = -\frac{\beta}{u}.\end{displaymath}

Así

\begin{displaymath}f_{(X,U)} (x,u)= \frac{1}{\Gamma(\alpha) \Gamma(1-\alpha)}
e...
... \frac
{(u-\beta x)^{-\alpha}} {u^{-\alpha}} \frac{\beta}{u} =\end{displaymath}


\begin{displaymath}=\frac {\beta^{\alpha}} {\Gamma(\alpha) \Gamma(1-\alpha)} e^{-u}
x^{\alpha-1} (u-\beta x)^{-\alpha}.\end{displaymath}

El recinto transformado es

\begin{displaymath}u>0, \, 0<x<\frac{u}{\beta}.\end{displaymath}

La distribución marginal de X es

\begin{displaymath}f_X(x)=\int{\frac {\beta^{\alpha}}{\Gamma...
...c} t & = & u-\beta x \\ dt & = & du
\end{array} \right\vert = \end{displaymath}


\begin{displaymath}=\int_0^{+\infty} {\frac{\beta^{\alpha}}
{\Gamma(\alpha) \Ga...
...eta x} x^{\alpha-1} \int_0^{+\infty}
{e^{-t} t^{-\alpha}} dt =\end{displaymath}


\begin{displaymath}=\frac{\beta^{\alpha}}{\Gamma(\alpha) \Gamma(1-\alpha)} e^{-\...
...ac
{\beta^{\alpha}}{\Gamma(\alpha)} x^{\alpha-1} e^{-\beta x}.\end{displaymath}

Luego $X\equiv \Gamma(\beta, \alpha)$.
Q.E.D.

Distribución beta


\begin{displaymath}f(x)=\frac{1}{Be(\alpha,\beta)} x^{\alpha-1} (1-x)^{\beta-1}, \,
0<x<1.\end{displaymath}

Si $ \alpha$, $\beta \geq 1$, entonces f está acotada y se puede aplicar aceptación y rechazo. El valor máximo de f se alcanza en $x^*=\frac{\alpha-1}{\alpha+\beta-2}$ para una cota de

\begin{displaymath}M=f(x^*)=\frac{1}{Be(\alpha,\beta)} \frac{(\alpha-1)^{\alpha-1}
(\beta-1)^{\beta-1}}{(\alpha+\beta-2)^{\alpha+\beta-2}}.\end{displaymath}

Sin embargo, el método sólo es eficiente si tanto $ \alpha$ como $ \beta$ están próximos a uno. En los dos siguientes teoremas veremos dos métodos para simular variables beta de modo eficiente. Si $Y_1 \equiv \Gamma(1,\alpha)$ e $Y_2 \equiv
\Gamma(1,\beta)$ son independientes, entonces

\begin{displaymath}\frac {Y_1} {Y_1+Y_2} \equiv Be(\alpha,\beta).\end{displaymath}

Demostración:

\begin{displaymath}f_{(Y_1,Y_2)}(y_1,y_2) = f_{Y_1}(y_1) f_{Y_2}(y_2) = \frac{1}...
...-1} e^{-y_1} \frac{1}{\Gamma(\beta)} y_2^{\beta-1}
e^{-y_2} = \end{displaymath}


\begin{displaymath}=\frac{1}{\Gamma(\alpha)\Gamma(\beta)}
y_1^{\alpha-1} y_2^{\beta-1} e^{-(y_1+y_2)}, \, y_1, \, y_2>0.\end{displaymath}

Se considera el cambio de variable

\begin{displaymath}\left. \begin{array}{ccc} X_1 &
= & \frac{Y_1}{Y_1+Y_2} \\ X...
..._1 & = & X_1X_2
\\ Y_2 & = & X_2(1-X_1) \end{array} \right \} \end{displaymath}


\begin{displaymath}\frac{\partial (y_1,y_2)}{\partial (x_1,x_2)} = \left\vert
\...
... 1-x_1 \end{array} \right\vert =
x_2 - x_1 x_2 + x_1 x_2 = x_2\end{displaymath}

La densidad conjunta es

\begin{displaymath}f_{(X_1,X_2)} (x_1,x_2) = \frac{1}{\Gamma(\alpha) \Gamma(\bet...
...} x_2^{\alpha-1} x_2^{\beta-1} (1-x_1)^{\beta-1}
e^{-x_2}x_2 =\end{displaymath}


\begin{displaymath}= \frac{1}{\Gamma(\alpha) \Gamma(\beta)}
x_1^{\alpha-1} (1-x_1)^{\beta-1} x_2^{\alpha+\beta-1} e^{-x_2}.\end{displaymath}

El recinto transformado es

\begin{displaymath}0<x_1<1, \, x_2>0.\end{displaymath}

La distribución marginal de X1 es

\begin{displaymath}f_{X_1}(x_1) = \int_0^{+\infty} {\frac {1}
{\Gamma(\alpha) \...
...pha-1} (1-x_1)^{\beta-1}
x_2^{\alpha+\beta-1} e^{-x_2}} dx_2 =\end{displaymath}


\begin{displaymath}= \frac{1}{\Gamma(\alpha) \Gamma(\beta)} x_1{\alpha-1} (1-x_1...
...eta-1}
\int_0^{+\infty} {x_2^{\alpha+\beta-1} e^{-x_2}} dx_2 =\end{displaymath}


\begin{displaymath}=\frac{1} {\Gamma(\alpha) \Gamma(\beta)} x_1^{\alpha-1}
(1-x_1)^{\beta-1} \frac {\Gamma(\alpha+\beta)}{1^{\alpha+\beta}}=\end{displaymath}


\begin{displaymath}= \frac {1} {Be(\alpha,\beta)} x_1^{\alpha-1}
(1-x_1)^{\beta-1}, \quad 0<x_1<1.\end{displaymath}

Luego $X_1 \equiv Be(\alpha,\beta).$
Q.E.D.
Sean U1, $U_2 \equiv U(0,1)$ e independientes, $Y_1=U_1^{\frac{1}{\alpha}}, \, Y_2=U_2^{\frac{1}{\beta}}$. Si $Y_1+Y_2\leq 1$, entonces

\begin{displaymath}\frac {Y_1} {Y_1+Y_2} \equiv Be(\alpha,\beta).\end{displaymath}

Demostración: Como U1 y U2 son independientes, entonces Y1 e Y2 también lo son.

Distribución de Y1 (la de Y2 se obtiene de forma análoga pero considerando $ \beta$ en lugar de $ \alpha$):

\begin{displaymath}Y_1=U_1^{\frac{1}{\alpha}}\Rightarrow \frac{du_1}{dy_1} =
\alpha y_1^{\alpha-1}\end{displaymath}


\begin{displaymath}f_{Y_1}(y_1) = f_{U_1}(u_1(y_1)) \frac{du_1}{dy_1} = 1 \cdot
\alpha y_1^{\alpha-1} = \alpha y_1^{\alpha-1}.\end{displaymath}

El recinto transformado es 0<y1<1. Distribución de (Y1,Y2):

Como Y1 e Y2 son independientes, entonces

\begin{displaymath}f_{(Y_1,Y_2)} (y_1,y_2) = f_{Y_1}(y_1) f_{Y_2}(y_2) = \alpha
\beta y_1^{\alpha-1} y_2^{\beta-1}, \, 0<y_1,y_2<1.\end{displaymath}

Distribución de $\left( \frac{Y_1}{Y_1+Y_2}\vert Y_1+Y_2\leq 1\right) = (X_1\vert X_2\leq
1)$:

Se considera el cambio de variable

\begin{displaymath}\left. \begin{array}{ccc} X_1 &
= & \frac{Y_1}{Y_1+Y_2} \\ X...
..._1 & = & X_1X_2
\\ Y_2 & = & X_2(1-X_1) \end{array} \right \} \end{displaymath}


\begin{displaymath}\left\vert \frac{\partial(y_1,y_2)}{\partial(x_1,x_2)} \right\vert = x_2\end{displaymath}


\begin{displaymath}f_{(X_1,X_2)}(x_1,x_2) = f{(Y_1,Y_2)}
(y_1(x_1,x_2),y_2(x_1,...
...ert \frac{\partial(y_1,y_2)}
{\partial(x_1,x_2)} \right\vert =\end{displaymath}


\begin{displaymath}= \alpha \beta x_1^{\alpha-1}
x_2^{\alpha-1} x_2^{\beta-1} (...
...a \beta
x_1^{\alpha-1} (1-x_1)^(\beta-1) x_2^{\alpha+\beta-1}.\end{displaymath}

El recinto transformado es

\begin{displaymath}0<x_1<1, \, 0<x_2<\text{mín} \left \{ \frac
{1}{x_1}, \, \frac{1}{1-x_1} \right \}.\end{displaymath}

Ahora, si $x_2 \in [0,1]$, entonces:

\begin{displaymath}f_{X_2}(x_2) = \int_0^1 {\alpha \beta
x_1^{\alpha-1} (1-x_1)^{\beta-1} x_2^{\alpha+\beta-1}} dx_1 =\end{displaymath}


\begin{displaymath}=\alpha \beta x_2^{\alpha+\beta-1} \int_0^1 {x_1^{\alpha-1}
...
... dx_1 = \alpha \beta Be(\alpha,\beta)
x_2^{\alpha + \beta -1}.\end{displaymath}

En consecuencia,

\begin{displaymath}f_{X_1} (X_1\vert X_2 \leq 1) = \int_0^1 {f_{X_1} (x_1\vert X...
... =
\int_0^1 {\frac {f_{(X_1,X_2)} (x_1,t)} {f_{X_2}(t)}} dt =\end{displaymath}


\begin{displaymath}= \int_0^1 {\frac {\alpha \beta x_1^{\alpha-1}
(1-x_1)^{\be...
...Be(\alpha,\beta)} x_1^{\alpha-1} (1-x_1)^{\beta-1}, \, 0<x_1<1.\end{displaymath}

Luego

\begin{displaymath}(X_1\vert X_2\leq 1) \equiv Be(\alpha,\beta).\end{displaymath}

Además, la probabilidad de que se acepte el par (y1,y2) en una iteración concreta es

\begin{displaymath}P(Y_1+Y_2\leq 1) = P(X_2 \leq 1) =
\int_0^1 {f_{X_2} (t)} dt = \end{displaymath}


\begin{displaymath}=\int_0^1 {\alpha \beta
Be(\alpha,\beta) t^{\alpha+\beta-1}} dt = \frac {\alpha \beta}
{\alpha+\beta} Be(\alpha,\beta).\end{displaymath}

Q.E.D.

Distribución normal

Para generar una variable $N(\mu,\sigma^2)$, basta generar una variable N(0,1), pues

\begin{displaymath}\mu+\sigma N(0,1) = N(\mu,\sigma^2).\end{displaymath}

Con el fin de generar una variable N(0,1) se considera el cambio de coordenadas siguiente (cambio polar):

\begin{displaymath}\left \{ \begin{array}{ccc} Z_1 & = & \sqrt{-2\ln U_1} \cos (...
..._2 & = & \sqrt{-2 \ln U_1} sen (2\pi U_2), \end{array} \right.\end{displaymath}

con $U_1, \, U_2 \equiv U(0,1)$ e independientes. Las variables Z1, Z2 son N(0,1) e independientes.

Demostración:


\begin{displaymath}\left. \begin{array}{ccc} U_1 & = & e^{-\frac{Z_1^2+Z_2^2}{2}...
...\frac{1}{2\pi} \arctan \frac{Z_2}{Z_1} \end{array}
\right \} .\end{displaymath}

El recinto transformado es $-\infty<z_1, \, z_2 < +\infty$.

\begin{displaymath}\frac {\partial(u_1,u_2)} {\partial(z_1,z_2)} = \left\vert
\...
...y} \right\vert = -\frac {1}
{2\pi} e^{-\frac{z_1^2+z_2^2}{2}}.\end{displaymath}

Así

\begin{displaymath}f_{(Z_1,Z_2)} (z_1,z_2)
= \frac{1}{2\pi} e^{-\frac{z_1^2+z_2...
...\frac{z_1^2}{2}} \frac{1} {\sqrt{2\pi}}
e^{-\frac{z_2^2} {2}}.\end{displaymath}

Luego $Z_1, \, Z_2 \equiv N(0,1)$ y son independientes.
Q.E.D.