Variables aleatorias



Descargar 187.05 Kb.
Fecha de conversión14.01.2019
Tamaño187.05 Kb.

TEMA 4

VARIABLES ALEATORIAS




1.- VARIABLES ALEATORIAS. FUNCIÓN DE DISTRIBUCIÓN.

FUNCIÓN DE DENSIDAD.
1.1 VARIABLE ALEATORIA

Lo que se pretende con la variable aleatoria es sustituir el espacio

de resultados por uno numérico, para facilitar la comprensión.
DEFINICIÓN

Se llama variable aleatoria a aquella cuyo valor está determinado

por el valor del experimento.
1.2 TIPOS DE VARIABLES ALEATORIAS

Se llama v.a. discreta a aquella cuyos valores son un nº finito de

números reales distintos.

Se llama v.a. continua a aquella cuyos valores son un intervalo, o

una unión de intervalos sobre la recta de los números reales. Por tanto, puede tomar  valores.
EJEMPLOS


  1. Lanzar 2 dados y que la v.a. X sea la suma de resultados:

La v.a. discreta X es : {2, 3, 4, ......, 12}


  1. Sea el experimento: “conocer el tiempo que se tarda en realizar

un cierto trabajo”.

La v.a. continua X toma  valores.


NOTA

Al conjunto de valores que toma la v.a. X se le denomina rango

de X , rg X .
1.3. DISTRIBUCIÓN DE PROBABILIDAD

Asociamos la v.a. a la probabilidad con la que hacíamos corresponder a cada uno de los resultados, y por tanto, a cada suceso.

Se dice que tenemos una distribución de probabilidad de la v.a. X, cuando asociamos probabilidades a la v.a. que procede de un espacio de resultados probabilizado.
EJEMPLO

Sea el experimento “lanzar una moneda”

 = { cara, cruz }

Sea la v.a. X = nº de caras que obtenemos

Los valores de X son 1 ó 0

Además, P(cara) = P (cruz) = ½

Si hacemos: A = {sacar cara} B = {sacar cruz}

x1= X(A) = 1 P(x1) = P(1) = P(X=1) = ½

x2= X(B) = 0 P(x2) = P(0) = P(X=0) = ½
EJEMPLO

Lanzamos una moneda 10 veces:

X = nº de caras obtenidas.

0  X  10  toma una cantidad de valores finita, luego es de tipo discreto.

Probabilidad de no sacar caras = P(X=0) = (1/2)10

Probabilidad de sacar 1 cara = P(X=1)= (1/2)1 (1/2)9 = (1/2)10

En general:

P(X = x) = (1/2)10



1.4 FUNCIÓN DE DISTRIBUCIÓN

Definimos la función de distribución , F , de una v.a. X , como una

función definida para cada nº real x , de la forma :

F(x) = P(X  x) -  x  

Es decir, una función que nos indica la probabilidad de que la v.a. X tome valores menores o iguales al x dado.

Nos indica la probabilidad acumulada desde el extremo inferior del intervalo, hasta el valor x del dominio de la v.a. X

Como F(x) = P(X  x) es una probabilidad y ésta está comprendida entre 0 y 1  0  F(x)  1
PROPIEDADES

1) 0  F(x)  1 , ya vista

2) La función de distribución es no decreciente a medida que crece

x, o sea :

Si x1 < x2  F(x1)  F(x2)

Veámoslo:

Si x1 x2  P(Xx1)  P(Xx2)  F(x1)  F(x2)

3) En la función de distribución se cumple:

lim F(x) = 0 lim F(x) = 1
Veámoslo:

Si x  - P(X-) = P( ) = 0

Si x + P(X+) = P() = 1

4) P(x1< X x2) = F(x2) - F(x1)

Demostración:

Descomponemos el intervalo (-, x2 en (-, x1 (x1, x2,

disjuntos:

F(x2) = P(Xx2) = P(X (-, x2) = P(X (-, x1) + + P(X (x1, x2) = F(x1) + P( x1 < X x2 )

Despejando:

P(x1 < X x2) = F(x2) - F(x1)

5) La función de distribución es siempre continua por la derecha, o

sea:


F(x) = F(x+) = F(lim (x+)) x
Es inmediata, ya que F(lim (x+)) - F(x) = F(x) - F(x) = 0

F(x) = F(lim(x+)) = F(x+)
Nota: Por la izquierda no tiene por qué ser continua.
1.4.1 FUNCIÓN DE DISTRIBUCIÓN DE UNA V.A. DISCRETA

Si la v.a. es discreta, la función de distribución es escalonada, y los saltos del escalonamiento tendrán un tamaño igual a la probabilidad del punto en que estemos, manteniéndose constante hasta el siguiente punto de la variable.


EJEMPLO

Sea un juego con 5 opciones, numeradas del 1 al 5, con las siguientes probabilidades:

Opción 1 ---------------- P = 0,1

Opción 2 ---------------- P = 0,3

Opción 3 ---------------- P = 0,2

Opción 4 ---------------- P = 0,1

Opción 5 ---------------- P = 0,3
Creamos una v.a. X cuyos valores corresponden al valor que puede tomar la opción:

P(X = 1) = P( 1 ) = 0,1

P(X = 2) = P( 2 ) = 0,3

P(X = 3) = P( 3 ) = 0,2

P(X = 4) = P( 4 ) = 0,1

P(X = 5) = P( 5 ) = 0,3


La función de distribución es F(x) = P(Xx) para x=1, 2, 3, 4, 5 y tomará los siguientes valores:

F( 1 ) = P(X 1) = 0,1

F( 2 ) = P(X 2) = 0,4

F( 3 ) = P(X 3) = 0,6

F( 4 ) = P(X 4) = 0,7

F( 5 ) = P(X 5) = 1


Su representación gráfica es :

1.4.2 FUNCIÓN DE DISTRIBUCIÓN DE UNA V.A. CONTINUA

Si la v.a. es continua, la función de distribución F( x ) es conti-nua por la derecha y por la izquierda.

EJEMPLO

Supongamos una máquina que fabrica piezas de una longitud máxima de 3 cm. , pero no sabemos la longitud que tienen. Por tanto, la longitud será la v.a. X, de tipo continuo pues x [0 , 3, de la que suponemos que conocemos F( x ), siendo :


0 si x = 0

F ( x ) = x2 / 9 si 0 < x 3

1 si x > 3
Evidentemente, P( X 3 ) = 1 la v.a. continua toma valores entre 0 y 3 , su representación gráfica es :


1.4.3 CÁLCULO DE PROBABILIDADES A PARTIR DE LA

FUNCIÓN DE DISTRIBUCIÓN

1) x , se cumple : P(X > x) = 1 - F( x )

Es inmediato, ya que :

P(X > x) = 1 - P(X x) = 1 - F( x ) ( por definición )

2) x se cumple : P(X < x) = F( x- )

Demostración :

Hemos visto, por la propiedad 5, que F(x) = F(x+) = P(X  x)

La diferencia entre P(X < x) y P(X  x) es que en esta última hemos añadido la probabilidad de x, luego P(X < x) = F(x -), que es la función de distribución hasta el valor de X infinitésimamente anterior al x dado.

NOTA

Si la v.a. es continua, no hay saltos, luego :



P(X < x) = P(X  x) = F( x )

3) Dados los valores de X, x1, x2 tales que x1< x2  P(x12) =

= F(x2-) - F(x1)

Veámoslo :

P(x1< X< x2) = P(X< x2) - P(X  x1)

Como P(X< x2) = F(x2-) y P(X  x1) = F(x1) , se tiene que :

P(x1< X< x2) = F(x2-) - F(x1)

4)  x se cumple : P(X = x) = F(x+) - F(x -)

Demostración :

P(X = x) = P(X  x) - P(X< x)  P(X = x) = F(x +) - F(x -)

Si la v.a. es continua :

P(X = x) = F( x ) - F( x ) = 0


EJEMPLO

Sea la función de distribución de X de tipo discreto :


0 si x < 1

F( x ) = 0,3 si x = 1

0,6 si x = 2

1 si x > 3


Calcular :

a) P( X > 2 )

b) P( 1 < X  2 )

c) P( X < 2 )

d) P( X = 2 )
Resolución :

a) P( X > 2 ) = 1 - P( X  2 ) = 1 - F( 2 ) = 1 - 0,6 = 0,4

b) P(1 < X  2) = F( 2 ) - F( 1 ) = 0,6 - 0,3 = 0,3

c) P( X < 2 ) = F( 2 -) = 0,2

d) P( X = 2 ) = F( 2 +) - F( 2 -) = 0,6 - 0,3 = 0,3
EJEMPLO

Sea la función de distribución de X , de tipo continuo :


0 si x  0

F( x ) = x2/9 si 0 < x  3

1 si x > 3

Calcular :

a) P( X > 1,3 )

b) P( X = 2 )


Resolución:

a) P( X > 1,3 ) = 1 - P( X  1,3 ) = 1 - F( 1,3 ) = 1 - (1,3)2 / 9 = 0,812

b) P( X = 2 ) = F( 2 +) - F( 2 -) = F( 2 ) - F( 2 ) = 0

por ser continua


1.5 FUNCIÓN DE PROBABILIDAD ( O DE CUANTÍA )

Vamos a definir una función que nos especificará la probabilidad de los diversos valores de la variable, cuando es discreta.


DEFINICIÓN

Dada una v.a. X, de tipo discreto, se llama función de probabili-dad P(X) a una función real, tal que cuando la v.a. X toma un determinado valor xi , es igual a la probabilidad de que ocurra el suceso que viene asociado a dicho valor xi de la variable. Es decir :

P(xi) = P( suceso al que representa xi , según la v.a. X )
PROPIEDADES

1) 0  P(x)  1  x

2)  P(x) = 1  x

3) P(x1  X  x2) =  P(x)

4) F( x1 ) =  P(x)
EJEMPLO

Sea el experimento de lanzar dos dados, en el que nos interesa la diferencia entre los resultados.


X = número mayor - número menor

Su campo de definición es { 0, 1, 2, 3, 4, 5 }

Por medio de la regla de Laplace podemos calcular la probabili-dad de cada resultado :

P(X = 0) = P( 0 ) = 6 / 36

P( 1 ) = 10 / 36

P( 2 ) = 8 / 36

P( 3 ) = 6 / 36

P( 4 ) = 4 / 36

P( 5 ) = 2 / 36
Es función de probabilidad, pues cumple las dos condiciones fun-damentales :

- Todas las probabilidades están entre 0 y 1

- Sumadas obtenemos el valor 1
La forma analítica de esta función será :
6 / 36 si x = 0

P( x ) =

12 / 36 - 2 / 36 · x si 1  x  5
Su representación gráfica será :

Por ejemplo :

P( 2 < X  4 ) = P( 3 ) + P( 4 ) = 6/36 + 4/36 = 10/36

por la propiedad 3


1.6. FUNCIÓN DE DENSIDAD

Cuando el experimento da lugar a una v.a. X continua, la variable da lugar a una función de distribución F(x) de tipo continuo, no exis-tiendo probabilidad para un valor concreto de la variable.

La representación de F(x) será :

La probabilidad de que la variable esté comprendida en el inter-valo [A, B es F( B ) - F( A ).

Si dividimos la probabilidad de que un valor de X esté en un intervalo, por la longitud del intervalo, obtenemos la densidad media de probabilidad en dicho intervalo, que será : F( B ) - F( A )

B - A
DEFINICIÓN

Se define la función de densidad en un punto x, como el límite de la densidad media de probabilidad de un intervalo, cuando la longitud del intervalo tiende a cero. Se representa por f(x) y será :
f(x) = lim F(x + x) - F(x) = F’(x)

x

Vemos pues que la función de densidad es la derivada de la fun-ción de distribución, f(x) = F’(x)


PROPIEDADES

1) La función de densidad es siempre positiva

Demostración :

Como la variable es continua  la función de distribución es siempre creciente  su derivada (función de densidad o de cuantía) es positiva.


2) f(+) = f(-) = 0

Veámoslo :

f(+) = lim F(+ + x) - F(+) = lim 1 - 1 = 0

x x


f(-) = lim F(- + x) - F(-) = lim 0 - 0 = 0

x x
3) La función de distribución es una primitiva de la función de den-sidad, ya que f(x) = F’(x)

Por tanto :

F(x) =

Demostración :

= [ F( t ) = F(x) - F(- ) = F(x) - 0 = F(x)
4) Dada una v.a. X con función de densidad f(x), se cumple :

= 1

Veámoslo :



= F(+) - F(-) = 1 - 0 = 1
EJEMPLO

Sea X una v.a. continua, cuya función de distribución es :


0 para x  0

F( x ) = x3 para 0 < x  1

1 para x > 1
La función de densidad será f(x) = F’(x) = 3x2 , luego :

3x2 0  x  1

f(x) =

0 en el resto


Veamos que realmente es función de densidad :

2dx = 2 dx = [ x 3  = 1 - 0 = 1
La representación gráfica es :

La superficie entre la curva y el eje OX tiene valor 1 .

La probabilidad de que x pertenezca a cierto intervalo está en la superficie generada por la curva y el eje OX, y las verticales de los extremos del intervalo.
Por ejemplo, P(0.5 < x < 0.7) =2dx =[ x 3 = (0.7)3 - (0.5)3= =0.343 - 0.125 = 0.218
EJEMPLO

Dada la función de cuantía P(X=i)=K i para i=1,2,3,...,20, hallar :

a) P(X = 4)

b) P(3  X  10)

c) P(X2  100)
Resolución :

Calculamos K para que sea función de cuantía :

 x ,  P(x) = 1

 K i = 1  K  i = 1  K 1 + 20 . 20 = 1  210 K = 1 

2

 K = 1_



210
Luego P(X = i) = _i_

210
a) P(X = 4) = _4_

210
b) P(3  X  10) = P(X  10) – P(X  2) = 1_  i - 1  i =

210 210


= _1_ . 1 + 10 . 10 - 1_ . 1 + 2 . 2 = _52_

210 2 210 2 210


c) P(X2  100) = P(-10  X  10) = P(X  10) = _1_ .  i = _55_

 210 210

X  0
1.7. ESPERANZA MATEMÁTICA

También se le llama valor esperado de la distribución. Es el valor central sobre el que se concentra la distribución de probabilidad. Es semejante a la media de una distribución de frecuencias.


Dada una v.a. X, definimos su esperanza como:
 x i · P( x i )  i si la v.a. es discreta

E ( X ) =

x · f( x ) dx si la v.a. es continua
Sirve para saber las posibles ganancias o pérdidas en los juegos de azar. Se dice que un juego es justo cuando la esperanza es cero.
EJEMPLO.

Sea una v.a. discreta de valores , siendo su función de cuantía. Obtener su esperanza.



EJEMPLO


Sea una v.a. contínua X definida en el intervalo , cuya función de densidad es Hallar su media.

A partir de la esperanza de la v.a. X, se puede obtener su varianza:


Var( X ) = E( X 2 ) -  E( X ) 2

EJEMPLO


Calcular la esperanza y la varianza de una v.a. continua con función de densidad :
_1_ si x  (0, 1)



f( x ) =

0 si x  (0, 1)


Solución :

E ( X ) = x · f( x ) dx = _x_ dx = _1_

2 x 3
E ( X 2) = x2 · f( x ) dx = _x2_ dx = _1_

2 x 5
Var ( X ) = E ( X 2) – [ E ( X ) ] 2 = _1_ _ _1_ 2 = _4_

5 3 45


2.- MODELOS DE PROBABILIDAD
INTRODUCCIÓN

Si un conjunto dado de variables aleatorias (distribuciones) tienen sus funciones de cuantía o de densidad con la misma estructura funcional matemática, diremos que pertenecen a la misma familia de distribuciones o al mismo modelo de probabilidad.

La estructura matemática depende de 1 ó más parámetros, y se les llama parámetros de la distribución.

Para estudiar los tipos de modelos de distribución utilizaremos el llamado proceso experimental, que es el conjunto de características que rigen la realización de un fenómeno aleatorio. Un proceso quedará definido por una serie de características o hipótesis. A partir de estas características, podremos estudiar y determinar la estructura matemática de una distribución.


2.1 DISTRIBUCIONES DISCRETAS DE PROBABILIDAD

2.1.1 DISTRIBUCIÓN DE BERNOUILLI

Experimento :

Realizar una prueba con únicamente dos resultados posibles, A (éxito) y A (fracaso).

Llamaremos p = P(A) y q = 1 – p = P(A)

Variable :

X = nº de éxitos rg X = { 0, 1 }


Se denota X  Be(p)
Se tiene :
px (1 – p)1-x x = 0, 1

f(x) =


0 en otro caso

0 si x < 0

F(x) = 1 - p si 0  x < 1

1 si x  1


E(X) = 0·p + 1·q = p
Var(X) = p·(1 – p) = p·q
EJEMPLOS

Tirar una moneda (cara o cruz)

Aprobar o suspender un examen

Recibir o no una llamada



2.1.2 DISTRIBUCIÓN BINOMIAL

Experimento :

n repeticiones independientes de un experimento Bernouilli; es decir, experimentos con dos resultados posibles (éxito y fracaso) y probabilidades p = P(éxito) y q = 1 – p = P(fracaso) . Dichas probabilidades se mantienen constantes a lo largo de las n repeticiones.

Si hay extracción, debe realizarse con reemplazamiento.

Variable :

X = nº de éxitos en las n pruebas rg(X) = {0, 1, 2, 3,....}


Se denota X  Bi(n, p)
Se tiene :
px (1 – p)n-x si x = 0, 1, 2, ....., n

f(x) =


0 en el resto
F(x) =  px · qn-x
E(X) = np
Var(X) = np(1-p) = npq
EJEMPLOS

Si tiramos una moneda 5 veces, calcular la probabilidad de obtener 3 caras.

Solución:

Sea X = nº de caras, entonces X  Bi(5, 0.5) , y tenemos que hallar P(X = 3)


P(X = 3) = · (0.5)3 · (1 – 0.5)5-3 = 0.03125
En una población, el 35 % son demócratas. Elegimos 15 per-sonas. ¿Cuál es la probabilidad de que entre ellas haya 10 demó-cratas? ¿Y de que el número de demócratas sea menor que 6? ¿Y de que sean una cantidad menor o igual que 3?

Veámoslo:

Si X = nº de demócratas, entonces X  Bi(15, 0.35), y nos piden calcular P(X = 10), P(X < 6) y P(X  6)
P(X = 10) = · (0.35)10 · (0.65)5
P(X < 6) =  · (0.35)k · (0.65)15-k
P(X  3) =  · (0.35)k · (0.65)15-k
TEOREMA DE ADICIÓN

Se dice que una distribución verifica el Teorema de Adición para alguno de sus parámetros, o que es reproductiva, cuando dadas dos o más variables aleatorias independientes que sigan todas ellas una distribución de ese tipo con parámetros iguales o distintos, la v.a. suma de todas ellas sigue también una distribución de ese tipo con parámetros la suma de los parámetros de cada una de las variables originales.


En particular, la distribución binomial verifica el Teorema de Adición para el parámetro n, debiendo ser el parámetro p de las variables originales el mismo.

X1  Bi(n1,p), X2  Bi(n2,p),...., Xm  Bi(nm,p) independientes entre ellas   X i  Bi(n1 + n2 + .... + nm , p)


2.1.3 DISTRIBUCIÓN HIPERGEOMÉTRICA

Experimento :

n repeticiones no independientes de un experimento con dos resultados posibles ( éxito y fracaso ) y probabilidades p = P(éxito) y q = P(fracaso) , que no se mantienen constantes a lo largo del experimento . Equivale a un modelo de urnas sin reemplazamiento (sería como una Bernouilli con probabilidades no constantes)



Variable :

X = nº de éxitos en las n pruebas rg (X) = { 0, 1, 2, ...}


Se denota X  HG(N, n, p) , siendo :

N = nº de elementos totales

n = nº de pruebas

p = P(éxito)


Se tiene :

f(x) = x = 0, 1, 2, ...., n

F(x) = 

E(X) = n·p


Var(X) = npq N – n

N – 1
EJEMPLO

En una reunión hay 6 mujeres y 9 hombres. Se eligen al azar 4 personas. Hallar las probabilidades de que entre éstas haya 1º 2 mujeres, luego que el nº de mujeres sea menor que 3, y por último que haya como mucho una mujer.

Resolución:

Sea X = nº de mujeres, entonces X  HG(15, 4, 0.4)
P(X = 2) =

P(X < 3) = 


P(X  1) = 

2.1.4 DISTRIBUCIÓN DE POISSON

Experimento :

Observar un cierto fenómeno físico de naturaleza aleatoria durante un cierto periodo de tiempo o una región del espacio, con las siguientes características :



  1. el nº de ocurrencias en dos intervalos disjuntos es independiente

  2. la probabilidad de que haya una ocurrencia en un intervalo pequeño es proporcional a la longitud del intervalo

  3. la probabilidad de que haya dos o más ocurrencias en un intervalo pequeño debe ser de menor orden que la probabilidad de que haya sólo una ocurrencia

Variable :

X = nº de ocurrencias en un intervalo de tiempo en un interva-


lo de tiempo o espacio rg(X) = {0, 1, 2, 3, ....}

Se denota X  Po()

El parámetro  que distingue una distribución de otra suele

ser una especie de “intensidad”, y se corresponde con la media de

la distribución.

Se tiene :


e- · x x = 0, 1, 2, ......

x!

f(x) =



  1. en otro caso

F(x) =  e- ·x

x!

E(X) = 
Var(X) = 



EJEMPLOS

Supongamos que la v.a. X = “nº de accidentes en una carre-

tera en un mes “ sigue una distribución Poisson de parámetro 6,

X  Po(6). ¿Cuál es la probabilidad de que en un mes hayan me-

nos de 4 accidentes?

Nos piden P(X < 4) =  e-6 · 6x

x!
Sea Y = “nº de llamadas en una centralita en 5 minutos” . Si

se reciben 20 llamadas en 10 minutos, calcular cómo se distribuye la v.a. Y. Obtener P(Y = 6) y P(2 < Y  7)


TEOREMA DE ADICIÓN

La distribución de Poisson verifica el Teorema de Adición para el parámetro .

X1  Po(1), X2  Po(2), ...., Xm  Po(m) , independientes entre ellas   Xi  Po(1 + 2 + ..... + m)
APROXIMACIÓN DE LA POISSON POR LA BINOMIAL

Si X tiene una distribución binomial con n grande y p pequeño (n   , p  0), X se puede aproximar por una distribución de Poisson de parámetro  = np. Para que sea buena la aproximación , np < 5. Utilizaremos la aproximación cuando el valor n no esté en tablas y el valor de p sea pequeño.



2. 2 DISTRIBUCIONES CONTINUAS DE PROBABILIDAD
2. 2. 1 DISTRIBUCIÓN UNIFORME

Experimento :

Cualquier experimento cuyo resultado sea un nº en el inter-valo [a, b] de manera que cualquiera de los infinitos puntos del intervalo tenga la misma probabilidad de ser elegido. Es decir, la probabilidad está uniformemente repartida por todo el intervalo.



Variable :

X = valor obtenido rg(X) = [a, b]


Se denota X  U(a, b)
Se tiene :

_1__ si a  x  b

b - a

f(x) =


  1. en otro caso

F(x) = _ 1__ dx

b – a
E(X) = b + a

Var(X) = (b – a)2

12
EJEMPLO

Supongamos que la concentración de un cierto contami- nante se encuentra distribuida U(4, 20). Si se considera como tóxica una concentración de 16 ó más, ¿cuál es la probabilidad de que una muestra de concentración de ese contaminante sea tóxica?

Según los datos :

__1__ 4  x  20

20 – 4

f(x) =


  1. en el resto

Veremos la resolución de dos maneras :



1ª forma :

F(x) = _1_ dx = x – 4


  1. 16

P(X  16) = 1 – P(X < 16) = 1 – F(16) = 1 – 16 – 4 = 0.25

16

2ª forma :

P(X  16) = _1_ dx = 20 – 16 = 0.25



  1. 16



2. 2. 2 DISTRIBUCIÓN EXPONENCIAL

Experimento :

Proceso experimental con las mismas características que estudiábamos al definir el modelo de Poisson.



Variable :

X = “tiempo de espera hasta que se produce el primer fenómeno”,o “tiempo de espera entre dos fenómenos consecutivos”

rg(X) = [0, +[ Se denota X  Ex()

Se tiene :


f(x) = ·e-x x  0
F(x) = P(X  x) = ·e-x dx = 1 - e-x
E(X) = 1

Var(X) = _1_



2
FUNCIÓN DE SUPERVIVENCIA

Si el significado de la v.a. es “tiempo que transcurre hasta que se produce el primer fallo”, entonces F(x) = 1 – e-x calculará la probabilidad de que el fallo ocurra antes o en el instante x .

Si consideramos la función S(x) = 1 – F(x) = P(X > x) = e-x (función de supervivencia) será la probabilidad de que el fallo transcurra después del tiempo x, por tanto, será la probabilidad de que el elemento considerado “sobreviva” al tiempo x .
PROPIEDAD

La distribución exponencial no tiene memoria

P(X>s+t / X>s) = P(X > s+t) = P(X > t)

P(X > s)
EJEMPLO

Sea X una v.a. Ex(5). Calcular P( X = 5.5 )

P(X = 5.5) = 5 · e-5 · 5.5



2. 2. 3 DISTRIBUCIÓN NORMAL . TEOREMA CENTRAL DEL

LÍMITE .

La distribución normal es la más importante de todas las distribuciones de probabilidad. Hay tres razones principales :

a) por sus propiedades matemáticas. En la parte de Inferencia, podremos conocer y trabajar con la distribución de los estimadores si vienen de una población normal .

b) por su aplicación. Un gran número de fenómenos reales se pueden modelizar con esta distribución (como la distribución de alturas y pesos de una población homogénea de personas)

c) por el Teorema Central del Límite. La distribución normal sirve para aproximar la suma y la media de cualquier otro tipo de distribuciones.

DEFINICIÓN

Una v.a. X tiene una distribución normal con parámetros  y 2, (- <  < + , 2 > 0), si X tiene una distribución continua cuya función de densidad es :

f(x) = __1__ e -1 · (x-)_  x  R

22
Se denota X  N(, 2) , y se tiene :
F(x) = _1__ e -1 · (x-)_  x  R

22
E(X) = 
Var(X) = 2
La representación gráfica de la función de densidad es simétrica respecto a la media  y la media es también moda y mediana de la distribución. Tiene forma de campana; la densidad decrece a ambos lados de  más o menos rápido según el valor de 2.
TEOREMA (de las transformaciones lineales)

Sea X  N(, 2), y sea Y = a X + b, siendo a y b constantes. Entonces Y N(a+b, a22)


COROLARIO

Sea X  N(, 2) ,entonces la nueva v.a. Z = X -  N(0,1)


DISTRIBUCIÓN NORMAL TIPIFICADA

La distribución normal con media 0 y varianza 1 se denomina distribución normal tipificada, Z  N(0,1). La función de distribución de esta v.a. se denota por , con (z) = P(Z  z), y se utiliza para el cálculo de probabilidades con tablas, pues las probabilidades acumuladas para la v.a. Z están tabuladas.

Por ser la distribución simétrica se cumple :

P(Z  z) = P(Z > -z) = 1 - P(Z  -z)

Así, (-z) = 1 - (z)
EJEMPLO

Sea Z  N(0,1) . Calcular : P(Z  2), P(Z > 1.5) , P(1 Z  2.1) , P(Z  -0.65)

P(Z  2) = (2) = 0.9773

P(Z > 1.5) = 1 - P(Z  1.5) = 1 - (1.5) = 1 - 0.9332 = 0.0668

P(1 Z  2.1) = P(Z  2.1) - P(Z  1) = (2.1) - (1) = 0.9821 - 0.8413 = 0.1408

P(Z  -0.65) = (-0.65) = 1 - (0.65) = 1 - 0.7422 = 0.2578


EJEMPLO

Sea X  N(10,25). Calcular : P(X > 15) , P(X  12), y P(10 < X  16)

Primero hay que tipificar la v. a. X. Es decir, convertirla en una v.a. de media 0 y varianza 1.

P(X > 15) = 1 - P(X  15) = 1 - P X - 1015 - 10

25 25

Ahora Z = X - 10  N(0,1) , y por tanto, la probabilidad



25 anterior se puede escribir 1 - P(Z  1) = 1 - (1) = 1 - 0.8413 = = 0.1587

Análogamente se obtiene :

P(X  12) = 0.6554

P(10 < X  16) = 0.3849


TEOREMA DE ADICIÓN

Sean X1, X2, ....., Xn n v.a.‘s independientes, tales que cada una de ellas se distribuye Xi  N(i, i2) . Entonces :

X1 + X2 + ..... + Xn  N(1 + 2 + .... + n , 12 +22 + .... +n2 )
COROLARIO

Sean X1, X2, ....., Xn n v.a.‘s independientes, tales que cada una de ellas se distribuye Xi  N(i, i2) . Consideramos a1, a2, ......, an, b constantes con al menos algún ai  0.

Entonces la v.a. Y = a1 X1 + a2 X2 + ..... + an Xn + b se distribuye N(Y, Y 2) , donde los parámetros son :

Y = a11 + a22 + ..... + ann + b ,

Y 2 = a12 12 + a22 22 + .... + an2n2 )
TEOREMA CENTRAL DEL LÍMITE

Sean X1, X2, ....., Xn n v.a.‘s independientes y con la misma distribución de media  y varianza 2 , entonces para x fijo se tiene :


Interpretación :

Si se selecciona una muestra aleatoria grande de cualquier distribución con media  y varianza 2 , independientemente de si la distribución es discreta o continua, entonces la distribución de la v.a. será aproximadamente una normal tipificada.


Esto equivale a que :

a) Xn tiene aproximadamente una distribución N(, 2 )


b) X1 + X2 + ..... + Xn se distribuye aproximadamente como N(n , n 2 )

Por consiguiente, podemos aproximar las distribuciones discretas Binomial y Poisson a una normal de la siguiente manera :

Si X  Bi(n, p) con n   , p alrededor de 0.5, entonces X - np  N(0,1)
Si Y  Po() con    entonces Y -  N(0,1)



En ambos casos se puede aplicar para valores de n y  que no estén en las tablas correspondientes.









Compartir con tus amigos:


La base de datos está protegida por derechos de autor ©odont.info 2019
enviar mensaje

    Página principal