lunes, 2 de junio de 2014

Distribución exponencial





Distribución Normal

La distribución de probabilidad conocida como distribución normal es, por la cantidad de  fenómenos que explica, la más importante de las distribuciones estadísticas.

A la distribución normal también se la denomina con el nombre de campana de Gauss, pues al  representar su función de probabilidad, ésta tiene forma de campana.

En el math-block sobre la distribución binomial se introduce el concepto de variable aleatoria,  distinguiendo además dos tipos de variables, las discretas y las continuas. En este apartado  seguimos con el estudio de distribuciones de probabilidad analizando la distribución de  probabilidad continua más importante, la distribución normal.

A continuación veremos las características principales de una distribución de probabilidad normal,  definiendo posteriormente la distribución normal estándar así como sus usos.

La Normal es la distribución de probabilidad más importante. Multitud de variables aleatorias  continuas siguen una distribución normal o aproximadamente normal.
Una de sus características más importantes es que casi cualquier distribución de  probabilidad, tanto discreta como continua, se puede aproximar por una normal bajo ciertas  condiciones.

La distribución de probabilidad normal y la curva normal que la representa, tienen las  siguientes características:

• La curva normal tiene forma de campana y un solo pico en el centro de la  distribución. De esta manera, la media aritmética, la mediana y la moda de la distribución son iguales y se localizan en el pico. Así, la mitad del área bajo la curva se encuentra a la derecha de este punto central y la otra mitad está a la izquierda de dicho punto.
La distribución de probabilidad normal es simétrica alrededor de su media.

• La curva normal desciende suavemente en ambas direcciones a partir del valor  central. Es asintótica, lo que quiere decir que la curva se acerca cada vez más al eje

X pero jamás llega a tocarlo. Es decir, las “colas” de la curva se extienden de manera  indefinida en ambas direcciones.

‰ La distribución normal estándar:

Se observó que no existe una sola distribución de probabilidad normal, sino una “familia” de  ellas. Como sabemos, cada una de las distribuciones puede tener una media (µ) o una  desviación estándar distinta (σ). Por tanto, el número de distribuciones normales es ilimitado y  sería imposible proporcionar una tabla de probabilidades para cada combinación de µ y σ.

Para resolver este problema, se utiliza un solo “miembro” de la familia de distribuciones normales, aquella cuya media es 0 y desviación estándar 1 que es la que se conoce como distribución estándar normal, de forma que todas las distribuciones normales pueden convertirse a la estándar, restando la media de cada observación y dividiendo por la desviación estándar.

Primero, convertiremos la distribución real en una distribución normal estándar utilizando un  valor llamado Z, o estadístico Z que será la distancia entre un valor seleccionado, designado
X, y la media µ, dividida por la desviación estándar σ

Formalmente, si X N(µ,σ) , entonces la v.a.   σ−µ = X Z se distribuye según una normal de media 0 y desviación estándar 1, i.e.: Z N(0,1) , que es la distribución llamada normal estándar o tipificada.

De esta manera, un valor Z mide la distancia entre un valor especificado de X y la media  aritmética, en las unidades de la desviación estándar. Al determinar el valor Z utilizando la  expresión anterior, es posible encontrar el área de probabilidad bajo cualquier curva normal  haciendo referencia a la distribución normal estándar en las tablas correspondientes.

Así pues, para averiguar el área anterior utilizaremos la tabla que encontraremos al final de  este apartado. Dicha tabla nos proporciona la probabilidad de que la v.a. normal estándar Z  tome un valor situado a la izquierda de un número c, i.e.: P(Z<c). En otras palabras, esta  tabla nos da el valor del área encerrada por f(x) entre -∞ y c.


domingo, 4 de mayo de 2014

tutorial alma https://www.facebook.com/l.php?u=https%3A%2F%2Fwww.youtube.com%2Fwatch%3Fv%3DNFJFFhoTCiY%26feature%3Dyoutube_gdata_player&h=sAQFQNle4

martes, 29 de abril de 2014

Esperanza matemática

 La esperanza matemática de una función g(X) está dada por

 

donde f(X) es, respectivamente, la función de probabilidad o la función densidad de probabilidad y g(X) es cualquier función de valores reales que está definida para todos los valores posibles de X.
Ejemplo 15: La probabilidad de que una casa de cierto tipo quede destruida por un incendio en cualquier período de doce meses es de 0.005. Una compañía de seguros ofrece al propietario una póliza de seguros contra incendio por $20,000.00 (dólares) a un año con una prima de $150.00 dólares. ¿Cuál es la ganancia esperada de la compañía?
Solución: Sea S = {se incendie, no se incendie}, el espacio muestral, La variable aleatoria asociada es X = {0,1}, donde 0 significa que se incendie y 1 que no se incendie (estos valores son arbitrarios). g(X) representa la ganancia de la compañía por cada casa asegurada (sin tomar en cuenta gastos). La situación se explica mejor en una tabla.


Evento
X
g(X)
f(X)
Se incendie
0
-$19,850.00
0.005
No se incendie
1
+$150.00
0.995


En caso de que la compañía asegure 20,000 casas, su ganancia esperada sería de $1,000,000.00 (sin tomar en cuenta gastos).

La esperanza matemática de una función g(X) está definida por:


PROPIEDADES DE LA ESPERANZA MATEMÁTICA

Proposición 4.1: E[a g(X) +b h(X)] = a E[g(X)]+b E[h(X)]; a, b constantes. [4.4]

Demostración:


Nota si X es discreta, la demostración se hace en la misma forma, usando sumatorias en vez de integrales.

Proposición 4.2: E[c1 X + c2] = c1 E [X] + c2 [4.5]

Demostración:

Distribución hipergeométrica

  La distribución hipergeométrica es especialmente útil en todos aquellos casos en los que se extraigan muestras o se realizan experiencias repetidas sin devolución del elemento extraído o sin retornar a la situación experimental inicial.
    Modeliza , de hecho, situaciones en las que se repite un número determinado de veces una prueba dicotómica de manera que con cada sucesivo resultado se ve alterada la probabilidad de obtener en la siguiente prueba uno u otro resultado. Es una distribución .fundamental en el estudio de muestras pequeñas de poblaciones .pequeñas y en el cálculo de probabilidades de, juegos de azar y tiene grandes aplicaciones en el control de calidad en otros procesos experimentales en los que no es posible retornar a la situación de partida.
    La distribución hipergeométrica puede derivarse de un proceso experimental puro o de Bernouilli con las siguientes características:
            · El proceso consta de n pruebas , separadas o separables de entre un conjunto de N pruebas posibles.
            · Cada una de las pruebas puede dar únicamente dos resultados mutuamente excluyentes: A y no A.
            · En la primera prueba las probabilidades son :P(A)= p y P(A)= q ;con p+q=l.
Las probabilidades de obtener un resultado A y de obtener un resultado no A varían en las sucesivas pruebas, dependiendo de los resultados anteriores.
            · (Derivación de la distribución) . Si estas circunstancias a leatorizamos de forma que la variable aleatoria X sea el número de resultados A obtenidos en n pruebas la distribución de X será una Hipergeométrica de parámetros N,n,p     así    
Un típico caso de aplicación de este modelo es el siguiente :
                            Supongamos la extracción aleatoria de n elementos de un conjunto formado por N elementos totales, de los cuales Np son del tipo A y Nq son del tipo  (p+q=l) .Si realizamos las extracciones sin devolver los elementos extraídos , y llamamos X. al número de elementos del tipo A que extraemos en n extracciones X seguirá una distribución hipergeométrica de parámetros N , n , p
Función de cuantía.
  La función de cuantía de una distribución Hipergeométrica hará corresponder a cada valor de la variable X (x = 0,1,2, . . . n) la probabilidad del suceso "obtener x resultados del tipo A ", y (n-x) resultados del tipo no A en las n pruebas realizadas de entre las N posibles.
Veamos :
                                      Hay un total de  formas distintas de obtener
x resultados del tipo A y n-x del tipo  ,
si partimos de una población formada por Np elementos del tipo A y Nq elementos del tipo 

                  Por otro lado si realizamos n pruebas o extracciones hay un total de
                                                 posibles muestras ( grupos de n elementos)
aplicando la regla de Laplace tendríamos
                               
que para valores de X comprendidos entre el conjunto de enteros 0,1,…. .n será la expresión de la función de cuantía de una distribución , Hipergeométrica de parámetros N,n,p .
Media y varianza.
    Considerando que una variable hipergeométrica de parámetros N, n, p puede considerarse generada por la reiteración de un proceso dicotómico n veces en el que las n dicotomías NO son independientes ; podemos considerar que una variable hipergeométrica es la suma de n variables dicotómicas NO independientes.
    Es bien sabido que la media de la suma de variables aleatorias (sean éstas independientes o no) es la suma de las medias y por tanto la media de una distribución hipergeométrica será , como en el caso de la binomial : 
En cambio si las variables sumando no son independientes la varianza de la variable suma no será la suma de las varianzas.
    Si se evalúa el valor de la varianza para nuestro caso se obtiene que la varianza de una distribución hipergeométrica de parámetros N,n,p es : si  
                                                
para demostración de esta expresión véase Wilks S. ,Mathematical Statistics,1962
    Esta forma resulta ser la expresión de la varianza de una binomial (n, p) afectada por un coeficiente corrector [N-n/N-1] , llamado coeficiente de exhaustividad o Factor Corrector de Poblaciones Finitas (F.C.P.F.) y que da cuenta del efecto que produce la no reposición de los elementos extraídos en el muestreo.
    Este coeficiente es tanto más pequeño cuanto mayor es el tamaño muestral (número de pruebas de n ) y puede comprobarse como tiende a aproximarse a 1 cuando el tamaño de la población N es muy grande . Este último hecho nos confirma lo ya comentado sobre la irrelevancia de la reposición o no cuando se realizan extracciones sucesivas sobre una población muy grande. Con una población muy grande se cual fuere el tamaño de n , el factor corrector sería uno lo que convertiría , en cierto modo a la hipergeométrica en una binomial (ver D. Binomial) . Así
    Límite de la distribución hipergeométrica cuando N tiende a infinito.
    Hemos visto como la media de la distribución hipergeométrica [H{N,n,p)], tomaba siempre el mismo valor que la media de una distribución binomial [B{n,p)] también hemos comentado que si el valor del parámetro N crecía hasta aproximarse a infinito el coeficiente de exhaustividad tendía a ser 1, y, por lo tanto, la varianza de la hipergeométrica se aproximaba a la de la binomial : puede probarse asimismo , cómo la función de cuantía de una distribución hipergeométrica tiende a aproximarse a la función de cuantía de una distribución binomial cuando 

Distribución binomial