lunes, 2 de junio de 2014

Distribución exponencial





Distribución Normal

La distribución de probabilidad conocida como distribución normal es, por la cantidad de  fenómenos que explica, la más importante de las distribuciones estadísticas.

A la distribución normal también se la denomina con el nombre de campana de Gauss, pues al  representar su función de probabilidad, ésta tiene forma de campana.

En el math-block sobre la distribución binomial se introduce el concepto de variable aleatoria,  distinguiendo además dos tipos de variables, las discretas y las continuas. En este apartado  seguimos con el estudio de distribuciones de probabilidad analizando la distribución de  probabilidad continua más importante, la distribución normal.

A continuación veremos las características principales de una distribución de probabilidad normal,  definiendo posteriormente la distribución normal estándar así como sus usos.

La Normal es la distribución de probabilidad más importante. Multitud de variables aleatorias  continuas siguen una distribución normal o aproximadamente normal.
Una de sus características más importantes es que casi cualquier distribución de  probabilidad, tanto discreta como continua, se puede aproximar por una normal bajo ciertas  condiciones.

La distribución de probabilidad normal y la curva normal que la representa, tienen las  siguientes características:

• La curva normal tiene forma de campana y un solo pico en el centro de la  distribución. De esta manera, la media aritmética, la mediana y la moda de la distribución son iguales y se localizan en el pico. Así, la mitad del área bajo la curva se encuentra a la derecha de este punto central y la otra mitad está a la izquierda de dicho punto.
La distribución de probabilidad normal es simétrica alrededor de su media.

• La curva normal desciende suavemente en ambas direcciones a partir del valor  central. Es asintótica, lo que quiere decir que la curva se acerca cada vez más al eje

X pero jamás llega a tocarlo. Es decir, las “colas” de la curva se extienden de manera  indefinida en ambas direcciones.

‰ La distribución normal estándar:

Se observó que no existe una sola distribución de probabilidad normal, sino una “familia” de  ellas. Como sabemos, cada una de las distribuciones puede tener una media (µ) o una  desviación estándar distinta (σ). Por tanto, el número de distribuciones normales es ilimitado y  sería imposible proporcionar una tabla de probabilidades para cada combinación de µ y σ.

Para resolver este problema, se utiliza un solo “miembro” de la familia de distribuciones normales, aquella cuya media es 0 y desviación estándar 1 que es la que se conoce como distribución estándar normal, de forma que todas las distribuciones normales pueden convertirse a la estándar, restando la media de cada observación y dividiendo por la desviación estándar.

Primero, convertiremos la distribución real en una distribución normal estándar utilizando un  valor llamado Z, o estadístico Z que será la distancia entre un valor seleccionado, designado
X, y la media µ, dividida por la desviación estándar σ

Formalmente, si X N(µ,σ) , entonces la v.a.   σ−µ = X Z se distribuye según una normal de media 0 y desviación estándar 1, i.e.: Z N(0,1) , que es la distribución llamada normal estándar o tipificada.

De esta manera, un valor Z mide la distancia entre un valor especificado de X y la media  aritmética, en las unidades de la desviación estándar. Al determinar el valor Z utilizando la  expresión anterior, es posible encontrar el área de probabilidad bajo cualquier curva normal  haciendo referencia a la distribución normal estándar en las tablas correspondientes.

Así pues, para averiguar el área anterior utilizaremos la tabla que encontraremos al final de  este apartado. Dicha tabla nos proporciona la probabilidad de que la v.a. normal estándar Z  tome un valor situado a la izquierda de un número c, i.e.: P(Z<c). En otras palabras, esta  tabla nos da el valor del área encerrada por f(x) entre -∞ y c.


domingo, 4 de mayo de 2014

tutorial alma https://www.facebook.com/l.php?u=https%3A%2F%2Fwww.youtube.com%2Fwatch%3Fv%3DNFJFFhoTCiY%26feature%3Dyoutube_gdata_player&h=sAQFQNle4

martes, 29 de abril de 2014

Esperanza matemática

 La esperanza matemática de una función g(X) está dada por

 

donde f(X) es, respectivamente, la función de probabilidad o la función densidad de probabilidad y g(X) es cualquier función de valores reales que está definida para todos los valores posibles de X.
Ejemplo 15: La probabilidad de que una casa de cierto tipo quede destruida por un incendio en cualquier período de doce meses es de 0.005. Una compañía de seguros ofrece al propietario una póliza de seguros contra incendio por $20,000.00 (dólares) a un año con una prima de $150.00 dólares. ¿Cuál es la ganancia esperada de la compañía?
Solución: Sea S = {se incendie, no se incendie}, el espacio muestral, La variable aleatoria asociada es X = {0,1}, donde 0 significa que se incendie y 1 que no se incendie (estos valores son arbitrarios). g(X) representa la ganancia de la compañía por cada casa asegurada (sin tomar en cuenta gastos). La situación se explica mejor en una tabla.


Evento
X
g(X)
f(X)
Se incendie
0
-$19,850.00
0.005
No se incendie
1
+$150.00
0.995


En caso de que la compañía asegure 20,000 casas, su ganancia esperada sería de $1,000,000.00 (sin tomar en cuenta gastos).

La esperanza matemática de una función g(X) está definida por:


PROPIEDADES DE LA ESPERANZA MATEMÁTICA

Proposición 4.1: E[a g(X) +b h(X)] = a E[g(X)]+b E[h(X)]; a, b constantes. [4.4]

Demostración:


Nota si X es discreta, la demostración se hace en la misma forma, usando sumatorias en vez de integrales.

Proposición 4.2: E[c1 X + c2] = c1 E [X] + c2 [4.5]

Demostración:

Distribución hipergeométrica

  La distribución hipergeométrica es especialmente útil en todos aquellos casos en los que se extraigan muestras o se realizan experiencias repetidas sin devolución del elemento extraído o sin retornar a la situación experimental inicial.
    Modeliza , de hecho, situaciones en las que se repite un número determinado de veces una prueba dicotómica de manera que con cada sucesivo resultado se ve alterada la probabilidad de obtener en la siguiente prueba uno u otro resultado. Es una distribución .fundamental en el estudio de muestras pequeñas de poblaciones .pequeñas y en el cálculo de probabilidades de, juegos de azar y tiene grandes aplicaciones en el control de calidad en otros procesos experimentales en los que no es posible retornar a la situación de partida.
    La distribución hipergeométrica puede derivarse de un proceso experimental puro o de Bernouilli con las siguientes características:
            · El proceso consta de n pruebas , separadas o separables de entre un conjunto de N pruebas posibles.
            · Cada una de las pruebas puede dar únicamente dos resultados mutuamente excluyentes: A y no A.
            · En la primera prueba las probabilidades son :P(A)= p y P(A)= q ;con p+q=l.
Las probabilidades de obtener un resultado A y de obtener un resultado no A varían en las sucesivas pruebas, dependiendo de los resultados anteriores.
            · (Derivación de la distribución) . Si estas circunstancias a leatorizamos de forma que la variable aleatoria X sea el número de resultados A obtenidos en n pruebas la distribución de X será una Hipergeométrica de parámetros N,n,p     así    
Un típico caso de aplicación de este modelo es el siguiente :
                            Supongamos la extracción aleatoria de n elementos de un conjunto formado por N elementos totales, de los cuales Np son del tipo A y Nq son del tipo  (p+q=l) .Si realizamos las extracciones sin devolver los elementos extraídos , y llamamos X. al número de elementos del tipo A que extraemos en n extracciones X seguirá una distribución hipergeométrica de parámetros N , n , p
Función de cuantía.
  La función de cuantía de una distribución Hipergeométrica hará corresponder a cada valor de la variable X (x = 0,1,2, . . . n) la probabilidad del suceso "obtener x resultados del tipo A ", y (n-x) resultados del tipo no A en las n pruebas realizadas de entre las N posibles.
Veamos :
                                      Hay un total de  formas distintas de obtener
x resultados del tipo A y n-x del tipo  ,
si partimos de una población formada por Np elementos del tipo A y Nq elementos del tipo 

                  Por otro lado si realizamos n pruebas o extracciones hay un total de
                                                 posibles muestras ( grupos de n elementos)
aplicando la regla de Laplace tendríamos
                               
que para valores de X comprendidos entre el conjunto de enteros 0,1,…. .n será la expresión de la función de cuantía de una distribución , Hipergeométrica de parámetros N,n,p .
Media y varianza.
    Considerando que una variable hipergeométrica de parámetros N, n, p puede considerarse generada por la reiteración de un proceso dicotómico n veces en el que las n dicotomías NO son independientes ; podemos considerar que una variable hipergeométrica es la suma de n variables dicotómicas NO independientes.
    Es bien sabido que la media de la suma de variables aleatorias (sean éstas independientes o no) es la suma de las medias y por tanto la media de una distribución hipergeométrica será , como en el caso de la binomial : 
En cambio si las variables sumando no son independientes la varianza de la variable suma no será la suma de las varianzas.
    Si se evalúa el valor de la varianza para nuestro caso se obtiene que la varianza de una distribución hipergeométrica de parámetros N,n,p es : si  
                                                
para demostración de esta expresión véase Wilks S. ,Mathematical Statistics,1962
    Esta forma resulta ser la expresión de la varianza de una binomial (n, p) afectada por un coeficiente corrector [N-n/N-1] , llamado coeficiente de exhaustividad o Factor Corrector de Poblaciones Finitas (F.C.P.F.) y que da cuenta del efecto que produce la no reposición de los elementos extraídos en el muestreo.
    Este coeficiente es tanto más pequeño cuanto mayor es el tamaño muestral (número de pruebas de n ) y puede comprobarse como tiende a aproximarse a 1 cuando el tamaño de la población N es muy grande . Este último hecho nos confirma lo ya comentado sobre la irrelevancia de la reposición o no cuando se realizan extracciones sucesivas sobre una población muy grande. Con una población muy grande se cual fuere el tamaño de n , el factor corrector sería uno lo que convertiría , en cierto modo a la hipergeométrica en una binomial (ver D. Binomial) . Así
    Límite de la distribución hipergeométrica cuando N tiende a infinito.
    Hemos visto como la media de la distribución hipergeométrica [H{N,n,p)], tomaba siempre el mismo valor que la media de una distribución binomial [B{n,p)] también hemos comentado que si el valor del parámetro N crecía hasta aproximarse a infinito el coeficiente de exhaustividad tendía a ser 1, y, por lo tanto, la varianza de la hipergeométrica se aproximaba a la de la binomial : puede probarse asimismo , cómo la función de cuantía de una distribución hipergeométrica tiende a aproximarse a la función de cuantía de una distribución binomial cuando 

Distribución binomial






Distribución de probabilidad de variables aleatorias discretas





lunes, 10 de marzo de 2014

Conceptos básicos

• FENÓMENO (EXPERIMENTO): Es todo aquel acto o acción que se realiza con el fin de observar sus resultados y cuantificarlos. Los fenómenos pueden clasificarse de acuerdo al tipo de resultados en:
• Determinístico: Es aquel cuyos resultados se pueden predecir de antemano. • Probabilístico (aleatorio) Es aquel en el que para las limitaciones actuales del conocimiento científico, no se puede predecir con certeza el resultado.
• Al conjunto de todos los posibles resultados de un experimento aleatorio se le denomina ESPACIO DE EVENTOS (S).
• A cada posible resultado del espacio le llamaremos ELEMENTO.
• Un EVENTO en general es un conjunto de eventos simples (o posibles resultados del experimento). • Si el evento está compuesto por un único elemento le llamaremos EVENTO SIMPLE.
 • Si el evento no tiene ningún resultado posible se le denomina EVENTO VACÍO.
• Eventos mutuamente excluyentes: – Si se tienen dos o más eventos que pertenecen a S y al realizar el experimento solo puede ocurrir uno u otro, pero no simultáneamente.
 • Eventos colectivamente exhaustivos: Si la unión de los eventos es igual al especio de eventos.

• Eventos mutuamente excluyentes y colectivamente exhaustivos: Si se cumplen las dos condiciones anteriores

Regla de multiplicacion de probabilidades

1. Regla de multiplicación de probabilidades
Si se tienen varios eventos sucesivos e independientes entre sí, la probabilidad de que ocurran todos ellos a la vez corresponde a la multiplicación de las probabilidades de cada uno de los eventos.
Ejemplos:
1. Si se responden al azar cuatro preguntas con cinco opciones cada una, ¿cuál es la probabilidad de acertar a todas?
La probabilidad de acierto en cada una de las preguntas es 1/5. Por lo tanto, la probabilidad de acertar en las cuatro es:
Pe a es igual a uno partido por seiscientos veniticinco
 
2. Suponiendo que la probabilidad de tener un hijo o una hija es ½, ¿cuál es la probabilidad de que al tener tres hijos, 2 solamente sean varones?
Si H representa el nacimiento de un hombre y M el de una mujer, tenemos los siguientes casos favorables:    HHM – HMH – MHH 
La probabilidad de cada uno de estos eventos es: 

un octavo

Teorema de Bayes

Este    teorema  es  una  generalización  de  la  probabilidad  Condicionada,  el  cual  esta  definido  de  la  siguiente  manera
Sean     A1,  A2, …….An,   sucesos  mutuamente  excluyentes    que  ocupan  todo  el  espacio  muestral S.  Si  cada  uno  de estos  sucesos  tiene  probabilidad  no  nula  y  uno  de ellos debe  ocurrir,  entonces  para   todo  suceso  B  en  el  espacio  muestral  S, es :




Esto sale de:



Ejemplo 1. : El   gerente  de  una  compañía   quiere  hacer  cada  semana   una  reunión  y  pedirle  a  sus  ejecutivos  un  informe .  El  sabe  que  a veces  se  le  olvida  ir  a  tal  reunión,  por  lo  que le  ha  dado  instrucciones  a  su   secretaria   que   se  haga  cargo  de  la   agenda  a   tratar.  Si  el  gerente  hace  la  reunión,  la  probabilidad  es  0.80  de  que  solicite  el  informe,  mientras  que  si  su  secretaria  hace  la  reunión, esta  probabilidad  es  de  sólo  0,15.  Si  el  gerente  falta al   60 %   de  las  reuniones. Suponiendo  que  se  les  pidió  el  informe  un  día determinado  ¿ Cuál  es  la  probabilidad  de  que  el  gerente haya  estado  presente  ?

Si  el  gerente  estuvo  presente,  es  lo  mismo  que  decir  que  no  faltó,  por   lo  tanto lo  que  nos  están  pidiendo  es :

Asi:



Por  lo  tanto,  la  probabilidad  de  que  el   gerente haya  estado  un  día  en  el  que  se  les  pidió  el  informe  a los  ejecutivos es   del  89 %  

Probabilidad condicionada

            Probabilidad   Condicionada:  Es   la    probabilidad  de  obtener    un   suceso,  dado   que  ya  ocurrió  otro.  Es  decir,   si  tenemos   los  sucesos  A  y  B que  pertenecen a  un  mismo  espacio  muestral  S ,  y   si   la  P (A)  es  diferente  de cero,  entonces esta  probabilidad  que  esta  designada  por :  
                                         



Para calcular esta  probabilidad  es  necesario   conocer   tanto  la  probabilidad  marginal  de  uno  de  los  sucesos ( P(A) )  como  la  probabilidad  de  la  intersección  de  ambos ( o  la  probabilidad  cuando  ocurran  los  dos  sucesos a  la  vez ). 

Ejemplo 3 : La  probabilidad  de  que  una  persona   tenga  una  cuenta   de  ahorros  es  de   0,65  y    la  probabilidad   de  que  invierta  en  un  CDT  y  ahorre  en  una  cuenta  de  ahorros es  de  0,30.  Se  seleccionó  una   persona al  azar   y   resultó  tener  una  cuenta   de  ahorros  ¿ Cuál  es    la  probabilidad  de  que  tenga  también  un  CDT ?
Sea  A =  tener  una  cuenta de  ahorros ,   B =  tener  un  CDT



                                                                                                           

Reglas de la probabilidad

Existen  tres  reglas  fundamentales  para  resolver  problemas  en  donde  se  desea  determinar  la  probabilidad  de  un  suceso   si  se  conocen  las  probabilidades  de  otros   sucesos   que  están  relacionados  con  él. Estas  dos  reglas  son :  Regla  de la  Adición , Probabilidad  Condicional  y   Regla de la Multiplicación  o Probabilidad  Conjunta .
Existe  otra  regla  muy  importante  que  es  El  Teorema  de  Bayes.

Regla de la Adición:  Esta  regla  expresa  la  probabilidad  de  que  ocurran   dos  o  más  sucesos  a  la  vez,   P ( A U B).
Puede  presentarse    de  dos  formas:  para  conjuntos   con  intersección  y   para   conjuntos   mutuamente  excluyentes.  Veamos:

Para   conjuntos  con  Intersección:


                                                
  Esto  se  debe  a  que  sumamos  la  probabilidad  de  A más  la  probabilidad de B , pero  como  ya  habíamos sumado la  intersección,  entonces  la  restamos.

Para   conjuntos  con  Mutuamente excluyentes:
                                                             


En este  caso,  no  hay  ningún  problema  en  sumar  ambas  probabilidades.

Ejemplo 1:  Se  lanzan  un   dado.  Usted  gana  $ 3000   pesos   si   el  resultado  es    par  ó   divisible  por  tres   ¿Cuál es  la  probabilidad  de  ganar ?
Lo  que  primero  hacemos   es  definir  los  sucesos :
Sea  A = resultado  par :  A = { 2, 4, 6 }
Sea  B = resultado   divisible por  3 : B = { 3, 6 }   .  Ambos  sucesos  tienen  intersección ?
                                                                                 

                                                         




Probabilidad simple

Cantidad de formas en que un resultado específico va a suceder

Probabilidad =  Cantidad total de posibles resultados

Ejemplo: Hay 87 canicas en una bolsa y 68 son verdes. Si se escoge una, ¿cuál es la probabilidad de que esta sea verde?

Solución:
Divide la cantidad de formas de elegir una canica verde (68) por la cantidad total de canicas (87)
68 ÷ 87 = 0.781609

Redondea a la precisión deseada (es decir 0.781609 redondeado a centésimos es 0.78)

domingo, 9 de febrero de 2014

Combinaciones y Permutaciones

Una permutación de objetos es un arreglo de éstos en el que orden sí importa.  Para encontrar el número de permutaciones de n objetos diferentes en grupos de r, se usan las siguientes fórmulas:
Cuando no se permite repetición

Cuando se permita repetición
Una combinación de objetos es un arreglo de éstos en el que el orden no importa. Para encontrar el número de combinaciones de n objetos en grupos de r, se usa la siguiente fórmula:

EJEMPLOS:
A) ¿Cuántas cantidades de tres cifras se pueden formar con los dígitos 0, 1, 2, 3 y 4 si no se permite la repetición? Solución:

.
B) ¿Cuántas cantidades de cuatro cifras se pueden formar con los dígitos 0, 1, 2, 3 y 4 si se permite la repetición? Solución:

.
C) De entre 8 personas debemos formar un comité de cinco miembros. ¿Cuántas diferentes posibilidades existen para formar el comité? Solución: Esta es una combinación porque el orden no importa.