lunes, 2 de junio de 2014
Distribución Normal
La distribución de probabilidad conocida como distribución
normal es, por la cantidad de fenómenos
que explica, la más importante de las distribuciones estadísticas.
A la distribución normal también se la denomina con el
nombre de campana de Gauss, pues al representar
su función de probabilidad, ésta tiene forma de campana.
En el math-block sobre la distribución binomial se introduce
el concepto de variable aleatoria, distinguiendo
además dos tipos de variables, las discretas y las continuas. En este apartado seguimos con el estudio de distribuciones de
probabilidad analizando la distribución de probabilidad continua más importante, la
distribución normal.
A continuación veremos las características principales de
una distribución de probabilidad normal, definiendo posteriormente la distribución
normal estándar así como sus usos.
La Normal es la distribución de probabilidad más importante.
Multitud de variables aleatorias continuas
siguen una distribución normal o aproximadamente normal.
Una de sus características más importantes es que casi
cualquier distribución de probabilidad,
tanto discreta como continua, se puede aproximar por una normal bajo
ciertas condiciones.
La distribución de probabilidad normal y la curva normal que
la representa, tienen las siguientes
características:
• La curva normal tiene forma de campana y un solo pico en
el centro de la distribución. De esta
manera, la media aritmética, la mediana y la moda de la distribución son
iguales y se localizan en el pico. Así, la mitad del área bajo la curva se
encuentra a la derecha de este punto central y la otra mitad está a la
izquierda de dicho punto.
La distribución de probabilidad normal es simétrica
alrededor de su media.
• La curva normal desciende suavemente en ambas direcciones
a partir del valor central. Es
asintótica, lo que quiere decir que la curva se acerca cada vez más al eje
X pero jamás llega a tocarlo. Es decir, las “colas” de la
curva se extienden de manera indefinida
en ambas direcciones.
La distribución normal estándar:
Se observó que no existe una sola distribución de
probabilidad normal, sino una “familia” de
ellas. Como sabemos, cada una de las distribuciones puede tener una
media (µ) o una desviación estándar
distinta (σ). Por tanto, el número de distribuciones normales es ilimitado
y sería imposible proporcionar una tabla
de probabilidades para cada combinación de µ y σ.
Para resolver este problema, se utiliza un solo “miembro” de
la familia de distribuciones normales, aquella cuya media es 0 y desviación
estándar 1 que es la que se conoce como distribución estándar normal, de forma
que todas las distribuciones normales pueden convertirse a la estándar,
restando la media de cada observación y dividiendo por la desviación estándar.
Primero, convertiremos la distribución real en una
distribución normal estándar utilizando un
valor llamado Z, o estadístico Z que será la distancia entre un valor
seleccionado, designado
X, y la media µ, dividida por la desviación estándar σ
Formalmente, si X ∼ N(µ,σ) ,
entonces la v.a. σ−µ = X Z se
distribuye según una normal de media 0 y desviación estándar 1, i.e.: Z ∼ N(0,1) , que es la distribución llamada normal estándar o
tipificada.
De esta manera, un valor Z mide la distancia entre un valor
especificado de X y la media aritmética,
en las unidades de la desviación estándar. Al determinar el valor Z utilizando
la expresión anterior, es posible
encontrar el área de probabilidad bajo cualquier curva normal haciendo referencia a la distribución normal
estándar en las tablas correspondientes.
Así pues, para averiguar el área anterior utilizaremos
la tabla que encontraremos al final de este
apartado. Dicha tabla nos proporciona la probabilidad de que la v.a. normal
estándar Z tome un valor situado a la
izquierda de un número c, i.e.: P(Z<c). En otras palabras, esta tabla nos da el valor del área encerrada por
f(x) entre -∞ y c.
domingo, 4 de mayo de 2014
miércoles, 30 de abril de 2014
martes, 29 de abril de 2014
Esperanza matemática
La esperanza matemática de una función g(X) está dada por
donde f(X) es, respectivamente, la función de probabilidad o la función densidad de probabilidad y g(X) es cualquier función de valores reales que está definida para todos los valores posibles de X.
Ejemplo 15: La probabilidad de que una casa de cierto tipo quede destruida por un incendio en cualquier período de doce meses es de 0.005. Una compañía de seguros ofrece al propietario una póliza de seguros contra incendio por $20,000.00 (dólares) a un año con una prima de $150.00 dólares. ¿Cuál es la ganancia esperada de la compañía?
Solución: Sea S = {se incendie, no se incendie}, el espacio muestral, La variable aleatoria asociada es X = {0,1}, donde 0 significa que se incendie y 1 que no se incendie (estos valores son arbitrarios). g(X) representa la ganancia de la compañía por cada casa asegurada (sin tomar en cuenta gastos). La situación se explica mejor en una tabla.


En caso de que la compañía asegure 20,000 casas, su ganancia esperada sería de $1,000,000.00 (sin tomar en cuenta gastos).
PROPIEDADES DE LA ESPERANZA MATEMÁTICA
Proposición 4.1: E[a g(X) +b h(X)] = a E[g(X)]+b E[h(X)]; a, b constantes. [4.4]
Demostración:

Nota si X es discreta, la demostración se hace en la misma forma, usando sumatorias en vez de integrales.
Proposición 4.2: E[c1 X + c2] = c1 E [X] + c2 [4.5]
Demostración:
donde f(X) es, respectivamente, la función de probabilidad o la función densidad de probabilidad y g(X) es cualquier función de valores reales que está definida para todos los valores posibles de X.
Ejemplo 15: La probabilidad de que una casa de cierto tipo quede destruida por un incendio en cualquier período de doce meses es de 0.005. Una compañía de seguros ofrece al propietario una póliza de seguros contra incendio por $20,000.00 (dólares) a un año con una prima de $150.00 dólares. ¿Cuál es la ganancia esperada de la compañía?
Solución: Sea S = {se incendie, no se incendie}, el espacio muestral, La variable aleatoria asociada es X = {0,1}, donde 0 significa que se incendie y 1 que no se incendie (estos valores son arbitrarios). g(X) representa la ganancia de la compañía por cada casa asegurada (sin tomar en cuenta gastos). La situación se explica mejor en una tabla.
| Evento |
X
|
g(X)
|
f(X)
|
| Se incendie |
0
|
-$19,850.00
|
0.005
|
| No se incendie |
1
|
+$150.00
|
0.995
|
En caso de que la compañía asegure 20,000 casas, su ganancia esperada sería de $1,000,000.00 (sin tomar en cuenta gastos).
| La esperanza matemática de una función g(X) está definida por: |
PROPIEDADES DE LA ESPERANZA MATEMÁTICA
Proposición 4.1: E[a g(X) +b h(X)] = a E[g(X)]+b E[h(X)]; a, b constantes. [4.4]
Demostración:
Nota si X es discreta, la demostración se hace en la misma forma, usando sumatorias en vez de integrales.
Proposición 4.2: E[c1 X + c2] = c1 E [X] + c2 [4.5]
Demostración:
Distribución hipergeométrica
La distribución hipergeométrica es especialmente útil en todos aquellos casos en los que se extraigan muestras o se realizan experiencias repetidas sin devolución del elemento extraído o sin retornar a la situación experimental inicial.
Modeliza , de hecho, situaciones en las que se repite un número determinado de veces una prueba dicotómica de manera que con cada sucesivo resultado se ve alterada la probabilidad de obtener en la siguiente prueba uno u otro resultado. Es una distribución .fundamental en el estudio de muestras pequeñas de poblaciones .pequeñas y en el cálculo de probabilidades de, juegos de azar y tiene grandes aplicaciones en el control de calidad en otros procesos experimentales en los que no es posible retornar a la situación de partida.
La distribución hipergeométrica puede derivarse de un proceso experimental puro o de Bernouilli con las siguientes características:
· El proceso consta de n pruebas , separadas o separables de entre un conjunto de N pruebas posibles.
· Cada una de las pruebas puede dar únicamente dos resultados mutuamente excluyentes: A y no A.
· En la primera prueba las probabilidades son :P(A)= p y P(A)= q ;con p+q=l.
Las probabilidades de obtener un resultado A y de obtener un resultado no A varían en las sucesivas pruebas, dependiendo de los resultados anteriores.
· (Derivación de la distribución) . Si estas circunstancias a leatorizamos de forma que la variable aleatoria X sea el número de resultados A obtenidos en n pruebas la distribución de X será una Hipergeométrica de parámetros N,n,p así 
Un típico caso de aplicación de este modelo es el siguiente :
Supongamos la extracción aleatoria de n elementos de un conjunto formado por N elementos totales, de los cuales Np son del tipo A y Nq son del tipo
(p+q=l) .Si realizamos las extracciones sin devolver los elementos extraídos , y llamamos X. al número de elementos del tipo A que extraemos en n extracciones X seguirá una distribución hipergeométrica de parámetros N , n , p
Función de cuantía.
La función de cuantía de una distribución Hipergeométrica hará corresponder a cada valor de la variable X (x = 0,1,2, . . . n) la probabilidad del suceso "obtener x resultados del tipo A ", y (n-x) resultados del tipo no A en las n pruebas realizadas de entre las N posibles.
Veamos :
Hay un total de
formas distintas de obtener
x resultados del tipo A y n-x del tipo
,
si partimos de una población formada por Np elementos del tipo A y Nq elementos del tipo
si partimos de una población formada por Np elementos del tipo A y Nq elementos del tipo
Por otro lado si realizamos n pruebas o extracciones hay un total de
aplicando la regla de Laplace tendríamos
que para valores de X comprendidos entre el conjunto de enteros 0,1,…. .n será la expresión de la función de cuantía de una distribución , Hipergeométrica de parámetros N,n,p .
Media y varianza.
Considerando que una variable hipergeométrica de parámetros N, n, p puede considerarse generada por la reiteración de un proceso dicotómico n veces en el que las n dicotomías NO son independientes ; podemos considerar que una variable hipergeométrica es la suma de n variables dicotómicas NO independientes.
Es bien sabido que la media de la suma de variables aleatorias (sean éstas independientes o no) es la suma de las medias y por tanto la media de una distribución hipergeométrica será , como en el caso de la binomial : 
En cambio si las variables sumando no son independientes la varianza de la variable suma no será la suma de las varianzas.
Si se evalúa el valor de la varianza para nuestro caso se obtiene que la varianza de una distribución hipergeométrica de parámetros N,n,p es : si 
para demostración de esta expresión véase Wilks S. ,Mathematical Statistics,1962
Esta forma resulta ser la expresión de la varianza de una binomial (n, p) afectada por un coeficiente corrector [N-n/N-1] , llamado coeficiente de exhaustividad o Factor Corrector de Poblaciones Finitas (F.C.P.F.) y que da cuenta del efecto que produce la no reposición de los elementos extraídos en el muestreo.
Este coeficiente es tanto más pequeño cuanto mayor es el tamaño muestral (número de pruebas de n ) y puede comprobarse como tiende a aproximarse a 1 cuando el tamaño de la población N es muy grande . Este último hecho nos confirma lo ya comentado sobre la irrelevancia de la reposición o no cuando se realizan extracciones sucesivas sobre una población muy grande. Con una población muy grande se cual fuere el tamaño de n , el factor corrector sería uno lo que convertiría , en cierto modo a la hipergeométrica en una binomial (ver D. Binomial) . Así
Límite de la distribución hipergeométrica cuando N tiende a infinito.
Hemos visto como la media de la distribución hipergeométrica [H{N,n,p)], tomaba siempre el mismo valor que la media de una distribución binomial [B{n,p)] también hemos comentado que si el valor del parámetro N crecía hasta aproximarse a infinito el coeficiente de exhaustividad tendía a ser 1, y, por lo tanto, la varianza de la hipergeométrica se aproximaba a la de la binomial : puede probarse asimismo , cómo la función de cuantía de una distribución hipergeométrica tiende a aproximarse a la función de cuantía de una distribución binomial cuando 
lunes, 10 de marzo de 2014
Conceptos básicos
• FENÓMENO (EXPERIMENTO): Es todo aquel acto o acción que se
realiza con el fin de observar sus resultados y cuantificarlos. Los fenómenos
pueden clasificarse de acuerdo al tipo de resultados en:
• Determinístico: Es aquel cuyos resultados se pueden predecir de antemano. • Probabilístico (aleatorio) Es aquel en el que para las limitaciones actuales del conocimiento científico, no se puede predecir con certeza el resultado.
• Al conjunto de todos los posibles resultados de un experimento aleatorio se le denomina ESPACIO DE EVENTOS (S).
• A cada posible resultado del espacio le llamaremos ELEMENTO.
• Un EVENTO en general es un conjunto de eventos simples (o posibles resultados del experimento). • Si el evento está compuesto por un único elemento le llamaremos EVENTO SIMPLE.
• Si el evento no tiene ningún resultado posible se le denomina EVENTO VACÍO.
• Eventos mutuamente excluyentes: – Si se tienen dos o más eventos que pertenecen a S y al realizar el experimento solo puede ocurrir uno u otro, pero no simultáneamente.
• Eventos colectivamente exhaustivos: Si la unión de los eventos es igual al especio de eventos.
• Eventos mutuamente excluyentes y colectivamente exhaustivos: Si se cumplen las dos condiciones anteriores
• Determinístico: Es aquel cuyos resultados se pueden predecir de antemano. • Probabilístico (aleatorio) Es aquel en el que para las limitaciones actuales del conocimiento científico, no se puede predecir con certeza el resultado.
• Al conjunto de todos los posibles resultados de un experimento aleatorio se le denomina ESPACIO DE EVENTOS (S).
• A cada posible resultado del espacio le llamaremos ELEMENTO.
• Un EVENTO en general es un conjunto de eventos simples (o posibles resultados del experimento). • Si el evento está compuesto por un único elemento le llamaremos EVENTO SIMPLE.
• Si el evento no tiene ningún resultado posible se le denomina EVENTO VACÍO.
• Eventos mutuamente excluyentes: – Si se tienen dos o más eventos que pertenecen a S y al realizar el experimento solo puede ocurrir uno u otro, pero no simultáneamente.
• Eventos colectivamente exhaustivos: Si la unión de los eventos es igual al especio de eventos.
• Eventos mutuamente excluyentes y colectivamente exhaustivos: Si se cumplen las dos condiciones anteriores
Regla de multiplicacion de probabilidades
1. Regla de multiplicación de probabilidades
Si se tienen varios eventos sucesivos e independientes entre sí, la probabilidad de que ocurran todos ellos a la vez corresponde a la multiplicación de las probabilidades de cada uno de los eventos.
Ejemplos:
1. Si se responden al azar cuatro preguntas con cinco opciones cada una, ¿cuál es la probabilidad de acertar a todas?
1. Si se responden al azar cuatro preguntas con cinco opciones cada una, ¿cuál es la probabilidad de acertar a todas?
La probabilidad de acierto en cada una de las preguntas es 1/5. Por lo tanto, la probabilidad de acertar en las cuatro es:
2. Suponiendo que la probabilidad de tener un hijo o una hija es ½, ¿cuál es la probabilidad de que al tener tres hijos, 2 solamente sean varones?
Si H representa el nacimiento de un hombre y M el de una mujer, tenemos los siguientes casos favorables: HHM – HMH – MHH
La probabilidad de cada uno de estos eventos es:
La probabilidad de cada uno de estos eventos es:
Teorema de Bayes
Este teorema es una
generalización de la probabilidad Condicionada,
el cual esta definido de la siguiente
manera
Sean A1, A2, …….An, sucesos mutuamente excluyentes que ocupan todo el espacio muestral S. Si cada uno de estos sucesos tiene probabilidad no nula y uno de ellos debe ocurrir, entonces para todo suceso B en el espacio muestral S, es :
Esto sale de:
Sean A1, A2, …….An, sucesos mutuamente excluyentes que ocupan todo el espacio muestral S. Si cada uno de estos sucesos tiene probabilidad no nula y uno de ellos debe ocurrir, entonces para todo suceso B en el espacio muestral S, es :
Esto sale de:
Ejemplo 1. : El gerente de una compañía
quiere hacer cada semana una reunión
y pedirle a sus ejecutivos un informe
. El sabe que a veces se le
olvida ir a tal reunión, por lo que
le ha dado instrucciones a su
secretaria que se haga cargo de
la agenda a tratar. Si el
gerente hace la reunión, la probabilidad
es 0.80 de que solicite el informe,
mientras que si su secretaria hace la
reunión, esta probabilidad es de sólo 0,15.
Si el gerente falta al 60 % de
las reuniones. Suponiendo que se les pidió
el informe un día determinado ¿ Cuál es
la probabilidad de que el gerente haya
estado presente ?
Si el gerente estuvo presente, es
lo mismo que decir que no faltó,
por lo tanto lo que nos están
pidiendo es :
Asi:
Por
lo tanto, la probabilidad de que
el gerente haya estado un día en
el que se les pidió el informe a
los ejecutivos es del 89 %
Probabilidad condicionada
Probabilidad Condicionada: Es
la probabilidad de obtener
un suceso, dado que ya ocurrió
otro. Es decir, si tenemos los
sucesos A y B que pertenecen a un
mismo espacio muestral S ,
y si la P (A) es diferente de
cero, entonces esta probabilidad que esta
designada por :
Para calcular esta probabilidad es necesario
conocer tanto la probabilidad marginal de
uno de los sucesos ( P(A) ) como la probabilidad
de la intersección de ambos ( o la
probabilidad cuando ocurran los dos sucesos
a la vez ).
Ejemplo 3 : La probabilidad de que una
persona tenga una cuenta de
ahorros es de 0,65 y la
probabilidad de que invierta en un
CDT y ahorre en una cuenta de ahorros
es de 0,30. Se seleccionó una persona
al azar y resultó tener una
cuenta de ahorros ¿ Cuál es
la probabilidad de que tenga también
un CDT ?
Sea A = tener una cuenta de ahorros , B
= tener un CDT
Reglas de la probabilidad
Existen
tres reglas fundamentales para resolver problemas
en donde se desea determinar la probabilidad de un
suceso si se conocen las
probabilidades de otros sucesos que
están relacionados con él. Estas dos reglas
son : Regla de la Adición , Probabilidad Condicional y Regla de la Multiplicación o
Probabilidad Conjunta .
Existe otra regla muy importante que
es El Teorema de Bayes.
Regla
de la Adición: Esta regla expresa la
probabilidad de que ocurran dos o
más sucesos a la vez, P
( A U B).
Puede presentarse de
dos formas: para conjuntos con
intersección y para conjuntos
mutuamente excluyentes. Veamos:
Para conjuntos con
Intersección:
Esto se debe a que
sumamos la probabilidad de A más la probabilidad
de B , pero como ya habíamos sumado la
intersección, entonces la restamos.
Para conjuntos con Mutuamente excluyentes:
En este caso, no hay
ningún problema en sumar ambas probabilidades.
Ejemplo 1: Se
lanzan un dado. Usted gana $
3000 pesos si el resultado
es par ó
divisible por tres ¿Cuál es la
probabilidad de ganar ?
Lo que primero hacemos
es definir los sucesos :
Sea A = resultado par : A = { 2, 4,
6 }
Sea B = resultado divisible
por 3 : B = { 3, 6 } . Ambos sucesos
tienen intersección ?
Probabilidad simple
Cantidad de formas en que un resultado específico va a
suceder
Probabilidad = Cantidad
total de posibles resultados
Ejemplo: Hay 87 canicas en una bolsa y 68 son verdes. Si se
escoge una, ¿cuál es la probabilidad de que esta sea verde?
Solución:
Divide la cantidad de formas de elegir una canica verde (68)
por la cantidad total de canicas (87)
68 ÷ 87 = 0.781609
Redondea a la precisión deseada (es decir 0.781609
redondeado a centésimos es 0.78)
martes, 11 de febrero de 2014
domingo, 9 de febrero de 2014
Combinaciones y Permutaciones
Una permutación de objetos es un arreglo de éstos en el que orden sí importa. Para encontrar el número de permutaciones de n objetos diferentes en grupos de r, se usan las siguientes fórmulas:
Una combinación de objetos es un arreglo de éstos en el que el orden no importa. Para encontrar el número de combinaciones de n objetos en grupos de r, se usa la siguiente fórmula:
.
.
| Cuando no se permite repetición |
| Cuando se permita repetición |
EJEMPLOS:
|
A) ¿Cuántas cantidades de tres cifras se pueden formar con los dígitos 0, 1, 2, 3 y 4 si no se permite la repetición? Solución:
B) ¿Cuántas cantidades de cuatro cifras se pueden formar con los dígitos 0, 1, 2, 3 y 4 si se permite la repetición? Solución:
C) De entre 8 personas debemos formar un comité de cinco miembros. ¿Cuántas diferentes posibilidades existen para formar el comité? Solución: Esta es una combinación porque el orden no importa.
Suscribirse a:
Comentarios (Atom)