Upload
gaby181107
View
5
Download
3
Embed Size (px)
Citation preview
“AÑO DE LA INVERSION PARA EL DESARROLLO RURAL Y LA SEGURIDAD ALIMENTARIA”
ASIGNATURA ESTADISTICA APLICADA
DOCENTE : Ing. JOSE LUIS GAVE CHAGUA
ALUMNO : BELITO TOVAR, CESAR LENIN
SEMESTRE : III
HUANCAVELICA - 2013
DEDICATORIA
INTRODUCCION
Una distribución de probabilidad indica toda la gama de valores que pueden
representarse como resultado de un experimento. Una distribución de probabilidad
es similar a la distribución de frecuencias relativas .Sin embargo, en vez de
Al ingeniero GAVE por el granempeño que pone en cadaclase, por instruirnos yformarnos para nuestro futurocomo ingenieros de minas.
describir el pasado, describe la probabilidad que un evento se realice en el futuro,
constituye una herramienta fundamental para la prospectiva, puesto que se puede
diseñar un escenario de acontecimientos futuros considerando las tendencias
actuales de diversos fenómenos naturales.
Las decisiones estadísticas basadas en la estadística inferencial son
fundamentales en la investigación que son evaluadas en términos de distribución
de probabilidades.
En el presente trabajo, se estudia de manera ágil los diverso tipos de distribución
probabilística, caracterizaremos cada distribución, la fundamentación matemática
de los diversos resultados no se enfocaran en el presente trabajo; sólo me limitaré
al estudio descriptivo de la distribución de probabilidades discretas.
La inferencia estadística consiste en extraer una muestra de una población y
analizar sus datos con el propósito de aprender acerca de ello. Muchas veces se
tiene un conocimiento superficial de la función de masa de probabilidad o de la
función de densidad de probabilidad de la población. En estos casos la función de
masa o de densidad de probabilidad se aproxima mediante una de muchas
familias comunes de curvas o funciones. En este capítulo se describen algunas de
estas funciones comunes y las condiciones en que es apropiado utilizar cada una.
DISTRIBUCIÓN DE PROBABILIDAD
DISTRIBUCION DE BERNOULLI
Imagine un experimento que tenga dos resultados. Al primero se le llama “éxito” y
al otro “fracaso”. La probabilidad de éxito se denota por p. por consecuencia, la
probabilidad de fracaso es 1-p. lo anterior representa un ensayo de Bernoulli con
probabilidad de éxito p. El más sencillo de este tipo es el lanzamiento al aire de
una moneda. Los posibles resultados son “cara” o “cruz”. Si “cara” se define como
éxito, entonces p constituye esa probabilidad. En una moneda, P= ½. Otro ejemplo
de ese ensayo es la selección de un componente a partir de una población de
componentes, pero algunos están defectuosos. Si se define como “éxito” a uno de
estos, entonces p significa la proporción de componentes defectuosos en la
población.
Para cualquier ensayo de Bernoulli se define a la variable aleatoria X así: si el
experimento propicia “éxito”, entonces X=1. De lo contrario, X=0. De ahí que X
sea una variable aleatoria discreta, con función de masa de probabilidad p(x)
definida por.
p (0)= P(X=0)= 1- p
p (1)= P(X=1)=p
p(x)=0 para cualquier valor de x diferente a 0 o 1
Se dice que la variable aleatoria X sigue una distribución de Bernoulli con
parámetro P. La notación es X~ Bernoulli (p). La figura muestra histograma de
probabilidad para las funciones de masa de probabilidad de Bernoulli (0.5) y de
Bernoulli (0.8).
Distribucion Bernoulli
Un experimento muy común es observar una característica dicotómica.
p( x )={px(1−p )1− x si x=0,1
0 en otro casoX = {1 si ocurre A
0 si no ocurre
LA DISTRIBUCION BINOMIAL
Extraer un solo componente de una población y determinar si está o no defectuoso
es ejemplo de un ensayo de Bernoulli. En la práctica, es posible extraer varios
componentes de una gran población y contar el número de elementos
defectuosos. Esto implica realizar diversos ensayos de Bernoulli independientes y
contar el número de éxitos. El número de éxitos es una variable aleatoria, que
tiene una Distribución binomial.
Ahora se presenta una descripción formal de la distribución binomial. Suponga que
se lleva a cabo una serie de n ensayos de Bernoulli, cada uno con la misma
probabilidad de éxito p. además, suponga que los ensayos son independientes;
esto es, que el resultado de un ensayo no influye en los resultados de alguno de
los otros ensayos. Sea la variable aleatoria X igual al número de éxitos en N
ensayos, entonces X tiene la distribución binomial con parámetros n y p. la
notación es X~Bin(n, p).X es una variable aleatoria discreta y sus posibles valores
son 0,1,…, n.
Si se realiza un total de n ensayos de Bernoulli y si
Los ensayos son independientes
Cada ensayo tiene la misma probabilidad de éxito p
X es el número de éxitos en los n ensayos.
E(X) = 1.p + 0. (1- p) = p
V (X ) = E(X2 ) − (E(X ))2 = p − p2 = p (1−p )
Entonces X tiene la distribución binomial con parámetros n y p, que se denota
como X~ Bin(n, p).
Experimento binomial
Muchos experimentos satisfacen las siguientes condiciones:
a) El experimento consiste en n pruebas o repeticiones Bernoulli con n fijo.
b) Las pruebas son independientes, es decir el resultado de una prueba no
influye sobre el de cualquier otra.
c) La probabilidad de éxito se mantiene constante de prueba en prueba y se
denotará p.
DISTRIBUCION BINOMIAL
Una sucesión de pruebas Bernoulli genera la variable aleatoria binomial.
X es el número de veces que ocurre el atributo A
X es el número de éxitos
Los valores que pueden tomar X es: 0, 1, 2,3,…., n
Ejemplo 1:
De una urna que contiene 8 bolas blancas y 12 negras, se extraen con reemplazo,
5 bolas.
La variable que contabiliza el número de bolas blancas extraídas es una variable
aleatoria binomial.
X cuenta el número de éxitos en este caso el número de bolas blancas extraídas.
Los parámetros de esta distribución binomial son:
Solución:
X ~B(n, p)
N=5
Ejemplo 2:
De una urna que contiene 8 bolas blancas y 12 verdes, se extraen con reemplazo,
6 bolas.
a) ¿Cuál es la probabilidad de que se extraigan exactamente 3 bolas blancas?
b) ¿Cuál es la probabilidad de que se extraigan a lo sumo 3 bolas blancas?
¿Cuál es la probabilidad de que se extraigan al menos 3 bolas blancas?
Solución:
X cuenta el número de éxitos en este caso el número de bolas blancas extraídas.
Los parámetros de esta distribución binomial son:
N=6
LA DISTRIBUCIÓN DE POISSON
p= 820
=25
p= 820
=25
La distribución de poisson se utiliza con frecuencia en el trabajo científico. Una
manera de considerarla es como una aproximación de la distribución binomial
cuando n es grande y p es pequeña. Esto último se muestra con un ejemplo.
Una masa contiene 10000 átomos de una sustancia radiactiva. La probabilidad de
que cierto átomo decaiga en un periodo de un minuto es de 0.0002. Sea X el
número de átomos que decae en un minuto. Se puede considerar a cada átomo
como un ensayo de Bernoulli, en los que el éxito ocurre si el átomo decae. Por
tanto, X es el número de éxitos en 10 000 ensayos de Bernoulli de3 X es Bin
(10000,0.0002). La media de X es µx= (10000) (0.0002)=2.
Otra masa contiene 5000atomos y cada uno de estos tiene probabilidad de 0.0004
de decaer en un intervalo de un minuto. Sea él Y el número de átomos de esta
masa que decae en un minuto. Siguiendo la lógica del párrafo anterior, X~Bin
(5000,0.0004) y µY= (5000) (0.0004)=2.
En cada uno de estos casos, el número de ensayos n y la probabilidad de éxito p
son diferentes, pero el número promedio de éxitos, que es igual al producto np, es
el mismo. Ahora suponga que se quiere calcular la probabilidad de que solo tres
átomos decaigan en un minuto para cada una de estas masas. Mediante la
función de masa de probabilidad binomial, se calcula de la siguiente manera:
P(X=3)10000!
3! 9997 !¿
= (0.0002 )3 (0.9998 ) 9997=0.180465091!¿
P (Y=3)= 5000 !3! 4997 !
=(0.0004 )3 (0.9996 ) 4997=0.180483143 .
Estas probabilidades sin casi iguales entre sí. Aunque a partir de la fórmula de la
función de masa de probabilidad binomial esto no es obvio, cuando n es grande y
p es pequeña la función de nada depende por completo de la media np, y muy
pocos de los valores específicos de n y p. por consiguiente, se puede aproximar la
función de masa binomial con una cantidad que dependa solo del producto np.
Específicamente, si n es grande y p es pequeña, y λ=np, se puede demostrar
mediante métodos avanzados que para todas las x.
n!x ! (nx ) !
p x (1−p )n−x≈ e− λ λx /x !
Esto conduce a la definición de una nueva función de probabilidad, denominada
función de masa de probabilidad de poisson, que se define mediante
P(x)= P(X=x)= {e−λ λx ! si x es un entero no negativo de otro modo
Si X es una variable aleatoria cuya función de masa de probabilidad esta dad por
la ecuación, entonces X sigue una distribución de poisson con parámetro λ. La
notación es X~Poisson (λ).
MEDIA Y VARIANZA DE UNA VARIABLE ALEATORIA DE POISSON
Para calcular la media y la varianza de una variable aleatoria de poisson, se
emplea la función de masa de probabilidad junto con las definiciones dadas por las
ecuaciones. Aquí se presenta un enfoque intuitivo. Si X~ Poisson (λ) se puede
considerar X como una variable aleatoria binomial es np, se tiene que la media de
una variable aleatoria de Poisson es λ. La varianza de una variable aleatoria
binomial es np (1-p). Puesto que p es muy pequeña, se puede reemplazar 1-p con
1, y concluir que la varianza de una variable aleatoria de Poisson es np=λ.
Si X~ Poisson (λ), entonces la media y la varianza de X están dadas por{
µx= λ
σ x= λ2
EL PROCESO DE POISSON
Es una sucesión de fallas o acontecimientos puntuales, que ocupan
individualmente, una porción despreciable en un medio continuo.
Ese medio continuo puede ser un intervalo dado o una región específica.
El intervalo dado puede ser de cualquier longitud, como un minuto, un día, una
semana, etc.
La región específica podría ser un segmento, un área, etc.
Genera valores para la v. a. X que representa por ejemplo: el número de llamadas
telefónicas por hora que recibe una oficina.
De modo que la probabilidad de que ocurra un número dado X de fallas en una
extensión T de continuo es independiente de la posición de T dentro del continuo y
de la ocurrencia de fallas en otros tramos, esto es, que las fallas no se producen
en “cadenas” y el proceso “no tiene memoria”.
CORTES DE LUZ EN UNA CIUDAD
LLAMADAS TELEFÓNICAS A UNA LÍNEA
LLEGADAS DE PERSONAS A UN COMERCIO
FALLAS EN LOS ROLLOS DE ALFOMBRA
ACCIDENTES DE TRANSITO EN UNA CIUDAD
TEMBLORES EN UNA REGION DETERMINADA
PASAS DE UVAS EN UN BUDIN
λ= tasa de fallas (resultados) o promedio de fallas (resultados) por unidad de
continuo.
Una unidad de continuo puede ser un intervalo, una región específica.
λ=NÚMERO MEDIO DE FALLAS
UNIDAD DE EXTENSIÓN DEL CONTINUO
DISTRIBUCIÓN DE POISSON
Fijada la extensión t del continuo, el número de fallas X (acontecimientos o
resultados) que pueden encontrarse en ella es una variable aleatoria, denominada
variable de POISSON, cuya media o esperanza es
DISTRIBUCIÓN DE POISSON
La probabilidad de encontrar x fallas en la extensión t está dada por:
Ejemplo:
El proceso productivo de un tipo de tela produce fallas a una tasa de 1.2 fallas
cada 100 metros y se bobina en rollos de 80 metros. Definiremos como rollo de
Primera Calidad aquel que tiene una falla o ninguna, de Segunda Calidad que
tiene 2 fallas y de rechazo el que tiene 3 ó más fallas. Calculemos las
probabilidades para cada una de estas calidades.
Solución
X: número de fallas
X= 0, 1, 2,3,….
E( X )= λ t= μ
p( x ; λ t )= e− λt ( λ t )x
x !=
e−μ (μ )x
x !
x=0 , 1 , 2 , 3 , . . .
λ=NÚMERO MEDIO DE FALLAS
UNIDAD DE EXTENSIÓN DEL CONTINUO
λ=1. 2100 =0 . 012
μ=λ t=0 .012∗80= 0 . 96
p( x ; 0. 96 )=e−0.96 (0 . 96 )x
x !
p(0 ; 0 . 96 )=e−0 . 96 ( 0. 96 )0
0 !≃0 .383
p(1 ; 0 . 96)=e−0 .96 (0 . 96 )1
1!≃0. 367
P(1aCalidad )≃0 . 75
P(2aCalidad )≃p(2 )=0 . 176
P(Rechazo )≃0.074
DISTRIBUCIÓN NORMAL
La distribución normal también conocida como distribución Gauss es la
distribución más utilizada en la estadística. Constituye un buen modelo para
muchas, aunque no para todas las poblaciones continuas. Parte de esto último se
debe al teorema del límite central.
La distribución normal es continua en vez de discreta. La media de una variable
aleatoria normal puede tener cualquier valor y la varianza cualquier valor positivo.
La función de densidad de probabilidad de una variable aleatoria normal puede
tener cualquier valor y la varianza cualquier valor positivo. La función de densidad
de probabilidad de una variable normal con media µ y varianzaσ .
La gráfica de su función de densidad tiene una forma acampanada y es simétrica
respecto de un determinado parámetro. Esta curva se conoce como campana de
Gauss y e es el gráfico de de una función gaussiana.
Ejemplo de alguna grafica seria:
Distribución normal
DISTRIBUCIÓN GAMMA
La distribución gammas es una distribución continua, uno de sus propósitos es
ampliar la utilidad de la distribución exponencial en el modelado de tiempos de
espera. La función de densidad de probabilidad gamma tiene dos parámetros, r y λ
que son caracteres positivos
Si X es una variable aleatoria cuya función de densidad de probabilidad gamma
con parámetros r y λ
Cuando α = 1, la función de densidad gamma se denomina distribución
exponencial. Esta importante función de densidad se emplea como modelo para la
distribución de frecuencias relativa del tiempo entre llegadas a un mostrador de
servicio (centros de cómputo, caja de súper mercado, clínica hospitalaria, etc.)
Cuando la probabilidad de que un cliente llegue en cierta unidad de tiempo es
igual a la probabilidad de que llegue en cualquier otra.
La función también se utiliza como modelo para la duración de equipos o
productos industriales cuando la probabilidad de que un componente viejo opere
por lo menos t unidades de tiempo adicionales, dado que está funcionando ahora.
Es igual a la probabilidad de que un componente nuevo opere al menos t unidades
de tiempo. El equipo sujeto a mantenimiento periódico y recambio de piezas a
menudo exhibe esta propiedad de nunca envejecer.
Cuando el parámetro r es un entero la distribución gamma es una extensión
directa de la distribución exponencial. Para ser más específicos, recuerde que si
los eventos seguían un proceso de poisson con parámetro con parámetro de
razón λ el tiempo de espera hasta que ocurriera un evento se distribuía como exp
(λ). Si r es cualquier entero positivo, entonces el tiempo espera hasta que haya
ocurrido r eventos se distribuye como.
DISTRIBUCIÓN T ( DE STUDENT )
Es una distribución de probabilidad que surge del problema de estimar la media de
una población normalmente distribuida cuando el tamaño de la muestra es
pequeño. Aparece de manera natural al realizar la prueba t de Student para la
determinación de las diferencias entre dos medias muéstrales y para la
construcción del intervalo de confianza para la diferencia entre las medias de dos
poblaciones cuando se desconoce la desviación típica de una población y ésta
debe ser estimada a partir de los datos de una muestra.
La distribución t de Student es la distribución de probabilidad del cociente
Donde
Z tiene una distribución normal de media nula y varianza 1
V tiene una distribución ji-cuadrado con grados de libertad
Z y V son independientes
Si μ es una constante no nula, el cociente es una variable aleatoria
que sigue la distribución t de Student no central con parámetro de no-
centralidad.
Supongamos que X1,..., Xn son variables aleatorias independientes distribuidas
normalmente, con media μ y varianza σ2. Sea
La media muestral. Entonces
Sigue una distribución normal de media 0 y varianza 1.
Sin embargo, dado que la desviación estándar no siempre es conocida de
antemano, Gosset estudió un cociente relacionado,
Donde
Es la varianza muestral y demostró que la función de densidad de T es
Donde es igual a n − 1.
La distribución de T se llama ahora la distribución-t de Student.
El parámetro representa el número de grados de libertad. La distribución
depende de , pero no de o , lo cual es muy importante en la práctica
El procedimiento para el cálculo del intervalo de confianza basado en la t de
Student consiste en estimar la desviación típica de los datos S y calcular el error
estándar de la media , siendo entonces el intervalo de confianza para la
media = .
Es este resultado el que se utiliza en el test de Student: puesto que la diferencia
de las medias de muestras de dos distribuciones normales se distribuye también
normalmente, la distribución t puede usarse para examinar si esa diferencia puede
razonablemente suponerse igual a cero. Para efectos prácticos el valor esperado y
la varianza son: E (t(n))= 0 y Var (t(n-1)) = n/(n-2) para n > 3
CÁLCULOS DE PROBABILIDADES
Conceptos generales: Uno de los objetivos de la estadística es el
conocimiento cuantitativo de una determinada parcela de la realidad. Para ello, es
necesario construir un modelo de esta realidad particular objeto de estudio,
partiendo de la premisa de que lo real es siempre más complejo y multiforme que
cualquier modelo que se pueda construir. De todas formas, la formulación de
modelos aceptados por las instituciones responsables y por los usuarios, permite
obviar la existencia del error o distancia entre la realidad y el modelo. Los modelos
teóricos a los que se hace referencia se reducen en muchos casos a (o incluyen
en su formulación) funciones de probabilidad. La teoría de la probabilidad tiene su
origen en el estudio de los juegos de azar, que impulsaron los primeros estudios
sobre cálculo de probabilidades en el siglo XVI, aunque no es hasta el siglo XVIII
cuando se aborda la
probabilidad desde una perspectiva matemática con la demostración de la “ley
débil de los grandes números” según la cual, al aumentar el número de pruebas,
La frecuencia de un suceso tiende a aproximarse a un número fijo denominado
probabilidad. Este enfoque,denominado
enfoque frecuentista, se modela matemáticamente en el siglo XX cuando el
matemático ruso Andrei Nikolaevich Kolmogorov (1903-1987) formula la teoría
axiomática de la probabilidad
Dicha teoría define la probabilidad como una función que asigna a cada posible
resultado de un experimento aleatorio un valor no negativo, de forma que se
cumpla la propiedad aditiva. La definición axiomática establece las reglas que
deben cumplir las probabilidades, aunque no asigna valores concretos. Uno de los
conceptos más importantes de la teoría de probabilidades es el de variable
aleatoria que, intuitivamente, puede definirse como cualquier característica
medible que toma diferentes valores con probabilidades determinadas. Toda
variable aleatoria posee una distribución de probabilidad que describe su
comportamiento. Si la variable es discreta, es decir, si toma valores aislados
dentro de un intervalo, su distribución de probabilidad especifica todos los valores
posibles de la variable junto con la probabilidad de que cada uno ocurra.
DISTRIBUCIÓN UNIFORME DISCRETA
La distribución uniforme discreta describe el comportamiento de una variable
discreta que puede tomar n valores distintos con la misma probabilidad cada uno
de ellos. Un caso particular de esta distribución, que es la que se incluye en este
módulo de Epidat 4.0, ocurre cuando los valores son enteros consecutivos. Esta
distribución asigna igual probabilidad atodos los valores enteros entre el límite
inferior y el límite superior que definen el recorridode la variable. Si la variable
puede tomar valores entre a y b, debe ocurrir que b sea mayor que a, y la variable
toma los valores enteros empezando pora,a+1,a+2, etc. hasta el valor máximo b.
Por ejemplo, cuando se observa el número obtenido tras el lanzamiento de
undado perfecto, los valores posibles siguen una distribución uniforme discreta en
{1, 2, 3, 4, 5,6}, y la probabilidad de cada cara es 1/6.
Valores:k : a , a +1, a +2, ...,b, números enteros Parámetros:a : mínimo, a entero
b: máximo , b entero con a < b
Ejemplo
El temario de un examen para un proceso selectivo contiene 50 temas, de los
cuales se elegiráuno por sorteo. Si una persona no ha estudiado los 15 últimos
temas ¿cuál es la probabilidadde que salga un tema que haya estudiado?La
variable que representa el número del tema seleccionado para el examen sigue
unadistribución uniforme con parámetros a = 1 y b = 50. La persona ha estudiado
los temas del 1al 35; por tanto, la probabilidad que se pide es la cola a la izquierda
de 35. Para obtener los resultados proporcionarle los parámetros de la
distribución, y seleccionar la opción de calcular probabilidades para el punto 35.
La persona tiene una probabilidad del 70% de que el tema elegido sea uno de los
que hayaestudiado.
DISTRIBUCIÓN BINOMIAL
La distribución binomial es una distribución discreta muy importante que surge en
muchas aplicaciones bio estadísticas. Fue obtenida por Jakob Bernoulli (1654-
1705) y publicada en su obra póstuma Ars Conjectandi
En 1713. Esta distribución aparece de forma natural al realizar repeticiones
independientes de un experimento que tenga respuesta binaria, generalmente
clasificada como “éxito” o “fracaso” ;este experimento recibe el nombre de
experimento de Bernoulli. Ejemplos de respuesta binaria pueden ser el hábito de
fumar (sí/no), si un paciente hospitalizado desarrolla o no una infección, o si un
artículo de un lote es o no defectuoso. La variable discreta que cuenta el número
de éxitos en n pruebas independientes de ese experimento, cada una de ellas con
la misma probabilidad de “éxito” igual a p , sigue una distribución binomial de
parámetros n y p , que se denota por (Bi( n , p )). Este modelo se aplica a
poblaciones finitas de las que setoman elementos al azar con reemplazo, y
también a poblaciones conceptualmente infinitas,como por ejemplo las piezas que
produce una máquina, siempre que el proceso deproducción sea estable (la
proporción de piezas defectuosas se mantiene constante a largoplazo) y sin
memoria (el resultado de cada pieza no depende de las anteriores).Un ejemplo de
variable binomial puede ser el número de pacientes con cáncer de
pulmóningresados en una unidad hospitalaria.Un caso particular se tiene cuando
n=1, que da lugar a la distribución de Bernoulli.
Esta restricción no debe ser consideradaun inconveniente dado que, cuando se
tiene un número de pruebas “grande”, la distribuciónbinomial se aproxima a una
distribución normal de media np y varianza np (1- p) [8]Valores:k : 0, 1, 2, ...,n
Parámetros: n : número de pruebas, n ≥ 1entero p: probabilidad de éxito ,
0 < p< 1
Distribución hipergeométrica (N,R,n)La distribución hipergeométrica suele
aparecer en procesos muestrales sin reemplazo, en los que se investiga la
presencia o ausencia de cierta característica. Piénsese, por ejemplo, en un
procedimiento de control de calidad en una empresa farmacéutica, durante el cual
se extra en muestras de las cápsulas fabricadas y se someten a análisis para
determinar su composición.
CONCLUSION
Con los grandes avances tecnológicos hemos ahorrado tiempo para el análisis
estadístico, sin embargo la comprensión de la lógica que se utiliza para llegar a la
resolución del mismo es algo que nos ha llevado a este estudio, el cual ha sido
muy bien conducido por el Ing. Jose Luis Gave Chagua quien nos imparte la
asignatura.
Con el desarrollo de este proyecto y gracias a la comprensión de conceptos
entendimos que es una poderosa herramienta estadística que bien aplicada nos
podrá ayudar a facilitar los cálculos para la solución de problemas. Lo cual
continúa con el propósito esencial: Ahorro de costos y mejora continua en
cualquier ámbito en que nos desarrollemos. Aprendimos que no es limitativa el
área en que nos desempeñemos en nuestro trabajo ya que tanto en Ingeniería
como Materiales, en Recursos Humanos como en un Negocio Propio, en
Comercio o en Industria, o bien por puro pasatiempo en el panorama de la
probabilidad estadística, estas herramientas serán siempre de gran utilidad.
Para esta presentación aprendimos la aplicación y manejo de las Distribuciones de
Probabilidades más comunes, la Binomial, la de Poisson y finalmente la
distribución Normal.
Deseamos compartir esta compilación de información con alguien más que al igual
que nosotros tuvimos la necesidad de investigar y realizar un trabajo de este tipo.
Análisis y estudios que nos han abierto la mente así como nuestras habilidades
para desempeñarnos con mayor eficiencia en nuestras funciones laborales y
personales.
Gracias por tomarse el tiempo de revisar nuestras aportaciones.
BIBLIOGRAFIA
1. Estadística descriptiva - Rufino Moya G.
2. Probabilidad y Estadística para Ingeniería, William W, Douglas C, David M,
CECSA, 1. México 2011
3. Probabilidad, Elizabeth Meza, del Castillo, CONCYTEC, Lima Perú
4. Estadística aplicada, Lothar Sachs, Editorial Labores. a. Barcelona 1978