29
AÑO DE LA INVERSION PARA EL DESARROLLO RURAL Y LA SEGURIDAD ALIMENTARIAASIGNATURA ESTADISTICA APLICADA DOCENTE : Ing. JOSE LUIS GAVE CHAGUA ALUMNO : BELITO TOVAR, CESAR LENIN SEMESTRE : III HUANCAVELICA - 2013

ESTADISITICA APLICADA.docx

Embed Size (px)

Citation preview

Page 1: ESTADISITICA APLICADA.docx

“AÑO DE LA INVERSION PARA EL DESARROLLO RURAL Y LA SEGURIDAD ALIMENTARIA”

ASIGNATURA ESTADISTICA APLICADA

DOCENTE : Ing. JOSE LUIS GAVE CHAGUA

ALUMNO : BELITO TOVAR, CESAR LENIN

SEMESTRE : III

HUANCAVELICA - 2013

Page 2: ESTADISITICA APLICADA.docx

DEDICATORIA

INTRODUCCION

Una distribución de probabilidad indica toda la gama de valores que pueden

representarse como resultado de un experimento. Una distribución de probabilidad

es similar a la distribución de frecuencias relativas .Sin embargo, en vez de

Al ingeniero GAVE por el granempeño que pone en cadaclase, por instruirnos yformarnos para nuestro futurocomo ingenieros de minas.

Page 3: ESTADISITICA APLICADA.docx

describir el pasado, describe la probabilidad que un evento se realice en el futuro,

constituye una herramienta fundamental para la prospectiva, puesto que se puede

diseñar un escenario de acontecimientos futuros considerando las tendencias

actuales de diversos fenómenos naturales.

Las decisiones estadísticas basadas en la estadística inferencial son

fundamentales en la investigación que son evaluadas en términos de distribución

de probabilidades.

En el presente trabajo, se estudia de manera ágil los diverso tipos de distribución

probabilística, caracterizaremos cada distribución, la fundamentación matemática

de los diversos resultados no se enfocaran en el presente trabajo; sólo me limitaré

al estudio descriptivo de la distribución de probabilidades discretas.

La inferencia estadística consiste en extraer una muestra de una población y

analizar sus datos con el propósito de aprender acerca de ello. Muchas veces se

tiene un conocimiento superficial de la función de masa de probabilidad o de la

función de densidad de probabilidad de la población. En estos casos la función de

masa o de densidad de probabilidad se aproxima mediante una de muchas

familias comunes de curvas o funciones. En este capítulo se describen algunas de

estas funciones comunes y las condiciones en que es apropiado utilizar cada una.

DISTRIBUCIÓN DE PROBABILIDAD

DISTRIBUCION DE BERNOULLI

Imagine un experimento que tenga dos resultados. Al primero se le llama “éxito” y

al otro “fracaso”. La probabilidad de éxito se denota por p. por consecuencia, la

Page 4: ESTADISITICA APLICADA.docx

probabilidad de fracaso es 1-p. lo anterior representa un ensayo de Bernoulli con

probabilidad de éxito p. El más sencillo de este tipo es el lanzamiento al aire de

una moneda. Los posibles resultados son “cara” o “cruz”. Si “cara” se define como

éxito, entonces p constituye esa probabilidad. En una moneda, P= ½. Otro ejemplo

de ese ensayo es la selección de un componente a partir de una población de

componentes, pero algunos están defectuosos. Si se define como “éxito” a uno de

estos, entonces p significa la proporción de componentes defectuosos en la

población.

Para cualquier ensayo de Bernoulli se define a la variable aleatoria X así: si el

experimento propicia “éxito”, entonces X=1. De lo contrario, X=0. De ahí que X

sea una variable aleatoria discreta, con función de masa de probabilidad p(x)

definida por.

p (0)= P(X=0)= 1- p

p (1)= P(X=1)=p

p(x)=0 para cualquier valor de x diferente a 0 o 1

Se dice que la variable aleatoria X sigue una distribución de Bernoulli con

parámetro P. La notación es X~ Bernoulli (p). La figura muestra histograma de

probabilidad para las funciones de masa de probabilidad de Bernoulli (0.5) y de

Bernoulli (0.8).

Distribucion Bernoulli

Un experimento muy común es observar una característica dicotómica.

p( x )={px(1−p )1− x si x=0,1

0 en otro casoX = {1 si ocurre A

0 si no ocurre

Page 5: ESTADISITICA APLICADA.docx

LA DISTRIBUCION BINOMIAL

Extraer un solo componente de una población y determinar si está o no defectuoso

es ejemplo de un ensayo de Bernoulli. En la práctica, es posible extraer varios

componentes de una gran población y contar el número de elementos

defectuosos. Esto implica realizar diversos ensayos de Bernoulli independientes y

contar el número de éxitos. El número de éxitos es una variable aleatoria, que

tiene una Distribución binomial.

Ahora se presenta una descripción formal de la distribución binomial. Suponga que

se lleva a cabo una serie de n ensayos de Bernoulli, cada uno con la misma

probabilidad de éxito p. además, suponga que los ensayos son independientes;

esto es, que el resultado de un ensayo no influye en los resultados de alguno de

los otros ensayos. Sea la variable aleatoria X igual al número de éxitos en N

ensayos, entonces X tiene la distribución binomial con parámetros n y p. la

notación es X~Bin(n, p).X es una variable aleatoria discreta y sus posibles valores

son 0,1,…, n.

Si se realiza un total de n ensayos de Bernoulli y si

Los ensayos son independientes

Cada ensayo tiene la misma probabilidad de éxito p

X es el número de éxitos en los n ensayos.

E(X) = 1.p + 0. (1- p) = p

V (X ) = E(X2 ) − (E(X ))2 = p − p2 = p (1−p )

Page 6: ESTADISITICA APLICADA.docx

Entonces X tiene la distribución binomial con parámetros n y p, que se denota

como X~ Bin(n, p).

Experimento binomial

Muchos experimentos satisfacen las siguientes condiciones:

a) El experimento consiste en n pruebas o repeticiones Bernoulli con n fijo.

b) Las pruebas son independientes, es decir el resultado de una prueba no

influye sobre el de cualquier otra.

c) La probabilidad de éxito se mantiene constante de prueba en prueba y se

denotará p.

DISTRIBUCION BINOMIAL

Una sucesión de pruebas Bernoulli genera la variable aleatoria binomial.

X es el número de veces que ocurre el atributo A

X es el número de éxitos

Los valores que pueden tomar X es: 0, 1, 2,3,…., n

Ejemplo 1:

De una urna que contiene 8 bolas blancas y 12 negras, se extraen con reemplazo,

5 bolas.

La variable que contabiliza el número de bolas blancas extraídas es una variable

aleatoria binomial.

X cuenta el número de éxitos en este caso el número de bolas blancas extraídas.

Los parámetros de esta distribución binomial son:

Solución:

X ~B(n, p)

Page 7: ESTADISITICA APLICADA.docx

N=5

Ejemplo 2:

De una urna que contiene 8 bolas blancas y 12 verdes, se extraen con reemplazo,

6 bolas.

a) ¿Cuál es la probabilidad de que se extraigan exactamente 3 bolas blancas?

b) ¿Cuál es la probabilidad de que se extraigan a lo sumo 3 bolas blancas?

¿Cuál es la probabilidad de que se extraigan al menos 3 bolas blancas?

Solución:

X cuenta el número de éxitos en este caso el número de bolas blancas extraídas.

Los parámetros de esta distribución binomial son:

N=6

LA DISTRIBUCIÓN DE POISSON

p= 820

=25

p= 820

=25

Page 8: ESTADISITICA APLICADA.docx

La distribución de poisson se utiliza con frecuencia en el trabajo científico. Una

manera de considerarla es como una aproximación de la distribución binomial

cuando n es grande y p es pequeña. Esto último se muestra con un ejemplo.

Una masa contiene 10000 átomos de una sustancia radiactiva. La probabilidad de

que cierto átomo decaiga en un periodo de un minuto es de 0.0002. Sea X el

número de átomos que decae en un minuto. Se puede considerar a cada átomo

como un ensayo de Bernoulli, en los que el éxito ocurre si el átomo decae. Por

tanto, X es el número de éxitos en 10 000 ensayos de Bernoulli de3 X es Bin

(10000,0.0002). La media de X es µx= (10000) (0.0002)=2.

Otra masa contiene 5000atomos y cada uno de estos tiene probabilidad de 0.0004

de decaer en un intervalo de un minuto. Sea él Y el número de átomos de esta

masa que decae en un minuto. Siguiendo la lógica del párrafo anterior, X~Bin

(5000,0.0004) y µY= (5000) (0.0004)=2.

En cada uno de estos casos, el número de ensayos n y la probabilidad de éxito p

son diferentes, pero el número promedio de éxitos, que es igual al producto np, es

el mismo. Ahora suponga que se quiere calcular la probabilidad de que solo tres

átomos decaigan en un minuto para cada una de estas masas. Mediante la

función de masa de probabilidad binomial, se calcula de la siguiente manera:

P(X=3)10000!

3! 9997 !¿

= (0.0002 )3 (0.9998 ) 9997=0.180465091!¿

P (Y=3)= 5000 !3! 4997 !

=(0.0004 )3 (0.9996 ) 4997=0.180483143 .

Estas probabilidades sin casi iguales entre sí. Aunque a partir de la fórmula de la

función de masa de probabilidad binomial esto no es obvio, cuando n es grande y

p es pequeña la función de nada depende por completo de la media np, y muy

pocos de los valores específicos de n y p. por consiguiente, se puede aproximar la

función de masa binomial con una cantidad que dependa solo del producto np.

Page 9: ESTADISITICA APLICADA.docx

Específicamente, si n es grande y p es pequeña, y λ=np, se puede demostrar

mediante métodos avanzados que para todas las x.

n!x ! (nx ) !

p x (1−p )n−x≈ e− λ λx /x !

Esto conduce a la definición de una nueva función de probabilidad, denominada

función de masa de probabilidad de poisson, que se define mediante

P(x)= P(X=x)= {e−λ λx ! si x es un entero no negativo de otro modo

Si X es una variable aleatoria cuya función de masa de probabilidad esta dad por

la ecuación, entonces X sigue una distribución de poisson con parámetro λ. La

notación es X~Poisson (λ).

MEDIA Y VARIANZA DE UNA VARIABLE ALEATORIA DE POISSON

Para calcular la media y la varianza de una variable aleatoria de poisson, se

emplea la función de masa de probabilidad junto con las definiciones dadas por las

ecuaciones. Aquí se presenta un enfoque intuitivo. Si X~ Poisson (λ) se puede

considerar X como una variable aleatoria binomial es np, se tiene que la media de

una variable aleatoria de Poisson es λ. La varianza de una variable aleatoria

binomial es np (1-p). Puesto que p es muy pequeña, se puede reemplazar 1-p con

1, y concluir que la varianza de una variable aleatoria de Poisson es np=λ.

Si X~ Poisson (λ), entonces la media y la varianza de X están dadas por{

µx= λ

σ x= λ2

EL PROCESO DE POISSON

Es una sucesión de fallas o acontecimientos puntuales, que ocupan

individualmente, una porción despreciable en un medio continuo.

Page 10: ESTADISITICA APLICADA.docx

Ese medio continuo puede ser un intervalo dado o una región específica.

El intervalo dado puede ser de cualquier longitud, como un minuto, un día, una

semana, etc.

La región específica podría ser un segmento, un área, etc.

Genera valores para la v. a. X que representa por ejemplo: el número de llamadas

telefónicas por hora que recibe una oficina.

De modo que la probabilidad de que ocurra un número dado X de fallas en una

extensión T de continuo es independiente de la posición de T dentro del continuo y

de la ocurrencia de fallas en otros tramos, esto es, que las fallas no se producen

en “cadenas” y el proceso “no tiene memoria”.

CORTES DE LUZ EN UNA CIUDAD

LLAMADAS TELEFÓNICAS A UNA LÍNEA

LLEGADAS DE PERSONAS A UN COMERCIO

FALLAS EN LOS ROLLOS DE ALFOMBRA

ACCIDENTES DE TRANSITO EN UNA CIUDAD

TEMBLORES EN UNA REGION DETERMINADA

PASAS DE UVAS EN UN BUDIN

λ= tasa de fallas (resultados) o promedio de fallas (resultados) por unidad de

continuo.

Una unidad de continuo puede ser un intervalo, una región específica.

λ=NÚMERO MEDIO DE FALLAS

UNIDAD DE EXTENSIÓN DEL CONTINUO

Page 11: ESTADISITICA APLICADA.docx

DISTRIBUCIÓN DE POISSON

Fijada la extensión t del continuo, el número de fallas X (acontecimientos o

resultados) que pueden encontrarse en ella es una variable aleatoria, denominada

variable de POISSON, cuya media o esperanza es

DISTRIBUCIÓN DE POISSON

La probabilidad de encontrar x fallas en la extensión t está dada por:

Ejemplo:

El proceso productivo de un tipo de tela produce fallas a una tasa de 1.2 fallas

cada 100 metros y se bobina en rollos de 80 metros. Definiremos como rollo de

Primera Calidad aquel que tiene una falla o ninguna, de Segunda Calidad que

tiene 2 fallas y de rechazo el que tiene 3 ó más fallas. Calculemos las

probabilidades para cada una de estas calidades.

Solución

X: número de fallas

X= 0, 1, 2,3,….

E( X )= λ t= μ

p( x ; λ t )= e− λt ( λ t )x

x !=

e−μ (μ )x

x !

x=0 , 1 , 2 , 3 , . . .

Page 12: ESTADISITICA APLICADA.docx

λ=NÚMERO MEDIO DE FALLAS

UNIDAD DE EXTENSIÓN DEL CONTINUO

λ=1. 2100 =0 . 012

μ=λ t=0 .012∗80= 0 . 96

p( x ; 0. 96 )=e−0.96 (0 . 96 )x

x !

p(0 ; 0 . 96 )=e−0 . 96 ( 0. 96 )0

0 !≃0 .383

p(1 ; 0 . 96)=e−0 .96 (0 . 96 )1

1!≃0. 367

P(1aCalidad )≃0 . 75

P(2aCalidad )≃p(2 )=0 . 176

P(Rechazo )≃0.074

DISTRIBUCIÓN NORMAL

La distribución normal también conocida como distribución Gauss es la

distribución más utilizada en la estadística. Constituye un buen modelo para

muchas, aunque no para todas las poblaciones continuas. Parte de esto último se

debe al teorema del límite central.

La distribución normal es continua en vez de discreta. La media de una variable

aleatoria normal puede tener cualquier valor y la varianza cualquier valor positivo.

La función de densidad de probabilidad de una variable aleatoria normal puede

tener cualquier valor y la varianza cualquier valor positivo. La función de densidad

de probabilidad de una variable normal con media µ y varianzaσ .

Page 13: ESTADISITICA APLICADA.docx

La gráfica de su función de densidad tiene una forma acampanada y es simétrica

respecto de un determinado parámetro. Esta curva se conoce como campana de

Gauss y e es el gráfico de de una función gaussiana.

Ejemplo de alguna grafica seria:

Distribución normal

Page 14: ESTADISITICA APLICADA.docx

DISTRIBUCIÓN GAMMA

La distribución gammas es una distribución continua, uno de sus propósitos es

ampliar la utilidad de la distribución exponencial en el modelado de tiempos de

espera. La función de densidad de probabilidad gamma tiene dos parámetros, r y λ

que son caracteres positivos

Si X es una variable aleatoria cuya función de densidad de probabilidad gamma

con parámetros r y λ

Cuando α = 1, la función de densidad gamma se denomina distribución

exponencial. Esta importante función de densidad se emplea como modelo para la

distribución de frecuencias relativa del tiempo entre llegadas a un mostrador de

servicio (centros de cómputo, caja de súper mercado, clínica hospitalaria, etc.)

Cuando la probabilidad de que un cliente llegue en cierta unidad de tiempo es

igual a la probabilidad de que llegue en cualquier otra.

La función también se utiliza como modelo para la duración de equipos o

productos industriales cuando la probabilidad de que un componente viejo opere

por lo menos t unidades de tiempo adicionales, dado que está funcionando ahora.

Es igual a la probabilidad de que un componente nuevo opere al menos t unidades

de tiempo. El equipo sujeto a mantenimiento periódico y recambio de piezas a

menudo exhibe esta propiedad de nunca envejecer.

Cuando el parámetro r es un entero la distribución gamma es una extensión

directa de la distribución exponencial. Para ser más específicos, recuerde que si

Page 15: ESTADISITICA APLICADA.docx

los eventos seguían un proceso de poisson con parámetro con parámetro de

razón λ el tiempo de espera hasta que ocurriera un evento se distribuía como exp

(λ). Si r es cualquier entero positivo, entonces el tiempo espera hasta que haya

ocurrido r eventos se distribuye como.

DISTRIBUCIÓN T   ( DE STUDENT )

Es una distribución de probabilidad que surge del problema de estimar la media de

una población normalmente distribuida cuando el tamaño de la muestra es

pequeño. Aparece de manera natural al realizar la prueba t de Student para la

determinación de las diferencias entre dos medias muéstrales y para la

construcción del intervalo de confianza para la diferencia entre las medias de dos

poblaciones cuando se desconoce la desviación típica de una población y ésta

debe ser estimada a partir de los datos de una muestra.

La distribución t de Student es la distribución de probabilidad del cociente

Donde

Z tiene una distribución normal de media nula y varianza 1

V tiene una distribución ji-cuadrado con   grados de libertad

Z y V son independientes

Si μ es una constante no nula, el cociente es una variable aleatoria

que sigue la distribución t de Student no central con parámetro de no-

centralidad.

Page 16: ESTADISITICA APLICADA.docx

Supongamos que X1,..., Xn son variables aleatorias independientes distribuidas

normalmente, con media μ y varianza σ2. Sea

La media muestral. Entonces

Sigue una distribución normal de media 0 y varianza 1.

Sin embargo, dado que la desviación estándar no siempre es conocida de

antemano, Gosset estudió un cociente relacionado,

Donde

Es la varianza muestral y demostró que la función de densidad de T es

Donde   es igual a n − 1.

La distribución de T se llama ahora la distribución-t de Student.

El parámetro   representa el número de grados de libertad. La distribución

depende de , pero no de   o  , lo cual es muy importante en la práctica

El procedimiento para el cálculo del intervalo de confianza basado en la t de

Student consiste en estimar la desviación típica de los datos S y calcular el error

Page 17: ESTADISITICA APLICADA.docx

estándar de la media , siendo entonces el intervalo de confianza para la

media =   .

Es este resultado el que se utiliza en el test de Student: puesto que la diferencia

de las medias de muestras de dos distribuciones normales se distribuye también

normalmente, la distribución t puede usarse para examinar si esa diferencia puede

razonablemente suponerse igual a cero. Para efectos prácticos el valor esperado y

la varianza son: E (t(n))= 0 y Var (t(n-1)) = n/(n-2) para n > 3

CÁLCULOS DE PROBABILIDADES

Conceptos generales: Uno de los objetivos de la estadística es el

conocimiento cuantitativo de una determinada parcela de la realidad. Para ello, es

necesario construir un modelo de esta realidad particular objeto de estudio,

partiendo de la premisa de que lo real es siempre más complejo y multiforme que

cualquier modelo que se pueda construir. De todas formas, la formulación de

modelos aceptados por las instituciones responsables y por los usuarios, permite

obviar la existencia del error o distancia entre la realidad y el modelo. Los modelos

teóricos a los que se hace referencia se reducen en muchos casos a (o incluyen

en su formulación) funciones de probabilidad. La teoría de la probabilidad tiene su

origen en el estudio de los juegos de azar, que impulsaron los primeros estudios

sobre cálculo de probabilidades en el siglo XVI, aunque no es hasta el siglo XVIII

cuando se aborda la

probabilidad desde una perspectiva matemática con la demostración de la “ley

débil de los grandes números” según la cual, al aumentar el número de pruebas,

La frecuencia de un suceso tiende a aproximarse a un número fijo denominado

probabilidad. Este enfoque,denominado

Page 18: ESTADISITICA APLICADA.docx

enfoque frecuentista, se modela matemáticamente en el siglo XX cuando el

matemático ruso Andrei Nikolaevich Kolmogorov (1903-1987) formula la teoría

axiomática de la probabilidad

Dicha teoría define la probabilidad como una función que asigna a cada posible

resultado de un experimento aleatorio un valor no negativo, de forma que se

cumpla la propiedad aditiva. La definición axiomática establece las reglas que

deben cumplir las probabilidades, aunque no asigna valores concretos. Uno de los

conceptos más importantes de la teoría de probabilidades es el de variable

aleatoria que, intuitivamente, puede definirse como cualquier característica

medible que toma diferentes valores con probabilidades determinadas. Toda

variable aleatoria posee una distribución de probabilidad que describe su

comportamiento. Si la variable es discreta, es decir, si toma valores aislados

dentro de un intervalo, su distribución de probabilidad especifica todos los valores

posibles de la variable junto con la probabilidad de que cada uno ocurra.

DISTRIBUCIÓN UNIFORME DISCRETA

La distribución uniforme discreta describe el comportamiento de una variable

discreta que puede tomar n valores distintos con la misma probabilidad cada uno

de ellos. Un caso particular de esta distribución, que es la que se incluye en este

módulo de Epidat 4.0, ocurre cuando los valores son enteros consecutivos. Esta

distribución asigna igual probabilidad atodos los valores enteros entre el límite

inferior y el límite superior que definen el recorridode la variable. Si la variable

puede tomar valores entre a y b, debe ocurrir que b sea mayor que a, y la variable

toma los valores enteros empezando pora,a+1,a+2, etc. hasta el valor máximo b.

Por ejemplo, cuando se observa el número obtenido tras el lanzamiento de

undado perfecto, los valores posibles siguen una distribución uniforme discreta en

{1, 2, 3, 4, 5,6}, y la probabilidad de cada cara es 1/6.

Valores:k : a , a +1, a +2, ...,b, números enteros Parámetros:a : mínimo, a entero

b: máximo  , b entero con a < b

Page 19: ESTADISITICA APLICADA.docx

Ejemplo

El temario de un examen para un proceso selectivo contiene 50 temas, de los

cuales se elegiráuno por sorteo. Si una persona no ha estudiado los 15 últimos

temas ¿cuál es la probabilidadde que salga un tema que haya estudiado?La

variable que representa el número del tema seleccionado para el examen sigue

unadistribución uniforme con parámetros a = 1 y b = 50. La persona ha estudiado

los temas del 1al 35; por tanto, la probabilidad que se pide es la cola a la izquierda

de 35. Para obtener los resultados proporcionarle los parámetros de la

distribución, y seleccionar la opción de calcular probabilidades para el punto 35.

La persona tiene una probabilidad del 70% de que el tema elegido sea uno de los

que hayaestudiado.

DISTRIBUCIÓN BINOMIAL

La distribución binomial es una distribución discreta muy importante que surge en

muchas aplicaciones bio estadísticas. Fue obtenida por Jakob Bernoulli (1654-

1705) y publicada en su obra póstuma  Ars Conjectandi

En 1713. Esta distribución aparece de forma natural al realizar repeticiones

independientes de un experimento que tenga respuesta binaria, generalmente

clasificada como “éxito” o “fracaso” ;este experimento recibe el nombre de

experimento de Bernoulli. Ejemplos de respuesta binaria pueden ser el hábito de

fumar (sí/no), si un paciente hospitalizado desarrolla o no una infección, o si un

artículo de un lote es o no defectuoso. La variable discreta que cuenta el número

de éxitos en n pruebas independientes de ese experimento, cada una de ellas con

la misma probabilidad de “éxito” igual a  p , sigue una distribución binomial de

parámetros n  y  p , que se denota por (Bi( n ,  p )). Este modelo se aplica a

poblaciones finitas de las que setoman elementos al azar con reemplazo, y

también a poblaciones conceptualmente infinitas,como por ejemplo las piezas que

produce una máquina, siempre que el proceso deproducción sea estable (la

proporción de piezas defectuosas se mantiene constante a largoplazo) y sin

memoria (el resultado de cada pieza no depende de las anteriores).Un ejemplo de

Page 20: ESTADISITICA APLICADA.docx

variable binomial puede ser el número de pacientes con cáncer de

pulmóningresados en una unidad hospitalaria.Un caso particular se tiene cuando

n=1, que da lugar a la distribución de Bernoulli.

Esta restricción no debe ser consideradaun inconveniente dado que, cuando se

tiene un número de pruebas “grande”, la distribuciónbinomial se aproxima a una

distribución normal de media np y varianza np (1- p) [8]Valores:k : 0, 1, 2, ...,n

 Parámetros: n : número de pruebas, n  ≥ 1entero p: probabilidad de éxito  ,

0 < p< 1

Distribución hipergeométrica (N,R,n)La distribución hipergeométrica suele

aparecer en procesos muestrales sin reemplazo, en los que se investiga la

presencia o ausencia de cierta característica. Piénsese, por ejemplo, en un

procedimiento de control de calidad en una empresa farmacéutica, durante el cual

se extra en muestras de las cápsulas fabricadas y se someten a análisis para

determinar su composición.

Page 21: ESTADISITICA APLICADA.docx

CONCLUSION

Con los grandes avances tecnológicos hemos ahorrado tiempo para el análisis

estadístico, sin embargo la comprensión de la lógica que se utiliza para llegar a la

resolución del mismo es algo que nos ha llevado a este estudio, el cual ha sido

muy bien conducido por el Ing. Jose Luis Gave Chagua quien nos imparte la

asignatura.

Con el desarrollo de este proyecto y gracias a la comprensión de conceptos

entendimos que es una poderosa herramienta estadística que bien aplicada nos

podrá ayudar a facilitar los cálculos para la solución de problemas. Lo cual

continúa con el propósito esencial: Ahorro de costos y mejora continua en

cualquier ámbito en que nos desarrollemos. Aprendimos que no es limitativa el

área en que nos desempeñemos en nuestro trabajo ya que tanto en Ingeniería

como Materiales, en Recursos Humanos como en un Negocio Propio, en

Comercio o en Industria, o bien por puro pasatiempo en el panorama de la

probabilidad estadística, estas herramientas serán siempre de gran utilidad.

Para esta presentación aprendimos la aplicación y manejo de las Distribuciones de

Probabilidades más comunes, la Binomial, la de Poisson y finalmente la

distribución Normal.

Deseamos compartir esta compilación de información con alguien más que al igual

que nosotros tuvimos la necesidad de investigar y realizar un trabajo de este tipo.

Análisis y estudios que nos han abierto la mente así como nuestras habilidades

para desempeñarnos con mayor eficiencia en nuestras funciones laborales y

personales.

Gracias por tomarse el tiempo de revisar nuestras aportaciones.

Page 22: ESTADISITICA APLICADA.docx

BIBLIOGRAFIA

1. Estadística descriptiva - Rufino Moya G.

2. Probabilidad y Estadística para Ingeniería, William W, Douglas C, David M,

CECSA, 1. México 2011

3. Probabilidad, Elizabeth Meza, del Castillo, CONCYTEC, Lima Perú

4. Estadística aplicada, Lothar Sachs, Editorial Labores. a. Barcelona 1978