15
REPÚBLICA BOLIVARIANA DE VENEZUELA MINISTERIO DEL PODER POPULAR PARA LA EDUCACIÓN INSTITUTO UNIVERSITARIO POLITÉCNICO “SANTIAGO MARIÑO” CÁTEDRA: ESTADISTICA I ENSAYO TEORÍA DE LA PROBABILIDAD Tercer corte PRESENTADO POR: JOSE L. MOLINA C.I. 16.687.668. SECCIÓN S”, NOCTURNO. PROFESOR DE ASIGNATURA: YANNY ATIA

Teoria de la probabilidad

Embed Size (px)

DESCRIPTION

Ensayo, "TEORÍA DE LA PROBABILIDAD"

Citation preview

Page 1: Teoria de la probabilidad

REPÚBLICA BOLIVARIANA DE VENEZUELA

MINISTERIO DEL PODER POPULAR PARA LA EDUCACIÓN

INSTITUTO UNIVERSITARIO POLITÉCNICO

“SANTIAGO MARIÑO”

CÁTEDRA: ESTADISTICA I

ENSAYO TEORÍA DE LA PROBABILIDAD

Tercer corte

PRESENTADO POR:

JOSE L. MOLINA C.I. 16.687.668.

SECCIÓN “S”, NOCTURNO.

PROFESOR DE ASIGNATURA: YANNY ATIA

Page 2: Teoria de la probabilidad

CONTENIDO

INTRODUCCIÓN ....................................................................................................................................... 3

1. OBJETIVO. ......................................................................................................................................... 4

2. DEFINICIONES BÁSICAS. .............................................................................................................. 4

3. RESEÑA DE LA PROBABILIDAD. ................................................................................................ 4

4. DEFINICIÓN CLÁSICA DE PROBABILIDAD. ............................................................................. 6

4.1 Axiomas de probabilidad. .......................................................................................................... 7

4.2 Axiomas de Kolmogórov. .......................................................................................................... 7

5. DEFINICIONES: PROBABILIDAD CONDICIONAL, EVENTOS INDEPENDIENTES,

EVENTOS DEPENDIENTES, LEY DE PROBABILIDAD TOTAL Y TEOREMA DE BAYES. ..... 8

5.1 Probabilidad Condicional. ......................................................................................................... 8

5.2 Eventos Independientes. ......................................................................................................... 10

5.3 Eventos Dependientes. .......................................................................................................... 10

5.4 Ley de Probabilidad total......................................................................................................... 11

5.5 Teorema de Bayes. .................................................................................................................. 11

6. MUESTRAS DE POBLACIÓN, DEFINIR PERMUTACIONES Y COMBINACIONES Y SUS

APLICACIONES A LOS DIFERENTES EVENTOS. ......................................................................... 12

6.1 Población. .................................................................................................................................. 12

6.2 Muestra. ..................................................................................................................................... 12

6.3 Permutaciones. ......................................................................................................................... 12

6.4 Combinaciones. ........................................................................................................................ 13

6.5 Aplicaciones. ............................................................................................................................. 13

CONCLUSIÓN .......................................................................................................................................... 14

BIBLIOGRAFÍA ........................................................................................................................................ 15

Page 3: Teoria de la probabilidad

INTRODUCCIÓN

La probabilidad y la estadística son, sin duda, las ramas de las Matemáticas que están en mayor auge en este siglo, y tienen una tremenda aplicabilidad en todos los aspectos y ciencias, especialmente en las Ciencias Sociales, puesto que aquellas variables que influyen en dichas ciencias, económicas, demográficas, suelen tener carácter aleatorio, es decir, no son deterministas, y se fundamentan en predicciones a partir de datos conocidos. Todo aquello que implique predicción nos lleva al terreno de la probabilidad. La teoría de la probabilidad es una teoría matemática axiomatizada, sobre la cual existe un amplio consenso, la formulación usual de la teoría de la probabilidad se hace en el lenguaje de la teoría de conjuntos. El dominio de la teoría es un conjunto no vacío de elementos cualesquiera, habitualmente simbolizado como Ω, la probabilidad es una función que asigna números reales a los subconjuntos de Ω. El objeto de la teoría de probabilidades es proporcionar un modelo matemático adecuado, aplicable a la descripción e interpretación de los fenómenos aleatorios. La construcción del modelo se basa en los siguientes conceptos: espacio muestral, evento o sucesos, espacio de la probabilidad, eventos independientes, dependientes entre otros.

Page 4: Teoria de la probabilidad

1. OBJETIVO.

El objetivo de este ensayo es presentar el análisis y las definiciones requeridas para el entendimiento lógico-practico de la “TEORÍA DE LA PROBABILIDAD”.

2. DEFINICIONES BÁSICAS.

La teoría de probabilidades se ocupa de asignar un cierto número a cada posible resultado que pueda ocurrir en un experimento aleatorio, con el fin de cuantificar dichos resultados y saber si un suceso es más probable que otro o relaciones parecidas. Con este fin, introduciremos algunas definiciones.

Espacio Muestral: Es el conjunto de todos los resultados posibles de un experimento aleatorio. El conjunto de todos los resultados posibles pueden ser finito, infinito numerable o infinito no numerables. Espacio muestral Discreto y continuo.

Eventos: Llamaremos evento o suceso aleatorio a cualquier subconjunto del espacio muestral. El concepto de suceso es fundamental en probabilidad. Dicho de forma simple, un suceso de un experimento aleatorio es cualquier cosa que se nos ocurra afirmar sobre dicho experimento.

Relaciones entre eventos y familia de eventos:

AUB = “Suceso A o el Suceso B o ambos

AB) = “El suceso A y B “

AB = Ф “Son Sucesos excluyentes mutuamente, es decir no tienen elementos comunes”

A = “El Suceso no A “

A – B = Todos los elementos de A siempre y cuando no estén en B

3. RESEÑA DE LA PROBABILIDAD.

La definición de probabilidad surge debido al deseo del ser humano por conocer con certeza los eventos que sucederán en el futuro. Es por eso que a través de la historia se han desarrollado diferentes enfoques para tener un concepto de la probabilidad y determinar sus valores.

La idea de Probabilidad está íntimamente ligada a la idea de azar y nos ayuda a comprender nuestras posibilidades de ganar un juego de azar o analizar las encuestas. Pierre-Simon Laplace afirmó: "Es notable que una ciencia que comenzó con consideraciones sobre juegos de azar haya llegado a ser el objeto más importante del

Page 5: Teoria de la probabilidad

conocimiento humano". Comprender y estudiar el azar es indispensable, porque la probabilidad es un soporte necesario para tomar decisiones en cualquier ámbito.

Según Amanda Dure, "Antes de la mitad del siglo XVII, el término 'probable' (en latín probable) significaba aprobable, y se aplicaba en ese sentido, unívocamente, a la opinión y a la acción. Una acción u opinión probable era una que las personas sensatas emprenderían o mantendrían, en las circunstancias."

Aparte de algunas consideraciones elementales hechas por Girolamo Cardano en el siglo XVI, la doctrina de las probabilidades data de la correspondencia de Pierre de Fermat y Blaise Pascal (1654). Christiaan Huygens (1657) le dio el tratamiento científico conocido más temprano al concepto. Ars Conjectandi (póstumo, 1713) de Jakob Bernoulli y Doctrine of Chances (1718) de Abraham de Moivre trataron el tema como una rama de las matemáticas. Véase El surgimiento de la probabilidad (The Emergence of Probability) de Ian Hacking para una historia de los inicios del desarrollo del propio concepto de probabilidad matemática.

La teoría de errores puede trazarse atrás en el tiempo hasta Opera Miscellanea (póstumo, 1722) de Roger Cotes, pero una memoria preparada por Thomas Simpson en 1755 (impresa en 1756) aplicó por primera vez la teoría para la discusión de errores de observación. La reimpresión (1757) de esta memoria expone los axiomas de que los errores positivos y negativos son igualmente probables, y que hay ciertos límites asignables dentro de los cuales se supone que caen todos los errores; se discuten los errores continuos y se da una curva de la probabilidad.

Pierre-Simon Laplace (1774) hizo el primer intento para deducir una regla para la combinación de observaciones a partir de los principios de la teoría de las probabilidades. Representó la ley de la probabilidad de error con una curva y = \phi(x), siendo x cualquier error e y y su probabilidad, y expuso tres propiedades de esta curva:

1. es simétrica al eje y;

2. el eje x es una asíntota, siendo la probabilidad del error \infty igual a 0;

3. la superficie cerrada es 1, haciendo cierta la existencia de un error.

Dedujo una fórmula para la media de tres observaciones. También obtuvo (1781) una fórmula para la ley de facilidad de error (un término debido a Lagrange, 1774), pero una que llevaba a ecuaciones inmanejables. Daniel Bernoulli (1778) introdujo el principio del máximo producto de las probabilidades de un sistema de errores concurrentes.

El método de mínimos cuadrados se debe a Adrien-Marie Legendre (1805), que lo introdujo en su Nouvelles méthodes pour la détermination des orbites des comètes (Nuevos métodos para la determinación de las órbitas de los cometas). Ignorando la contribución de Legendre, un escritor irlandés estadounidense, Robert Adrain, editor de "The Analyst" (1808), dedujo por primera vez la ley de facilidad de error,

\phi(x) = ce^-h^2 x^2 siendo c y h constantes que dependen de la precisión de la observación. Expuso dos demostraciones, siendo la segunda esencialmente la misma de John Herschel (1850). Gauss expuso la primera demostración que parece que se conoció en Europa (la tercera después de la de Adrain) en 1809. Demostraciones adicionales se expusieron por Laplace (1810, 1812), Gauss (1823), James Ivory (1825,

Page 6: Teoria de la probabilidad

1826), Hagen (1837), Friedrich Bessel (1838), W. F. Donkin (1844, 1856) y Morgan Crofton (1870). Otros personajes que contribuyeron fueron Ellis (1844), De Morgan (1864), Glaisher (1872) y Giovanni Schiaparelli (1875). La fórmula de Peters (1856) para r, el error probable de una única observación, es bien conocida.

En el siglo XIX, los autores de la teoría general incluían a Laplace, Sylvestre Lacroix (1816), Littrow (1833), Adolphe Quetelet (1853), Richard Dedekind (1860), Helmert (1872), Hermann Laurent (1873), Liagre, Didion, y Karl Pearson. Augustus De Morgan y George Boole mejoraron la exposición de la teoría.

En 1933, el matemático soviético Andréi Kolmogórov propuso un sistema de axiomas para la teoría de la probabilidad, basado en la teoría de conjuntos y en la teoría de la medida, desarrollada pocos años antes por Lebesgue, Borel y Frechet entre otros.

Esta aproximación axiomática que generaliza el marco clásico de la probabilidad, la cual obedece a la regla de cálculo de casos favorables sobre casos posibles, permitió la rigorización de muchos argumentos ya utilizados, así como el estudio de problemas fuera de los marcos clásicos. Actualmente, la teoría de la probabilidad encuentra aplicación en las más variadas ramas del conocimiento, como puede ser la física (donde corresponde mencionar el desarrollo de las difusiones y el movimiento Browniano), o las finanzas (donde destaca el modelo de Black y Scholes para la valuación de acciones).

4. DEFINICIÓN CLÁSICA DE PROBABILIDAD.

La probabilidad es la característica de un evento, que existen razones para creer que éste se realizará.

La probabilidad p de que suceda un evento S de un total de n casos posibles igualmente probables es igual a la razón entre el número de ocurrencias h de dicho evento (casos favorables) y el número total de casos posibles n.

La probabilidad es un número (valor) que varía entre 0 y 1. Cuando el evento es imposible se dice que su probabilidad es 0, si el evento es cierto y siempre tiene que ocurrir su probabilidad es 1.

La probabilidad de no ocurrencia de un evento está dada por q, donde:

Sabemos que p es la probabilidad de que ocurra un evento y q es la probabilidad de que no ocurra, entonces p + q = 1

Simbólicamente el espacio de resultados, que normalmente se denota por Ω, es el espacio que consiste en todos los resultados que son posibles. Los resultados, que se denota por ω1,ω2, etcétera, son elementos del espacio Ω.

Page 7: Teoria de la probabilidad

4.1 Axiomas de probabilidad.

Los axiomas de probabilidad son las condiciones mínimas que deben verificarse para que una función definida sobre un conjunto de sucesos determine consistentemente sus probabilidades. Fueron formulados por Kolmogórov en 1933.

4.2 Axiomas de Kolmogórov.

Dado un conjunto de sucesos elementales, Ω, sobre el que se ha definida una σ-álgebra (léase sigma-álgebra) σ de subconjuntos de Ω y una función P que asigna valores reales a los miembros de σ, a los que denominamos "sucesos", se dice que P es una probabilidad sobre (Ω,σ) si se cumplen los siguientes tres axiomas.

Primer axioma

La probabilidad de un suceso A es un número real mayor o igual que 0.

Segundo axioma

La probabilidad del total, Ω, es igual a 1, es decir,

Tercer axioma

Si A1, A2, …………son sucesos mutuamente excluyentes (incompatibles dos a dos, disjuntos o de intersección vacía dos a dos), entonces:

Según este axioma se puede calcular la probabilidad de un suceso compuesto de varias alternativas mutuamente excluyentes sumando las probabilidades de sus componentes.

En términos más formales, una probabilidad es una medida sobre una σ-álgebra de subconjuntos del espacio muestral, siendo los subconjuntos miembros de la σ-álgebra los sucesos y definida de tal manera que la medida del total sea 1. Tal medida, gracias a su definición matemática, verifica igualmente los tres axiomas de Kolmogórov. A la terna formada por el espacio muestral, la σ-álgebra y la función de probabilidad se la denomina Espacio probabilístico, esto es, un "espacio de sucesos" (el espacio muestral) en el que se han definido los posibles sucesos a considerar (la σ-álgebra) y la probabilidad de cada suceso (la función de probabilidad).

Propiedades que se deducen de los axiomas

De los axiomas anteriores se deducen otras propiedades de la probabilidad:

1. donde el conjunto vacío representa en probabilidad el suceso imposible

Page 8: Teoria de la probabilidad

2. Para cualquier suceso

3.

4. Si A ≤ B entonces

5. Ejemplo: Sea un experimento aleatorio cualquiera y definamos en S (espacio de sucesos) la siguiente probabilidad: p(A) = Número de elementos del conjunto A Número total de elementos Comprobemos que p es una probabilidad. Para ello, comprobemos las tres propiedades: a) Se ve que la probabilidad de cualquier suceso esta entre cero y uno, puesto

que cualquier conjunto que tenga elementos ya tendrá probabilidad positiva, y el número de elementos de cualquier conjunto no puede ser mayor que el número total de elementos existentes.

b) p(E) = 1, es evidente. c) Tomemos dos sucesos A y B que no tengan elementos en común. Entonces:

p(A ∪ B) = Elementos que forman parte de A o de B = Número total de elementos Número de elementos de A + número de elementos de B = p(A) + p(B) Número total de elementos Puesto que si A y B no tienen elementos comunes, el número de elementos de la unión es la suma de los elementos de cada conjunto por separado. Por tanto se cumplen las 3 propiedades y p así definida es una probabilidad. Esta será la definición de probabilidad que utilicemos a partir de ahora.

5. DEFINICIONES: PROBABILIDAD CONDICIONAL, EVENTOS INDEPENDIENTES, EVENTOS DEPENDIENTES, LEY DE PROBABILIDAD TOTAL Y TEOREMA DE BAYES.

5.1 Probabilidad Condicional.

Probabilidad condicionada es la probabilidad de que ocurra un evento A, sabiendo que también sucede otro evento B. La probabilidad condicional se escribe P(A|B), y se lee «la probabilidad de A dado B.

Page 9: Teoria de la probabilidad

No tiene por qué haber una relación causal o temporal entre A y B. A puede preceder en el tiempo a B, sucederlo o pueden ocurrir simultáneamente. A puede causar B, viceversa o pueden no tener relación causal. Las relaciones causales o temporales son nociones que no pertenecen al ámbito de la probabilidad. Pueden desempeñar un papel o no dependiendo de la interpretación que se le dé a los eventos.

El condicionamiento de probabilidades puede lograrse aplicando el teorema de Bayes.

Definición

Dado un espacio de probabilidad (Ω, F, P) y dos eventos (o sucesos) con P(B) > 0, la probabilidad condicional de A dado B está definida como:

Se puede interpretar como, tomando los mundos en los que B se cumple, la fracción en los que también se cumple A.

Se puede interpretar como, tomando los mundos en los que B se cumple, la fracción en los que también se cumple A.

Interpretación

Se puede interpretar como, tomando los mundos en los que B se cumple, la fracción en los que también se cumple A.

Ejemplo:

Si el evento B es, por ejemplo, tener la gripe, y el evento A es tener dolor de cabeza,

sería la probabilidad de tener dolor de cabeza cuando se está enfermo de gripe. Gráficamente, si se interpreta el espacio de la ilustración como el espacio de todos los mundos posibles, A serían los mundos en los que se tiene dolor de cabeza y B el espacio en el que se tiene gripe. La zona verde de la intersección representaría los

mundos en los que se tiene gripe y dolor de cabeza . En este caso es decir, la probabilidad de que alguien tenga dolor de cabeza sabiendo que tiene gripe,

Page 10: Teoria de la probabilidad

sería la proporción de mundos con gripe y dolor de cabeza (color verde) de todos los mundos con gripe: El área verde dividida por el área de B. Como el área verde representa

y el área de B representa a P(B), formalmente se tiene que:

Propiedades

1.

2.

Es decir, si todos los que tienen gripe siempre tienen dolor de cabeza, entonces la probabilidad de tener dolor de cabeza dado que tengo gripe es 1.

1.

Pero NO es cierto que

5.2 Eventos Independientes.

Dos sucesos aleatorios A y B son independientes si y sólo si:

O sea que si A y B son independientes, su probabilidad conjunta, ó P(A,B).

Puede ser expresada como el producto de las probabilidades individuales.

Equivalentemente:

En otras palabras, si A y B son independientes, la probabilidad condicional de A dado B es simplemente la probabilidad de A y viceversa.

5.3 Eventos Dependientes.

Dos sucesos A y B son mutuamente excluyentes si y sólo sí =0.

Entonces, =0.

Además, si P(B) > 0 entonces es igual a 0.

Page 11: Teoria de la probabilidad

5.4 Ley de Probabilidad total.

Si A1, A2 y A3 son tres sucesos entonces:

P(A1 A2 A3) = P(A1)*P(A2/A1)*P(A3/A2 A1)

P(A1 A2 A3... An) = P(A1)*P(A2/A1)*P(A3/A2 A1)*P(An/A1 A2 ...An-1)

5.5 Teorema de Bayes.

Si B1,B2,…,Bn son eventos mutuamente excluyentes, de los cuales uno debe ocurrir, es

decir 1= P)(n

i

iBP , entonces.

n

i

ii

jj

BAPBP

BAPBP

01

)

)/()(

)/((= P(Bj/A) j=1,2…….,n

Ejemplo:

Dos clases de 2º de Bachillerato, una de 28 alumnos y otra de 35 alumnos hacen conjuntamente un examen de Matemáticas. La probabilidad de aprobar de los alumnos de la primera clase es de 0’68y los de la segunda del 0’73. Se toma un examen al azar y resulta que está aprobado. ¿Cuál es la probabilidad de que sea de un alumno de la 1ª clase?

Sea A1= “el examen es de un alumno de la primera clase”

A2= “el examen es de un alumno de la segunda clase”

B= “el examen está aprobado”

Nos piden P(A1/B).

Hagamos antes que nada un diagrama de árbol:

Diagrama de árbol para el problema del examen

Por el teorema de Bayes:

)/(*)()/(*)(

)/(*)(= /B)P(A

2211

111

ABPAPABPAP

ABPAP

Sustituyendo:

Page 12: Teoria de la probabilidad

427,0708,0

302,0

73,0*63

3568,0*

63

28

68,0*63

28

= /B)P(A1

P(A1) es la probabilidad “a priori”, es decir , antes de realizar el experimento y careciendo de información.

En este caso 444,063

28= )P(A1

P(A1/B) es la probabilidad “a posteriori”, después de realizarlo y conocer más información. En este caso p(A1/B) = 0,427 (es algo menor).

6. MUESTRAS DE POBLACIÓN, DEFINIR PERMUTACIONES Y COMBINACIONES Y SUS APLICACIONES A LOS DIFERENTES EVENTOS.

6.1 Población.

Una población es conjunto de elementos que tiene características comunes, al menos una. Por ejemplo, una población es el grupo de estudiantes de un país.

En el caso particular de la estadística la población constituye el objeto de estudio, es decir, la población es el conjunto de individuos o entes que constituyen el objeto de estudio sobre el que se desea predecir un comportamiento a partir del estudio.

6.2 Muestra.

Una muestra es un subconjuntos de datos tomados de la población, cuya finalidad es la de realizar inferencias acerca de la población a partir del comportamiento de sus elementos. Es claro que si la muestra es un subconjunto de la población entonces la muestra tendrá un número menor de elementos. La naturaleza de la muestra radica en la optimización de los recursos, por ejemplo, si deseamos hacer un estudio acerca de las lecturas que a los estudiantes de Michoacán les gusta leer, el estudio implicaría considerar a los estudiantes de lugares remotos, resultando difícil desde el punto de vista económico, sin embargo la estadística plantea métodos mediante los cuales con una elección adecuada del tamaño de muestra podemos predecir a partir de una muestra las preferencias que tienen los estudiantes acerca del tipo de lectura.

Para el muestreo Existen dos métodos para seleccionar muestras de poblaciones; el muestreo no aleatorio o de juicio y el muestreo aleatorio o de probabilidad. En este último todos los elementos de la población tienen la oportunidad de ser escogidos en la muestra. Una muestra seleccionada por muestreo de juicio se basa en la experiencia de alguien con la población. Algunas veces una muestra de juicio se usa como guía o muestra tentativa para decidir como tomar una muestra aleatoria más adelante. Las muestras de juicio evitan el análisis estadístico necesario para hacer muestras de probabilidad.

6.3 Permutaciones.

Las permutaciones son las distintas formas en que se pueden ordenar los n elementos de un conjunto.

En general, hay n! permutaciones en las que colocar n elementos en orden.

Page 13: Teoria de la probabilidad

El número de permutaciones de n elementos se denota Pn. Las permutaciones son un caso particular de las variaciones Pn = Vn,n = n! cuando el número de elementos del conjunto de objetos es igual al de cada uno de los conjuntos ordenados.

La fórmula del número de permutaciones empieza como n!, pero termina con (n – k + 1) en lugar de 1. Necesitamos eliminar los factores de (n – k) a 1 del producto. ¡Podemos hacer eso dividiendo entre (n – k)! Entonces, para las combinaciones, dividimos el resultado entre k • (k – 1) • … • 2 • 1, o k. Usando Factoriales Cuando escogemos k de n objetos, podemos usar las siguientes fórmulas: Número de permutaciones = Número de combinaciones = Muchas calculadoras tienen la tecla o el comando factorial (¡). Para encontrar el número de permutaciones de escoger 20 de 24 objetos, teclear 24! ÷ 4! Es más rápido y fácil que 24 • 23 • 23 • 21 • 20 • 19 • 18 • 17 • 16 • 15 • 14 • 13 • 12 • 11 • 10 • 9 • 8 • 7 • 6 • 5. (Aunque, si sólo se hacen 4 elecciones, sería más fácil teclear 24 • 23 • 22 • 21.) Probemos estas fórmulas en un problema. Primero, usaremos el Principio Fundamental de Conteo. Ahora aplicaremos estas fórmulas en ciertos ejemplos para detonar cual es el cambio que produce al usar de una manera adecuada las fórmulas para llegar a un resultado más factible y directo.

6.4 Combinaciones.

Las combinaciones son agrupaciones de objetos en las que no importa su orden.

En general, el número de combinaciones de n elementos tomados de k en k se escribe Cn,k, y su valor está dado por la siguiente fórmula:

)!(!

!= C

,

kn,knk

n

P

V

k

kn

6.5 Aplicaciones.

Se utiliza para el desarrollo del binomio de Newton; en la teoría de la probabilidad y en estadística (para calcular el número de casos posibles de un sistema). También tiene importantes aplicaciones en el diseño y funcionamiento de ordenadores o computadoras, así como en las ciencias físicas y sociales. De hecho, la teoría combinatoria es de gran utilidad en todas aquellas áreas en donde tengan relevancia las distintas maneras de agrupar un número finito de elementos.

Page 14: Teoria de la probabilidad

CONCLUSIÓN

Al momento de preparar este ensayo nos disponíamos a analizar los puntos de información más importantes del tema para poder dar una respuesta o conclusión a la teoría de probabilidades. Los factores y posibles soluciones que nos encontramos al momento de buscar la información detallada nos dan los resultados esperados, igualmente debemos tomar los puntos clave para poder dar una respuesta a los ejemplos a resolver es por eso que la mayoría de los problemas nos dan un espacio muestral o un resultado ya esperado en una determinada posición y poder dar un valor a ese ejemplo por lo cual cave analizar cada paso a realizar para obtener un resultado más específico por lo cual se plantean teorías y ecuación que nos ayudan a dar las respuestas a ellos de una manera más rápida y clara.

La teoría de la probabilidad nos da un enfoque de prevención, ya que mediante su aplicación podemos tomar en cuenta las variables de un posible evento al momento de un diseño, fabricación o construcción de algún equipo, fármaco, edificio, industria, entre otros.

Page 15: Teoria de la probabilidad

BIBLIOGRAFÍA

http://es.wikipedia.org/wiki/http://www.montereyinstitute.org

http://es.wikipedia.org/wiki/Probabilidad_condicionada

http://eadsaia.uft.edu.ve/psm/file.php/1868/Teoria_de_la_Probabilidad.pdf

http://ocw.unican.es/ensenanzas-tecnicas/teoria-de-la-comunicacion/material-de-clase-

2/TC_Tema_1.pdf