Dispensa Di Statisitica Prof Franceschini

Embed Size (px)

Citation preview

  • 8/20/2019 Dispensa Di Statisitica Prof Franceschini

    1/131

    Università di Modena e Reggio Emilia

    Facoltà di Ingegneria - sede di Modena

    Lezioni

    di

    STATISTICA MATEMATICA

    Docente: Prof. Valter Franceschini

    per i Corsi di Laurea in Ingegneria Meccanica e dei Materiali

    - a.a. 2008/09 -

  • 8/20/2019 Dispensa Di Statisitica Prof Franceschini

    2/131

    INDICE

    1 CALCOLO DELLE PROBABILITÀ 1

    1.1 Calcolo combinatorio 1

    1.2 La probabilità matematica 5  Spazi di probabilità finiti 8Spazi finiti equiprobabili 9

    1.3 Probabilit̀a condizionata 14  Eventi indipendenti 16Formula di Bayes 19

    1.4 Variabili aleatorie 23  Variabili aleatorie discrete 25Variabili aleatorie continue 26

    1.5 Media e varianza 31

    1.6 Variabili aleatorie bidimensionali 37  

    1.7 Distribuzioni binomiale, di Poisson e di Gauss 46  Distribuzione binomiale 46Distribuzione di Poisson 49Distribuzione di Gauss 51

    1.8 Approssimazione normale 55  

    1.9 Altre distribuzioni 61Distribuzione esponenziale 61Distribuzione ipergeometrica 63Distribuzione geometrica 65

    2 STATISTICA DESCRITTIVA 66

    2.1 Introduzione 66  

    2.2 Organizzazione e rappresentazione dei dati 66  

    2.3 Grandezze che sintetizzano i dati 71

    3 STATISTICA MATEMATICA 81

    3.1 Popolazioni e campioni 81

    3.2 Stimatori 82  

    3.3 Distribuzioni chi-quadro e di Student 85  

    3.4 Intervalli di fiducia (o di confidenza) 87  

    3.5 Stima della media di una popolazione normale 87  3.6 Stima della varianza di una popolazione normale 91

    3.7 Stima della differenza delle medie di due popolazioni normali 94  

    3.8 Stima di una proporzione 99  

    3.9 Basi logiche dei test 102  

    3.10 Formulazione di un test di ipotesi 104  

    3.11 Test di significatività 107  

    3.12 Test riguardanti la media di una popolazione normale 109  

    3.13 Test riguardanti la differenza delle medie di due popolazioni normali 117 

    3.14 Curve caratteristiche operative dei test 120  

    Tavole delle leggi    N (0, 1), χ2n   e   T n   125 

    Bibliografia 128  

  • 8/20/2019 Dispensa Di Statisitica Prof Franceschini

    3/131

    CAPITOLO  1: CALCOLO DELLE PROBABILITÀ

    1.1 CALCOLO COMBINATORIO

    DISPOSIZIONI

    Definizione   Una  disposizione semplice di  n  oggetti dati presi  k  alla volta è unak¡upla ordinata di  k  oggetti distinti scelti tra gli  n   (ovviamente   k · n) .Esempio  1.1.1   Le disposizioni semplici dei 3 oggetti dati a, b, c   presi a coppie (per cuik = 2, n = 3), sono

    (a, b),   (b, c),   (c, a),   (b, a),   (c, b),   (a, c) .

    Proposizione   Il numero di disposizioni semplici di  n  oggetti presi  k  alla volta, che indichiamo con   D(k; n), è il prodotto dei   k  numeri naturali decrescenti a partire da  n:

    D(k; n) =  n(n ¡ 1) ¢ ¢ ¢ (n ¡ k + 1) =   n!(n ¡ k)! .

    Infatti, se riempio   k   caselle in ordine, nella prima ho   n   possibilità di scelta, nellaseconda (n ¡ 1) possibilità, ..., nella  k¡esima (n ¡ k + 1).

    Definizione   Una disposizione con ripetizione di  n  oggetti dati presi  k  alla volta

    è una  k¡upla ordinata i cui elementi, non necessariamente distinti, sono scelti fragli  n.

    Osservazione: differentemente dal caso delle disposizioni semplici, k  può anche esseremaggiore di  n.

    Esempio  1.1.2   Le diposizioni con ripetizione dei tre oggetti  a, b, c   a due a due (per cuin = 3,   k = 2)  sono

    (a, a),   (a, b),   (b, a),   (b, b),   (b, c),   (c, b),   (a, c),   (c, a),   (c, c) .

    Proposizione   Il numero di disposizioni con ripetizione di   n   oggetti presi   k   allavolta è 

    DR(k; n) =   nk .

    Infatti, se riempio   k   caselle in ordine, nella prima casella ho  n   possibilità di scelta,nella seconda ho ancora  n  possibilità, e cos̀ı per tutte le altre caselle. Ottengo quindiil numero di oggetti elevato al numero di caselle.

    Esempio  1.1.3   Il numero delle possibile schedine del totocalcio è  313; questo è infatti ilnumero di disposizioni con ripetizione dei  3  simboli 1, 2, x, in 13 caselle ordinate.

    Osservazione: Come si deduce da quanto appena visto, in questo contesto l’aggettivo

    1

  • 8/20/2019 Dispensa Di Statisitica Prof Franceschini

    4/131

    ”semplice” significa ”senza ripetizioni”.

    2

  • 8/20/2019 Dispensa Di Statisitica Prof Franceschini

    5/131

    PERMUTAZIONI

    Definizione   Una   permutazione   di   n   oggetti dati è una   n¡upla ordinata i cui 

    elementi sono tutti gli  n  oggetti .Detto altrimenti, una permutazione è una disposizione semplice degli  n   oggetti datiquando sono presi tutti  n  (si tratta del caso  k  =  n). Di conseguenza il numero  P (n)delle possibili permutazioni di  n  oggetti vale

    P (n) =   n(n ¡ 1) ¢ ¢ ¢ 3 ¢ 2 ¢ 1 ´ n!

    Il simbolo n! si legge “n  fattoriale” e designa il prodotto dei primi  n  numeri naturali.Per convenzione si pone 0! = 1. Si è dunque trovato che vale la seguente

    Proposizione   Il numero  P (n)  delle permutazioni di  n  oggetti è uguale a  n! .

    Esempio  1.1.4   Le permutazioni di 5  clienti di banca (che rappresentano i possibili modi dimetterli in ordine di attesa a uno sportello) sono  5!, ossia = 5 ¢ 4 ¢ 3 ¢ 2 ¢ 1 = 120.

    COMBINAZIONI

    Definizione   Una   combinazione semplice   di   n   oggetti dati presi   k   alla volta,k · n, è un sottoinsieme non ordinato di  k  oggetti distinti scelti tra gli  n.Esempio  1.1.5   Le combinazioni dei 3 oggetti a,b,c,  presi 2 alla volta sono

    fa, bg, fb, cg, fa, cg .Si noti che fa, bg ´ fb, ag. Per gli insiemi astratti (per i quali si usa la parentesi graffa)non vige alcuna struttura d’ordine.

    Proposizione   Il numero di combinazioni semplici di   n  oggetti presi   k   alla volta,che indichiamo con  C (k; n), vale 

    C (k; n) =

    n

    k

    .

    Ricordato che   n

    k

    :=

      n(n ¡ 1)...(n ¡ k + 1)k!

      =  n!

    k!(n ¡ k)! ,

    dimostriamo la proposizione enunciata. Per ciascuna combinazione in cui sono presik  oggetti alla volta, esistono   P (k) modi di metterli in ordine. Di conseguenza, frail numero   D(k; n) delle disposizioni e il numero   C (k; n) delle combinazioni vale laseguente relazione

    D(k; n) =   C (k; n) ¢ P (k) ,da cui

    C (k; n) =  D(k; n)

    P (k)  .

    Da questa segue immediatamente la tesi della proposizione.

    3

  • 8/20/2019 Dispensa Di Statisitica Prof Franceschini

    6/131

    Esempio  1.1.6   Il numero di comitati di 4  persone che si possono formare da un gruppo di  9è

    C (4;9) = 94   = 9!/[4!(9 ¡ 4)!] =  9 ¢ 8 ¢ 7 ¢ 64 ¢ 3 ¢ 2 ¢ 1   = 126 .Definizione   Una   combinazione con ripetizione   di   n   oggetti dati presi   k   allavolta è un insieme non ordinato di  k   oggetti, non necessariamente distinti, scelti tra gli  n.

    Osservazione: come per le disposizioni con ripetizione, e differentemente dal casodelle combinazioni semplici,  k  può anche essere maggiore di  n.

    Esempio  1.1.7

    Le combinazioni con ripetizione dei 3 oggetti  a,b,c,  presi a coppie sono

    fa, ag, fa, bg, fa, cg, fb, bg, fb, cg, fc, cg .Analogamente, le combinazioni con ripetizione dei 2 oggetti  a  e b  presi a terne sono

    fa,a,ag, fa,a,bg, fa,b,bg, fb,b,bg .

    Proposizione   Il numero di combinazioni con ripetizione di  n  oggetti presi   k  allavolta è 

    C R(k; n) =

    n + k ¡ 1

    k

    .

    Dimostrazione

    Si tratta di contare il numero di soluzioni (a1, a2, . . . , ak), con gli   ai   numeri interi,soddisfacenti la relazione

    1 · a1 · a2 · ¢ ¢ ¢ · ak · n .Questa relazione equivale alla seguente

    0 < a1  < a2 + 1  < a3 + 2  < ¢ ¢ ¢ < ak + k ¡ 1 < n + k ,che a sua volta equivale a

    0 < b1 < b2 < ¢ ¢ ¢ < bk  < n + k ,con i   bi   interi. Ne consegue che il numero cercato è uguale al numero di possibiliscelte di  k  oggetti distinti presi dall’insieme f1, 2, . . . , n + k ¡ 1g, e quindi è uguale aC (k; n + k ¡ 1).

    Esempio  1.1.8   Applichiamo la formula che ci dà C R(k; n)  per verificare che il numero dicombinazioni con ripetizione nei due casi visti nell’esempio 1.1.7 è rispettivamente 6 e 4.

    Dobbiamo ovviamente calcolare  C R(2, 3)  e  C R(3, 2). Si ha

    C R(2, 3) =

    3 + 2 ¡ 1

    2

    =

    4

    2

    = 6 ;

    C R(3, 2) =

    2 + 3 ¡ 1

    3

    =

    4

    3

    = 4 .

    4

  • 8/20/2019 Dispensa Di Statisitica Prof Franceschini

    7/131

    Esercizio  1.1.1   Si consideri un gruppo costituito da 20 persone. Ci si pone il seguente  problema: qual è la probabilità che queste persone compiano gli anni in giorni tutti diversi? 

    Com’è facilmente intuibile, la probabilità che ci interessa è data dal rapporto fra il numeroN dist  dei casi possibili di 20 compleanni tutti distinti e il numero totale  N tot  dei casi pos-sibili di 20 compleanni anche con coincidenze. Volendo formalizzare il problema in termini

    matematici, indichiamo con  (c1, c2,...,c20)   la  20¡upla definita dai 20 compleanni, con  cigiorno di compleanno della i-esima persona. Allora N dist  corrisponde al numero delle pos-sibili  20¡uple di  ci   tutti distinti, con  1 ·   ci ·   365, il che implica  N dist   =   D(20; 365).D’altra parte  N tot   corrisponde al numero di tutte le possibili  20¡uple con  1 ·  ci ·  365,ossia N tot =  D

    R(20; 365). Indicando con P   la probabilità cercata si ha

    P  =   N distN tot

    =  D(20; 365)

    DR(20, 365)  =

     365 ¢ 364 ¢ ¢ ¢ ¢ ¢ 346(365)20

      =365

    365

    364365

    ¢ ¢ ¢

    346365

    ¼ 59% .

    Proposizione   Vale la seguente formula, detta  formula binomiale di Newton:

    (a + b)n =

    n0

    an +

    n1

    an−1b + ... +

      n

    n ¡ 1

    abn−1 +

    nn

    bn

    ovvero, in notazione compatta,

    (a + b)n =

    nk=0

    nk

    an−kbk.

    Dimostrazione(a + b)n = (a + b)(a + b)...(a + b) [n volte]

    è una lunga somma che contiene più volte l’addendo generico   an−kbk.  Fissiamo   k,con   k ·   n.   Quante volte appare tale addendo? Tante quante le possibili scelte dik   parentesi tra le   n   date, prendendo da ciascuna il fattore   b   (ottenendo cos̀ı   bk), econseguentemente prendendo da ciascuna delle rimanenti  n ¡ k   parentesi il fattore  a(ottenendo cosı̀  an−k). In altre parole: il fattore  an−kbk compare tante volte quante

    sono le combinazioni semplici di k  oggetti tra gli n  dati. Cioè

    n

    k

    volte. Quindi tale

    addendo va moltiplicato per

    n

    k

     e la somma va fatta rispetto a  k  come enunciato.

    Esercizio  1.1.2   Provare la proprietà dei coefficienti binomiali n ¡ 1k ¡ 1

    +n ¡ 1

    k

    =n

    k

     .

    Procediamo con calcolo diretto:n ¡ 1k ¡ 1

    +

    n ¡ 1

    k

    =

      (n ¡ 1)!(k ¡ 1)!(n ¡ k)! +

      (n ¡ 1)!k! (n ¡ 1 ¡ k)!   =

    = (n ¡ 1)! k + (n ¡ 1)!(n ¡ k)

    k! (n ¡ k)!   =  (n ¡ 1)!(k + n ¡ k)

    k! (n ¡ k)!   =

    n

    k

    .

    Osserviamo che è grazie a questa relazione che si costruisce il famoso “triangolo di Tartaglia”.

    5

  • 8/20/2019 Dispensa Di Statisitica Prof Franceschini

    8/131

    1.2 LA PROBABILITÀ MATEMATICA

    Definizione   Si chiama   spazio campionario   l’insieme   S   di tutti i possibili esiti 

    di un dato esperimento. Un   evento   è un insieme di esiti, cioè un sottinsieme dello spazio campionario  S. Si dice poi  classe di eventi, e la denoteremo con  Ω,ogni insieme non vuoto di eventi che risulti essere chiuso rispetto alle operazioni insiemistiche elementari, vale a dire:

    i) dati due eventi   A, B 2   Ω, allora anche   A [ B 2   Ω   (A [ B   è l’evento che siverifica se si verifica almeno uno fra gli eventi  A  e  B );

    ii) data una successione numerabile di eventi  Ai 2 Ω, allora anche la loro unione è un evento, cioè 

     ∞i=1 Ai 2 Ω;

    iii) dato un evento   A 2  Ω, allora anche il suo complementare   AC  ´  S ¡ A 2  Ω(AC  è l’evento che si verifica quando  A  non si verifica).

    Dai tre assiomi che caratterizzano una classe di eventi  Ω   seguono queste altre pro-prietà:

    — Dati due eventi  A  e  B, anche  A \ B   è un evento ; infatti:A \ B  = (AC [ BC )C  =)   A \ B 2 Ω ;

    — L’insieme vuoto  ;  e lo spazio  S  sono eventi ; infatti, preso  A 2 Ω, si haA \ AC  = ;   =) ; 2 Ω , A [ AC  = S   =)   S 2 Ω .

    L’evento ;  è detto  evento impossibile  e  S   è detto  evento certo.

    Definizione   Due eventi  A e  B  sono detti   incompatibili se sono disgiunti, cioè se A \ B  = ;. A parole: due eventi sono incompatibili se non si possono mai verificaresimultaneamente.

    Esempio  1.2.1   Si consideri il seguente esperimento: si getta un dado e si guarda il risultatodella prova, vale a dire il numero che si presenta. Lo spazio campionario consiste nei sei

    numeri possibili:

    S = f1, 2, 3, 4, 5, 6g .Consideriamo i seguenti eventi:   A:“il risultato è un numero pari”;   B:“il risultato è un

    numero dispari”;   C :“il risultato è un numero primo”. In termini si sottinsiemi di S :A = f2, 4, 6g , B  = f1, 3, 5g , C  = f2, 3, 5g .

    Si ha quindi, ad esempio:

    AC  = f1, 3, 5g = B ;C C  = f1, 4, 6g: è l’evento “il risultato non è un numero primo”;B \ C  = f3, 5g: è l’evento “il risultato è un numero dispari e primo”;A [ C  = f2, 3, 4, 5, 6g: è l’evento “il risultato è un numero pari o primo”.

    Si noti che gli eventi A  e  B , essendo A \ B  = ;, sono incompatibili.

    6

  • 8/20/2019 Dispensa Di Statisitica Prof Franceschini

    9/131

    Osservazione:   Come si evince dall’esempio, gli eventi sono definiti mediante proposizionifatte nel linguaggio comune, e poi identificati con sottinsiemi di  S . Sulla base di questaconsiderazione risulta molto più appropriato parlare di eventi incompatibili piuttosto che di

    eventi disgiunti, e di sottinsiemi disgiunti piuttosto che di sottinsiemi incompatibili. Accadeperò spesso che i due aggettivi siano usati indifferentemente.

    Definizione   Sia  S uno spazio campionario ed  Ω una classe di eventi in  S. Sia poi P  una funzione definita su  Ω  a valori in   [0, 1]:

    P   : Ω ¡! [0, 1] .Allora  (S, Ω, P )  è detto  spazio di probabilità e  P (A)  è detta  probabilità  dell’e-vento  A 2 Ω  se valgono i seguenti tre assiomi:

    1)   P (S) = 1 ;

    2) se  A  e  B   sono due eventi incompatibili, alloraP (A [ B) = P (A) + P (B) ;

    3) se   fAn, n 2 N g  è una successione numerabile di eventi incompatibili, si ha

    P [∞n=1An

    =

    ∞n=1

    P (An) .

    Gli assiomi 2) e 3) esprimono il fatto che le probabilit à di eventi incompatibili sisommano. In particolare l’assioma 3), che ovviamente ha significato solo nel caso incui Ω è un insieme infinito, si esprime sinteticamente dicendo che P   è numerabilmente 

    additiva.

    Teorema   P (;) = 0 .   (La probabilità dell’evento impossibile è nulla)Dimostrazione

    Sia  A  un qualunque evento di  Ω. Poiché anche ; 2 Ω, segue che  A [ ; 2 Ω. Inoltre,A   ed ;   sono eventi incompatibili essendo   A \ ;  = ;. In virtù dell’assioma 2) si haquindi

    P (A) =  P (A [ ;) = P (A) + P (;) =)   P (;) = 0 .

    Teorema (regola di complementazione)   Sia  A 2 Ω un evento ed  AC  il suo comple-mentare. Allora si ha

    P (AC ) = 1 ¡ P (A) .Dimostrazione

    Essendo A \ AC  = ;,  A  ed  AC  sono eventi incompatibili. Di conseguenza, applicandol’assioma 2) ad  S, si ottiene

    P (S) = P (A [ AC ) = P (A) + P (AC ) = 1 ,da cui consegue banalmente la tesi.

    7

  • 8/20/2019 Dispensa Di Statisitica Prof Franceschini

    10/131

    Teorema   Se  A  e  B  sono due eventi tali che A

    µB, allora

    P (A) · P (B) .Dimostrazione

    Essendo   A µ   B   si può decomporre   B   neglieventi incompatibili  A e  B ¡ A =  B \ AC . Sipuò quindi scrivere

    P (B) =  P (A [ (B ¡ A)) = P (A) + P (B ¡ A) ¸ P (A) ,esssendo P (B ¡ A) ¸ 0.

    Teorema   Se  A  e  B  sono due eventi qualun-

    que, allora

    P (A ¡ B) = P (A) ¡ P (A \ B) .Dimostrazione

    L’evento A può essere decomposto negli eventiincompatibili A ¡ B  e  A \ B, per cui, in virtùdell’assioma 2), si ha

    P (A) = P 

    (A ¡ B) [ (A \ B) = P (A ¡ B) + P (A \ B) .La tesi segue immediatamente.

    Teorema (regola di addizione per eventi arbi-trari)   Se   A, B   sono eventi arbitrari di uno spazio di probabilità, allora

    P (A [ B) = P (A) + P (B) ¡ P (A \ B) .Dimostrazione

    Scriviamo  A [ B   come unione dei due eventiincompatibili  A ¡ B   e  B. Applicando quindil’assioma 2) e il teorema precedente si ottienela tesi.

    P (A [ B) = P (A ¡ B) [ B = P (A ¡ B) + P (B) = P (A) + P (B) ¡ P (A \ B) .

    8

  • 8/20/2019 Dispensa Di Statisitica Prof Franceschini

    11/131

    Spazi di probabilità finiti

    Sia  S  uno spazio campionario finito:

    S = fa1, a2, . . . , aN ged   Ω   l’insieme di tutti i sottinsiemi di   S   (inclusi   S   e ;). Si ottiene uno spazio diprobabilità finito assegnando a ciascun elemento   ai   di   S   un numero reale   pi, dettoprobabilità  di  ai  e indicato come  P (faig), tale che

    i)   pi ¸ 0 per ogni   i = 1, 2, . . . , N  ;ii)   la somma delle singole probabilità è uguale a 1, ossia

     N i=1 pi  = 1 .

    La probabilità P (A) di un qualsiasi evento  A µ S viene quindi definita come la sommadelle probabilità degli  eventi elementari faig  contenuti in  A:

    P (A) = P  i:ai∈A

    faig = i:ai∈A

    P faig = i:ai∈A

     pi .

    Dimostriamo che la funzione  P   : Ω   !   [0, 1] è una funzione di probabilità facendovedere che valgono gli assiomi 1) e 2). Per quanto riguarda la validità dell’assioma1), si ha

    P (S) = P  i:ai∈S

    faig

    = P  N i=1

    faig

    =N i=1

    P faig = N 

    i=1

     pi  = 1 .

    D’altra parte, se  A  e  B   sono eventi incompatibili, abbiamo

    P (A [ B) = P   i:ai∈A∪B

    faig

    =

    i:ai∈A∪BP faig =

    =i:ai∈A

     pi +

    i:ai∈B pi  =  P (A) + P (B) ,

    per cui vale anche l’assioma 2). Valgono dunque tutti gli assiomi richiesti perché  P sia una probabilità (essendo lo spazio finito, l’assioma 3) non ha significato).

    Dal punto di vista pratico ci sono diversi modi di assegnare le probabilità   pi   agli

    eventi elementari faig. Uno dei possibili modi è il seguente: se ripetiamo lo stessoesperimento n  volte e chiamiamo  si  il numero di volte che si verifica faig, si osservache il rapporto

    sin

      ,

    detto   frequenza relativa, a lungo andare tende a stabilizzarsi, cioè tende ad un li-mite   pi   (compreso, ovviamente, tra 0 ed 1). Questo valore limite   pi, cosı̀ calcolatoempiricamente, viene assunto come la  probabilità  dell’evento elementare faig.

    9

  • 8/20/2019 Dispensa Di Statisitica Prof Franceschini

    12/131

    Spazi finiti equiprobabili

    Definizione   Si dice  spazio equiprobabile (o  uniforme) uno spazio di probabilità

    finito dove ciascun elemento dello spazio campionario   S  (o, equivalentemente,ciascun evento elementare) ha la stessa probabilit̀a.

    Dalla definizione e dagli assiomi della probabilità segue immediatamente che, se lospazio campionario  S  consta di  N   elementi, la probabilità di ciascun elemento di  S 

    vale p  =  1

    N  . Avremo inoltre che, dato un qualunque evento A, la sua probabilità sarà

    da

    P (A) = numero degli elementi di A

    N   =

     jAjN 

      .

    A parole:   in uno spazio finito equiprobabile, la probabilità di un evento vale il numero dei casi favorevoli diviso il numero dei casi possibili .

    Nota bene:   jAj  denota la   cardinalità di  A, cioè il numero degli eventi elementari checostituiscono A. Questa notazione sarà utizzata anche in seguito.

    Esempio  1.2.2   Consideriamo un dado non truccato: avremo

    S = f1, 2, 3, 4, 5, 6g, N   = 6 , P (1) = P (2) = ¢ ¢ ¢ = P (6) =   16 .Vogliamo calcolare, ad esempio, la probabilità degli eventi

    A :   esce un numero pari, B  :   esce un numero minore di 3.

    Si avrà

    P (A) = jf2, 4, 6gj

    6

      =  1

    2

     , P (B) = jf1, 2gj

    6

      = 1

    3

     .

    Esercizio  1.2.1   Si scelga a caso una carta da un mazzo ben mescolato di 52 carte da ramino.Ci si chiede la probabilità di ottenere: 1) un asso; 2) una carta di fiori; 3) una figura; 4) una 

    figura non di cuori.

    Lo spazio campionario  S   è ovviamente l’insieme delle 52 carte, per cui N =52. Siano poiA1,  A2,  A3   e  A4   gli eventi di cui si chiede, nell’ordine, la probabilità. Essendo lo spazioequiprobabile (la carta è scelta a caso!), avremo:

    P (A1) = jA1j

      = numero degli assi

      =  4

    52

      =  1

    13

     ;

    P (A2) = jA2j

    N   =

     numero delle carte di fiori

    N   =

      13

    52  =

     1

    4 ;

    P (A3) = jA3j

    N   =

      numero delle figure

    N   =

      12

    52 =

      3

    13 ;

    P (A4) = jA4j

    N   =

     numero delle figure non di cuori

    N   =

      9

    52 .

    10

  • 8/20/2019 Dispensa Di Statisitica Prof Franceschini

    13/131

    Esercizio  1.2.2   Si effettuano cinque lanci successivi di una moneta non truccata. Ci si chiede: qual è la probabilità che in cinque lanci esca “testa” almeno una volta? 

    Introduciamo l’appropriato spazio di probabilità:

    S =

    (a1, a2, a3, a4, a5),   con   ai  =  T    o   ai  =  C, i = 1,..., 5

    ,

    dove ai indica il risultato del lancio i-esimo, e T   e C  stanno ovviamente per “testa” e “croce”.Siccome il numero delle possibili cinquine che costituiscono S è 25, abbiamo N   = 32, e quindi

     p =   132 .

    L’evento che ci interessa è

    A =  “esce almeno una testa” ,

    che è il complementare dell’evento elementare

    f(C,C,C,C,C )

    g, la cui probabilità è ovvia-

    mente p. Si ha quindi

    P (A) = 1 ¡ P (AC ) = 1 ¡   132

      =  31

    32 .

    Esercizio  1.2.3   Problema: qual è la probabilità che fra  M  persone ce ne siano almeno due con lo stesso compleanno? 

    Il problema, nella sostanza, è già stato affrontato nell’esercizio 1.1.1. Assunto che tutti gli

    anni siano di 365 giorni (considerare anche gli anni bisestili complicherebbe considerevol-

    mente il problema), e che tutti i giorni siano equiprobabili, lo spazio di probabilità è

    S   = (a1, a2, . . . , aM ), ai 2 [1, 2, . . . , 365] .Siccome il numero degli eventi elementari è  N   =  DR(M ;365) = 365M , ogni evento ele-

    mentare ha probabilità p  =  1

    365M   .

    Indicato con AM   l’evento “gli  M   compleanni avvengono tutti in giorni diversi”, l’evento dicui interessa la probabilità è il complementare di  AM , ciòe  A

    C M . Ricordando quanto visto

    nell’esercizio 1.1.1, generalizzandone il risultato si ottiene

    P (AM ) = jAM j

    jS j   =  D(M ; 365)

    DR(M ; 365)  =

      365 ¢ 364 ¢ ¢ ¢ ¢ ¢ (365 ¡ M  + 1)365M 

      ,

    e quindi, in virtù della regola di complementazione,

    P (AC M ) = 1 ¡M i=1(366 ¡ i)

    365M   .

    Facendo il calcolo, si ottiene, ad esempio,  P (AC 10) ¼ 12%, P (AC 20) ¼ 41%, P (AC 30) ¼ 71%,P (AC 50) ¼ 97%.

    11

  • 8/20/2019 Dispensa Di Statisitica Prof Franceschini

    14/131

    Esercizio  1.2.4   Carlo e Giorgio sono due amici che ogni giorno scommettono sul risultato del lancio di un dado. Carlo punta sempre su un risultato dispari, Giorgio su un risultato 

     pari. Giorgio crede che i numeri riportati sulle facce del dado (ovviamente gli interi da 1 a 6)siano equiprobabili. In realtà non è cos̀ı in quanto Carlo, di nascosto, ha “truccato” il dado 

    facendo in modo che il numero 1 abbia probabilità   15

    , lasciando però che gli altri numeri 

    siano equiprobabili. Quali sono le probabilit̀a di vincere di Carlo e Giorgio rispettivamente? 

    Lo spazio campionario è ovviamente

    S = f1, 2, 3, 4, 5, 6g .Sia pi  =  P 

    fig. Siccome sappiamo che p1  =   15   e che p2= p3= p4= p5= p6, dovendo essere6i=1 pi  = 1, si ricava pi  =

      425 , per i  = 2, . . . , 6. L’evento per cui vince Carlo è

    A =  “il risultato è dispari” = f1, 3, 5g .Ovviamente l’evento per cui vince Giorgio è AC . Si ha dunque

    P (A) = P f1, 3, 5g = P f1g + P f3g + P f5g =   15  +   425  +   425  =   1325 ,e quindi

    P (AC ) = 1 ¡ P (A) =   1225 .In fin dei conti, Carlo è stato sleale, ma poteva esserlo molto di più.

    Esercizio  1.2.5   Le probabilit̀a che tre giocatori  G1,   G2   e  G3   colpiscano il bersaglio sono rispettivamente  p1  =

      16 , p2  =

      14 , p3  =

      13 . Ciascuno spara una volta al bersaglio. Trovare la 

     probabilità degli eventi:

    a)   A: “un solo giocatore colpisce il bersaglio”;b)   B: “uno o due giocatori colpiscono il bersaglio”.

    Sia  S ´ (s1, s2, s3), con   si = Y oppure  si =  N a seconda che il giocatore   Gi   colpiscaoppure no il bersaglio. E quindi

    S ´ (Y,Y,Y), (Y,Y,N), (Y,N,Y), (Y,N,N), (N,Y,Y), (N,Y,N), (N,N,Y), (N,N,N) .Sappiamo che   P (fsi   =   Yg) =   pi   e di conseguenza   P (fsi   =   Ng) = 1 ¡  pi. Essendo ilrisultato di ciascun sparo indipendente dagli altri (il concetto di “eventi indipendenti” sar à

    definito in maniera rigorosa più avanti), si ha

    P (s1, s2, s3)= P (fs1g) ¢ P (fs2g) ¢ P (fs3g) .Avremo perciòP (A) = P 

    (Y,N,N)

    + P 

    (N,Y,N)

    + P 

    (N,N,Y)

    =

    =  1

    6 ¢ 3

    4 ¢ 2

    3 +

     5

    6 ¢ 1

    4 ¢ 2

    3 +

     5

    6 ¢ 3

    4 ¢ 1

    3  =

     31

    72

    P (B) = P f(Y , Y , Y  ), (N , N , N  )gC  = 1 ¡ P (Y , Y , Y  ) + P (N , N , N  ) =

    = 1 ¡1

    6 ¢  1

    4 ¢  1

    3 +

     5

    6 ¢ 3

    4 ¢ 2

    3

    =

      41

    72 .

    12

  • 8/20/2019 Dispensa Di Statisitica Prof Franceschini

    15/131

    Esercizio  1.2.6   Un dado “equo” a 4 facce riportanti i numeri 1, 2, 3 e 4 è lanciato tre volte.Si chiede la probabilità di ottenere: i) almeno un tre; ii) nessun uno e nessun due.

    Lo spazio campionario èS = f(a1, a2, a3) , ai 2 [1, 2, 3, 4] , i = 1, 2, 3 .g

    Sia   A   l’evento “si è ottenuto almeno un 3”. Indicando con   Qk   l’evento “il risultato delk-esimo lancio è 3”, si ha   AC  =   QC 1 \ QC 2 \ QC 3 . Essendo poi gli eventi   Q1,   Q2   e   Q3indipendenti uno dall’altro (in quanto il risultato di ciascuno non dipende da quello degli

    altri due), anche gli eventi complementari  QC k   sono indipendenti. Tenendo conto di ciò e delfatto che P (Q1) = P (Q2) = P (Q3) =

      14 , per cui P (Q

    C 1 ) = P (Q

    C 2 ) = P (Q

    C 3 ) =

      34 , si ha

    P (A) = 1 ¡ P (AC ) = 1 ¡ P QC 1 \ QC 2 \ QC 3 = 1 ¡ P (QC 1 ) ¢ P (QC 2 ) ¢ P (QC 3 ) == 1 ¡

    34

    3=

      37

    64 ¼ 57.8% .

    Sia ora B   l’evento “non si è ottenuto nessun uno e nessun due”. Indicando con  Rk   l’evento“il risultato del  k-esimo lancio è 3 o 4”, si ha B  =  R1 \ R2 \ R3. Anche in questo caso itre eventi Rk   sono indipendenti; inoltre P (R1) = P (R2) = P (R3) =

      12 . Ne consegue

    P (B) = P (R1 \ R2 \ R3) = P (R1) ¢ P (R2) ¢ P (R3) =1

    2

    3=

      1

    8  = 12.5% .

    Esercizio  1.2.7   Un’urna contiene 20 palline numerate progressivamente. a) Vengono estratte in blocco 4 palline: qual è la probabilità che venga estratta la pallina numero 1? b) Ven-

    gono estratte una dopo l’altra 4 palline ogni volta con reimmissione: qual è la probabilità 

    che venga estratta la pallina numero 1? 

    Sia A  l’evento ”fra le 4 palline estratte c’è anche la numero 1”. L’evento complementare AC 

    è dunque ”fra le 4 palline estratte non c’è la numero 1”. Calcoleremo  P (A) come 1¡P (AC ),essendo P (AC )   molto semplice.

    a) Assumiamo come spazio   S   l’insieme di tutte le possibili disposizioni   ( p1, p2, p3, p4)dei numeri da 1 a 20 presi quattro alla volta (senza ripetizioni). Essendo tali quaterne

    equiprobabili, avremo

    P (A) = 1 ¡ jAC j

    jS j   = 1 ¡ D(4; 19)

    D(4; 20)  = 1 ¡  19 ¢ 18 ¢ 17 ¢ 16

    20 ¢ 19 ¢ 18 ¢ 17  = 1 ¡ 16

    20  =

     1

    5 .

    Allo stesso risultato si poteva pervenire anche per altra via. Come spazio S, infatti, si puòassumere l’insieme di tutte le possibili combinazioni di 4 numeri interi (distinti) presi tra 1

    e 20. Anche le combinazioni sono equiprobabili, per cui si ha

    P (A) = 1 ¡ jAC j

    jS j   = 1 ¡ C (4; 19)

    C (4; 20) = 1 ¡

    194

    204

      = 1 ¡   19!15! 4!

    16!4!

    20!  = 1 ¡  4

    5  =

      1

    5 .

    b) In questo caso, affinchè lo spazio campionario sia equiprobabile , bisogna assumere  Scostituito da tutte le possibili disposizioni con ripetizione di 4 interi presi tra 1 e 20. Si ha

    dunque

    P (A) = 1 ¡  DR(4; 19)

    DR(4; 20)  = 1 ¡  19

    4

    204  = 1 ¡

    1920

    4¼ 1 ¡ 0.815 = 18.5% .

    13

  • 8/20/2019 Dispensa Di Statisitica Prof Franceschini

    16/131

    Esercizio  1.2.8   Da un mazzo ben mescolato di 52 carte da ramino se ne estraggono 5 a caso.Si chiede la probabilità di: 1) un poker (PO); 2) un full (FU); 3) una doppia coppia (CC);

    4) una coppia (C).Lo spazio campionario  S   è costituito da tutte le possibili cinquine (non ordinate) di carteottenute combinando senza ripetizioni le 52 carte di un mazzo, ossia

    S = f(c1, c2, c3, c4, c5) , ci 6= cjg , N  =

    525

    = 2·598·960 .

    La probabilità di ciascun evento si ottiene calcolando il numero degli eventi favorevoli e

    dividendolo per  N . Volendo calcolare la probabilità di un poker, contiamo quante sono lepossibili cinquine con quattro carte “uguali”. Scelte 4 carte “uguali”, e ci sono 13 possibili

    scelte, la quinta carta può essere una qualunque fra le rimanenti 48. Avremo dunque

    P (P O) =  13¢48

    N   ¼ 0.024% .

    Volendo poi un full, cioè una cinquina del tipo  aaabb, osserviamo che ogni tris   aaa   puòessere ottenuto con 13 diverse carte “a” e che per ciascun “a” se ne possono poi ottenere

    43

    = 4; per quanto riguarda poi la coppia  bb, una volta scelto il tris, la si può ottenere con

    12 diverse carte “b”, e per ciascun “b” ci sono

    42

    = 6   possibilità. Si ha quindi

    P (F U ) = 13¢4

    3

    ¢12¢42

      =  13¢4¢12¢6

    N   ¼ 0.14% .

    La domanda 3) concerne le doppie coppie, cioè le cinquine del tipo  aabbc. Ragionando inmodo analogo a quanto fatto per le precedenti domande, si ha

    P (CC ) =  13¢

    42

    ¢12¢

    42

    ¢11¢

    41

    2¢N    = 13¢6¢12¢6¢11¢4

    2¢N    ¼4.75% ,

    dove il 2 a denominatore tiene conto del fatto che sono state conteggiate sia le ”quaterne”

    del tipo aabb  che quelle del tipo  bbaa.

    La domanda 4) richiede di calcolare la probabilità di una semplice coppia, vale a dire una

    cinquina del tipo aabcd. In questo casi si ha

    P (C ) =  13¢4

    2

    ¢12¢41

    ¢11¢41

    ¢10¢41

    6¢N    =

      13¢6¢12¢4¢11¢4¢10¢46¢N    ¼ 42.3% ,

    dove il 6 a denominatore tiene conto del fatto che per la formazione di una coppia del tipo

    aabcd   sono state conteggiate tutte le possibili terne  bcd,  bdc,  cbd,  cdb,  dbc  e  dcb  (cioè lepossibili permutazioni dei tre ogetti  a, b, c).

    14

  • 8/20/2019 Dispensa Di Statisitica Prof Franceschini

    17/131

    1.3 PROBABILITÀ CONDIZIONATA

    Definizione   Dato uno spazio di probabilit̀a   (S, Ω, P )   e due eventi   A   e   B   di   Ω

    con   P (B)   >   0, si chiama   probabilità condizionata di   A   dato   B   il numero P (A \ B)/P (B). Tale numero, che esprime la probabilità che avvenga  A  una voltache sia avvenuto  B, sarà indicato con  P (AjB). Si ha dunque, per definizione,

    P (AjB) =  P (A \ B)P (B)

      .

    Nel caso di uno spazio   S   finito ed equiprobabile, indicato con jE j   il numero deglielementi di un evento  E  2 S, si ha

    P (A \ B) = jA

    \B

    jjSj   , P (B) = jB

    jjSj   ,e quindi

    P (AjB) = jA \ BjjBj   .

    Esercizio  1.3.1   Si lanci una coppia di dadi. Se la loro somma è 6, si determini la probabilità che almeno uno dei dadi abbia dato come risultato 2.

    Lo spazio campionario è

    S =

    f(h, k), h , k = 1, 2, 3, 4, 5, 6

    g,

    per cui, indicati con A  e  B   i due eventi

    B  =  “la somma è 6”  = f(1, 5), (2, 4), (3, 3), (4, 2), (5, 1)g ,A =  “almeno un 2”  = f(2, 2), (2, k), (h, 2), h,k = 1, 3, 4, 5, 6g ,

    si ha A \ B  = f(2, 4), (4, 2)g. Essendo lo spazio equiprobabile, ne consegue

    P (AjB) = jA \ BjjBj   = 2

    5 .

    Esercizio  1.3.2   In una popolazione i genotipi  AA,   Aa   e  aa  (che rappresentano in questo 

     problema gli eventi elementari) abbiano probabilità rispettivamente 

    P (AA) =  49

    100, P (Aa) =

      42

    100, P (aa) =

      9

    100 .

    Supponiamo che dopo un certo tempo muoiano sistematicamente gli individui di tipo  aa,sicchè gli adulti sono o  AA  o  Aa. Ci si chiede: qual è la probabilità di AA fra gli adulti? 

    Bisogna calcolare la probabilità condizionata di AA  dato l’evento  B  =  AA [ Aa :

    P (AAj AA[Aa) =  P (AA \ [AA [ Aa])P (AA [ Aa)   =

      P (AA)

    P (AA [ Aa)  =  0.49

    0.49 + 0.42 =

      0.49

    0.91 ¼ 54% .

    15

  • 8/20/2019 Dispensa Di Statisitica Prof Franceschini

    18/131

    Teorema (o legge) delle probabilità composte

    Dati gli eventi  A  e  B, con  P (B) >  0, vale la relazione 

    P (A \ B) = P (B)¢P (AjB) .La dimostrazione segue banalmente dalla definizione di probabilità condizionata.

    La legge appena formulata, che permette di calcolare la probabilità dell’intersezionedi due eventi note la probabilità di uno e la probabilità condizionata dell’altro datoil primo, si può facilmente estendere a più eventi. Riscritta la legge nel caso di dueeventi  A1  e  A2,

    P (A1 \ A2) =  P (A1)¢P (A2jA1) ,quella per tre eventi  A1,  A2  e  A3  si ricava immediatamente

    P (A1 \ A2 \ A3) = P ([A1 \ A2] \ A3) = P (A1 \ A2)¢P (A3jA1 \ A2) =

    = P (A1)¢P (A2jA1)¢P (A3jA1 \ A2) .Generalizzando al caso di  n  eventi  A1, A2, . . . , An  si ottiene

    P \ni=1Ai

    = P (A1)¢P (A2jA1)¢P (A3jA1 \ A2) ¢ ¢ ¢ P (AnjA1 \ A2 \ ¢ ¢ ¢ \ An−1) .

    Esercizio  1.3.3   Un’urna contiene 9 palline rosse e 6 gialle. Una dopo l’altra vengono estratte a caso, senza reimmissione, tre palline. Calcolare la probabilit à che siano tutte rosse.

    Denotiamo con Ak, con k  = 1, 2, 3, l’evento “la k-esima pallina è rossa”. L’evento di cui ciinteressa la probabilità è A1 \ A2 \ A3. Dal teorema delle probabilità composte segue che

    P (A1

    \A2

    \A3) = P (A1)

    ¢P (A2

    jA1)

    ¢P (A3

    jA1

    \A2) =

      9

    15 ¢

      8

    14 ¢

      7

    13

      =  12

    65

     .

    Proposizione   Dati due eventi  A  e  B , con  P (A) >  0  e  P (B) >  0, vale la relazione 

    P (AjB) =   P (A)P (B)

    ¢P (BjA) .

    Questa relazione consegue immediatamente dalla legge della probabilità compostascrivendo

    P (A \ B) =  P (B) ¢P (AjB) =  P (A)¢P (BjA) .È una formula di grande utilità in quanto permette di ricavare la probabilità condi-zionata di un evento  A  dato B , sapendo la probabilità condizionata di  B  dato A. Ciòaiuta, ad esempio, nelle diagnosi delle malattie, come si vede nell’esercizio che segue.

    Esempio  1.3.1   Se la probabilità teorica del sintomo B , data la malattia A, è il 30%, possocalcolare la probabilità che un paziente affetto dal sintomo  B  abbia la malattia  A. Se, adesempio, in Emilia la percentuale delle persone affette dalla malattia  A   è il  15%   e quelladelle persone che manifestano il sintomo  B   è il  5%, per cui  P (A) = 0.15  e  P (B) = 0.05,la probabilità della malattia  A  dato il sintomo B   è

    P (AjB) =   P (A)P (B)

    ¢P (BjA) =   0.150.05

     ¢ 0.30 = 90% .

    16

  • 8/20/2019 Dispensa Di Statisitica Prof Franceschini

    19/131

    EVENTI INDIPENDENTI

    Definizione   Due eventi  A  e  B  si dicono  indipendenti  se 

    P (A \ B) = P (A)¢P (B) .

    Il significato di questa definizione, che vale qualunque siano gli eventi  A  e  B , apparechiaro se si considerano eventi di probabilità non nulla. Infatti, se  P (B)  >  0, dalladefinizione di probabilità condizionata, segue

    P (A) =  P (AjB) ,e analogamente, supposto  P (A) >  0, si ha

    P (B) = P (BjA) .A parole: la probabilità di A non dipende dal verificarsi oppure no di B, e viceversa.

    Ciò giustifica la terminologia.

    Teorema   Se  A  e  B  sono indipendenti, lo sono anche  A  e  BC , AC  e  B ,  AC  e  BC .

    Dimostrazione

    Dimostriamo dapprima l’indipendenza di  A  e  BC . Essendo

    P (BC ) = 1 ¡ P (B) , P (A) = P (A \ B) + P (A \ BC ) ,si ha

    P (A \ BC ) = P (A) ¡ P (A \ B) = P (A) ¡ P (A) ¢P (B) == P (A)

    ¢[(1

    ¡P (B)] = P (A)

    ¢P (BC ) .

    Quindi, se A  e  B  sono indipendenti, lo sono anche  A  e  BC .Scambiando l’ordine, si può dedurre che lo sono anche  AC 

    e  B , e quindi anche  AC  e  BC .

    Esercizio  1.3.4   Un test diagnostico di una malattia è corretto nel 98% dei casi. Ci si chiede:ripetendo due volte il test sullo stesso soggetto, qual è la probabilità di un doppio errore? 

    Sia   A   = “errore nel primo test”,   B   = “errore nel secondo test”. Essendo i due eventiindipendenti, si ha

    P (A \ B) = P (A)¢P (B) =   2100

    ¢   2100

      =   410000

     = 0.04% .

    Esercizio  1.3.5   Aldo e Bruno sparano ad un bersaglio. Siano  A e  B  rispettivamente l’evento “Aldo fa centro” e “Bruno fa centro”. Modello la situazione con una funzione di probabilit à 

    P   tale che  P (A) =  14   e  P (B) = 25 , e supponendo che  A  e  B   siano indipendenti. Supposto 

    che Aldo e Bruno sparino contemporaneamente contro il bersaglio, qual è la probabilità che 

    1) almeno uno dei due centri il bersaglio? 2) uno solo dei due centri il bersaglio? 

    17

  • 8/20/2019 Dispensa Di Statisitica Prof Franceschini

    20/131

    L’evento “almeno uno fa centro” è A [ B. Siccome A  e  B   sono indipendenti, avremoP (A [ B) = P (A) + P (B) ¡ P (A \ B) = P (A) + P (B) ¡ P (A)¢P (B) =

    =  14

     + 25 ¡ 1

    4¢ 2

    5  =  11

    20 .

    Per quanto riguarda invece l’evento “uno solo fa centro”, esso è dato da (A\BC )[(AC \B).Tenendo conto che A  ed  BC  sono indipendenti, cosı̀ come  AC  e B , e che gli eventi A \ BC e (AC \ B)  sono incompatibili, si ha

    (A \ BC ) [ (AC \ B) = P (A \ BC ) + P (AC \ B) == P (A)¢P (BC ) + P (AC )¢P (B) ==

      1

    4¢ 3

    5 +

     3

    4¢ 2

    5  =

      9

    20 .

    Definizione   Dato uno spazio di probabilità   (S, Ω, P )   si chiama   partizione di Sun insieme di eventi incompatibili  A1, A2, . . . , Ai, ¢ ¢ ¢ 2 Ω tali che 

    i

    Ai  =  S .

    Nel seguito considereremo  partizioni finite, cioè partizioni formate da un numero finiton  di eventi. In tal caso l’indice  i  assumerà ovviamente i valori da 1 a  n.

    Teorema (o formula) della probabilità totale (o di fattorizzazione)

    Dato un evento   B   e una partizione finita   A1, A2, ...An   di   S, con   P (Ai)   >   0   per ogni   i, si ha

    P (B) =ni=1

    P (Ai)¢P (BjAi) .

    Dimostrazione

    In virtù della definizione della legge delle probabilità composte, per ogni  i  possiamoscrivere

    P (Ai \ B) = P (Ai)¢P (BjAi) .Sommando per  i  che va da 1 ad  n, si ha

    ni=1 P (Ai \ B) = ni=1 P (Ai) ¢P (BjAi) ,da cui, essendoni=1 P (Ai \ B) = P 

    ni=1(Ai \ B)

    = P 

    (ni=1 Ai) \ B

    = P (S \ B) = P (B) ,

    consegue la tesi.

    Esercizio  1.3.6   Una fabbrica di autovetture riceve da tre fornitori i cambi da installare sulle auto nelle seguenti percentuali: 65%, 25% e 10%. Sapendo che i tre fornitori producono i 

    cambi con una difettosità rispettivamente del 5%, 10% e 25%, si vuole conoscere la probabilità 

    che la fabbrica di auto ha di ricevere un cambio difettoso.

    18

  • 8/20/2019 Dispensa Di Statisitica Prof Franceschini

    21/131

    In questo caso l’esperimento consiste nell’arrivo di un cambio. I possibili eventi elementari

    (e quindi incompatibili) sono i  Bk, k   = 1, 2, 3,   essendo  Bk   l’evento ”il cambio arriva dalfornitore k-esimo”. Chiaramente i  Bk  costituiscono una partizione di S. Indicato poi con A

    l’evento ”il cambio ricevuto è difettoso”, si richiede P (A).I dati dell’esercizio sono i seguenti:

    P (B1) = 65% , P (B2) = 25% , P (B3) = 10% ;

    P (AjB1) = 5% , P (AjB2) = 10% , P (AjB3) = 25% .Utilizzando la formula di fattorizzazione si ha immediatamente

    P (A) =3i=1

    P (Bi)¢P (AjBi) = 0.65¢0.05 + 0.25¢0.10 + 0.10¢0.25 = 0.0825 = 8.25% .

    Esercizio  1.3.7   Com’̀e noto, le trasfusioni di sangue possono avvenire con le modalità se-guenti: dal gruppo  0  a tutti i gruppi; da  A  ai gruppi  A  e  AB ; da  B  ai gruppi  B  e  AB ; da AB  al solo gruppo  AB . Supposto che le frequenze dei gruppi sanguigni siano 

    P (0) = 52%, P (A) = 32%, P (B) = 10%, P (AB) = 6% ,

    ci si chiede: qual è la probabilità che un individuo  x, scelto a caso, possa donare sangue a un individuo  y  pure scelto a caso? 

    Sia S  l’insieme delle coppie  (x, y)   in cui sia x  che  y  possono essere uguali a  0, A, B   o AB .L’evento di cui vogliamo calcolare la probabilità è “x è donatore per  y” e lo indichiamo con[x ) y]. Introduciamo poi gli eventi

    [x=0] =

    f(0, 0), (0, A), (0, B), (0, AB)

    g,

    [x=A] = f(A, 0), (A, A), (A, B), (A,AB)g ,[x=B] = f(B, 0), (B, A), (B, B), (B,AB)g ,[x=AB] = f(AB, 0), (AB,A), (AB,B), (AB,AB)g ,

    e analogamente gli eventi  [y =0], [y =A], [y =B],[y =AB]. Per calcolare P ([x ) y]) si puòusare il teorema della probabilità totale in due modi diversi: in un caso considereremo come

    partizione di  S   gli eventi   [x = 0],   [x = A],   [x = B]  e   [x = AB], nell’altro gli eventi   [y = 0],[y =A], [y =B]  e  [y =AB].

    Modo 1

    P ([x ) y]) =   P ([x=0])¢P ([x ) y][x=0]) + P ([x=A])¢P ([x ) y][x=A])++ P ([x=B])¢P ([x ) y][x=B]) + P ([x=AB])¢P ([x ) y][x=AB]) ==

      52

    100¢1 +   32

    100¢  32

    100 +

      6

    100

    +

      10

    100¢  10

    100 +

      6

    100

    +

      6

    100¢   6

    100 '   66% .

    Modo 2

    P ([x ) y]) =   P ([y =0])¢P ([x ) y][y =0]) + P ([y =A])¢P ([x ) y][y =A])++ P ([y =B])¢P ([x ) y][y =B]) + P ([y =A]B)¢P ([x ) y][y =AB]) =

    =  52

    100¢   52

    100 +

      32

    100¢  52

    100 +

      32

    100

    +

      10

    100¢  52

    100 +

      10

    100

    +

      6

    100¢1 ' 66% .

    19

  • 8/20/2019 Dispensa Di Statisitica Prof Franceschini

    22/131

  • 8/20/2019 Dispensa Di Statisitica Prof Franceschini

    23/131

    Gli esercizi che seguono, in particolare il primo, sono utili ad illustrare il significatodi probabilità a priori e posteriori, e come si applica il teorema di Bayes.

    Esercizio  1.3.8   Si abbiano tre scatole, indistinguibili una dall’altra, contenenti ciascuna due  palline: una contiene due palline bianche (scatola 1), un’altra una pallina bianca ed una 

    rossa (scatola 2), la terza due palline rosse (scatola 3). Scelta una scatola a caso, si estrae 

    una pallina. La pallina è bianca. Ci si chiede: qual è la probabilità che la pallina sia stata 

    estratta dalla scatola  i? 

    Indicato con  B   l’evento “la pallina estratta è bianca” e con  Ai   l’evento “la pallina è stataestratta dalla scatola i”, ci interessa calcolare le probabilità P (AijB). Osserviamo che si ha

    P (A1) =  P (A2) = P (A3) =  1

    3 ;   P (BjA1) = 1 , P (BjA2) =  1

    2 , P (BjA3) = 0 .

    Il fatto che le probabilità non condizionate P (Ai)  (probabilità a priori) siano tutte uguali a13

     consegue ovviamente dal fatto che le tre scatole sono indistinguibili. Applicando il teorema

    di Bayes si ha quindi

    P (A1jB) =   P (BjA1)¢P (A1)P (BjA1)¢P (A1) + P (BjA2)¢P (A2) + P (BjA3)¢P (A3)  =

    =  1¢ 13

    1¢ 13

     +   12¢ 1

    3 + 0 ¢ 1

    3

    =1312

    =  2

    3 ;

    P (A2jB) =  P (BjA2)¢P (A2)12

    =12 ¢ 13

    12

    =  1

    3 .

    P (A3jB) =  P (BjA3)¢P (A3)12

    =  0¢ 13

    12

    = 0 .

    Osserviamo che si trova confermato il fatto ovvio che   P (A3jB) = 0. Osserviamo anchecome il verificarsi dell’evento  B  influisca sulle probabilità degli eventi  Ai  modificandone leprobabilità.

    Nota bene: dato un evento A, con 0  < P (A)  <  1, gli eventi  A  e  AC  costituisconola più semplice partizione di S  utilizzabile nell’applicazione del teorema di Bayes. Gliesempi che seguono utilizzano tutti una partizione di questo tipo.

    Esercizio  1.3.9   In una scuola il  4%  dei maschi e l’ 1%   delle femmine sono più alti di 1.80 metri. Inoltre, il  60%  sono femmine. Fra la totalità degli studenti ne viene scelto a caso uno che risulta essere più alto di 1.80 metri. Si chiede: qual è la probabilità che sia femmina? 

    Sia  S   l’insieme di tutti gli studenti. Siano poi  F   l’evento “lo studente scelto è femmina”ed  A  l’evento “l’altezza dello studente è maggiore di 1.80”. Si deve determinare P (F jA).Osservato che F C  coincide con l’evento “lo studente è maschio”, i dati del problema sono

    P (F ) = 0.60 , P (F C ) = 0.40 , P (AjF ) = 0.01 , P (AjF C ) = 0.04 .

    21

  • 8/20/2019 Dispensa Di Statisitica Prof Franceschini

    24/131

    Utilizzando il teorema di Bayes con la partizione di  S  data da F   e F C , si ottiene

    P (F 

    jA) =

      P (AjF )¢P (F )P (AjF )¢P (F ) + P (AjF 

    )¢P (F C 

    )

     =

    =  0.01¢0.60

    0.01¢0.60 + 0.04¢0.40  =  0.006

    0.022 =

      3

    11 ¼ 27.3% .

    Esercizio  1.3.10   Si sa che lo 0,5% dei soggetti di una citt̀a è ammalato di AIDS. Si sa che i test diagnostici danno una diagnosi corretta nell’80% dei sani e nel 98% dei malati. Qual 

    è la probabilità di un individuo, scelto a caso fra quelli sottoposti a test, di esser sano posto 

    che sia stato diagnosticato malato? 

    Sia  S   l’insieme degli individui sottoposti ai test per l’AIDS. Consideriamo gli eventi:   A  =“l’individuo scelto è sano”, AC  = “l’individuo è malato”, B  = “la diagnosi dell’individuo è:

    sano”, BC  = “la diagnosi è: malato”. Le statistiche sopra riportate implicano che

    P (AC ) = 0.005 , P (BjA) = 0.80 , P (BC jAC ) = 0.98 .Determiniamo con la formula di Bayes  P (AjBC ). Si ha

    P (AjBC ) =   P (BC jA)¢P (A)

    P (BC jA)¢P (A) + P (BC jAC ) ¢P (AC )   =

    =  (0.995)(0.20)

    (0.20)(0.995) + (0.98)(0.005) ' 0.976

    (probabilità molto alta; se fossimo però dentro una categoria a rischio, avremmo una inci-

    denza di malattia P (AC 

    )  più elevata, per cui questa probabilità sarebbe più contenuta).

    Esercizio  1.3.11   Una fabbrica che produce lampadine ha due linee di produzione A e B:dalla A esce il  60%  delle lampadine prodotte e dalla B il rimanente  40%. Sappiamo inoltre che un 2% delle lampadine prodotte dalla linea A è difettoso, mentre la percentuale di difetti 

     per l’altra linea è il  3.8%. Ci si chiede: qual è la probabilità che una lampadina difettosa,scelta a caso fra tutte le lampadine prodotte in un dato periodo, sia uscita dalla linea A? 

    Sia  S   l’insieme di tutte le lampadine prodotte dalla fabbrica in un dato periodo. Se A   èl’evento “la lampadina scelta è uscita dalla linea A”,  AC  è l’evento “la lampadina è uscitadalla linea B”. Indicato poi con  D   l’evento “la lampadina è difettosa”, i dati del problema

    sonoP (DjA) = 0.02 , P (DjAC ) = 0.038, P (A) = 0.6 .

    Il numero che cerchiamo è la probabilità condizionata di   A   dato per avvenuto   D, cioèP (AjD). Utilizzando la formula di Bayes, si ottiene

    P (AjD) =   P (DjA) ¢ P (A)P (DjA) ¢ P (A) + P (DjAC ) ¢ P (AC )   =

      (0.02)(0.6)

    (0.02)(0.6) + (0.038)(0.4)  =

    =  0.012

    0.012 + 0.0152 ¼ 0.441 = 44.1%

    22

  • 8/20/2019 Dispensa Di Statisitica Prof Franceschini

    25/131

    Esercizio  1.3.12   In un cappello ci sono 10 monete, 9 normali ed una truccata con due teste.Se ne estrae una a caso, che lanciata  k   volte consecutive dà  k   teste. Qual è la probabilità 

    che la moneta estratta sia quella truccata? Sia A  l’evento “la moneta estratta dal cappello è quella truccata”. Chiaramente ne consegueche AC  rappresenta l’evento “la moneta estratta è normale”. Indicato poi con  T k   l’evento“k  consecutivi lanci della moneta danno k  teste”, i dati del problema sono

    P (A) =   110 ;   P (AC ) =   910 ;   P (T kjA) = 1 ;   P (T kjAC ) =

    12 )k .

    Applicando la formula di Bayes si ha quindi

    P (AjT k) =   P (T kjA)¢P (A)P (T kjA)¢P (A) + P (T kjAC )¢P (AC )  =

      1¢   1101¢   110  +

    12

    k ¢   910 =  2k

    9 + 2k

    Ad esempio, per  k=2, 4, 6, 8 si haP (AjT 2) =   413 ;   P (AjT 4) =   1625 ;   P (AjT 6) =   6473 ;   P (AjT 8) =   256265 .

    Osserviamo che 8 teste consecutive danno già una probabilità del 96.6%   che la monetaestratta sia quella truccata.

    Come ultima osservazione, notiamo che ci sono due modi di fare un  campionamento,cioè di “scegliere a caso” un certo numero di elementi da una popolazione:

    1)  con reimmissione;2)  senza reimmissione.

    Rimarchiamo il fatto seguente, peraltro molto intuitivo:  se il numero  N   di individui della popolazione é infinito o molto grande, non c’è differenza apprezzabile traestrarre con reimmissione ed estrarre senza reimmisione . In questo caso, pertanto,conviene per semplicità calcolare ogni cosa “come se” si estraesse con reimmissione.

    L’esercizio che segue illustra le due diverse modalità di campionamento e mostra, perquanto sia solo  N =10, il fatto precedentemente rimarcato.

    Esercizio  1.3.13   Una scatola contiene 10 viti, di cui tre difettose. Si estraggono due viti a caso. Con quale probabilità nessuna delle due è difettosa? 

    Considerati gli eventi A  = “prima vite estratta non difettosa”,  B  = “seconda vite estratta

    non difettosa”, l’evento di cui ci interessa la probabilità è A \ B.Estraendo con reimmissione, prima di estrarre la seconda volta abbiamo nella scatola l’i-

    dentica situazione di 10 viti di cui tre difettose; si ha pertanto   P (A) =   P (B) =   710   equindi

    P (A \ B) = P (A)¢P (B) =   710

    ¢   710

     = 49% .

    Estraendo invece senza reimmissione, l’evento B non è più indipendente da A, per cui si ha

    P (A) =   710 , P (BjA) =   69 . Di conseguenzaP (A \ B) = P (A)¢P (BjA) =   710 ¢ 69 ' 47% .

    23

  • 8/20/2019 Dispensa Di Statisitica Prof Franceschini

    26/131

    1.4 VARIABILI ALEATORIE

    Definizione   Dato uno spazio di probabilità   (S, Ω, P ), si dice   variabile aleatoria

    (o   casuale) una funzione   X   che ad ogni   s 2  S  associa un numero   X (s) 2  R, inmodo che ogni insieme  fs :  X (s) · ag  sia un evento contenuto in  Ω.L’evento fs :  X (s) · ag si chiama immagine inversa  o  contro-immagine   dell’intervallo(¡1, a] e viene indicato con  X −1(¡1, a]   o, adottando una forma più concisa edesplicita, con  X ·a. Più in generale, se  B   è un sottinsieme di numeri reali, si indicacon X −1(B) l’evento fs :  X (s) 2 Bg.È facile far vedere che, 8a 2 R, gli insiemi di numeri reali X −1(a, +1) , X −1(a, b] ,X −1

    fag , X −1(a, b) , X −1(¡1, a) e   X −1[a, +1)   sono eventi. Ad esempio,il fatto che  X −1

    (a, +1)

     sia un evento consegue banalmente dal fatto che l’insieme

    fs   :   X (s)   > a

    g  è il complementare dell’evento

     fs   :   X (s)

     ·  a

    g. Anche gli eventi

    appena elencati sono denotati in forma concisa con   X > a , a < X  ·b , X =a ,  etc...Dunque, l’immagine inversa di un qualunque intervallo è un evento di   Ω. Ci sonoperò altri sottinsiemi  B  di numeri reali tali che  X −1(B) è un evento.

    Definizione   Si chiama  classe dei Boreliani  la più piccola classe di sottinsiemi di numeri reali che comprende tutti gli intervalli ed è chiusa rispetto alle operazioni di unione (finita e numerabile) e complementazione.

    Proposizione   Ogni Boreliano  B   è tale che  X −1(B)  è un evento .

    I Boreliani rappresentano dunque i sottinsiemi di numeri reali che possono essere

    associati attraverso  X −1

    agli eventi di  Ω. Ciò porta alla seguente definizione:Definizione   Data una variabile aleatoria   X , si chiama  distribuzione  o   legge  di X  l’applicazione che ad ogni Boreliano  B  associa la probabilità della sua immagine inversa:

    B   ¡!   P X −1(B) .Esempio  1.4.1   Sia   S   = f1, 2,..., 6g   lo spazio campionario relativo all’esperimento dellancio di un dado (non truccato). Definiamo  X := ”numero uscente da un lancio”, cioè

    X (1) := 1, X (2) := 2   . . . X  (6) := 6 .

    Potremo allora calcolare la probabilità di eventi del tipo  X ·2.5, 1  < X ·4  oppure X ¸3.Ricordando che P (X =k) = P (

    fk

    g) =   16 , per k  = 1, 2, . . . , 6, si ha

    P (X ·2.5) =  P (X =1) + P (X =2) =   13 ,P (1< X ·4) = P (X =2) + P (X =3) + P (X =4) =   12 ,P (X ̧ 3) = P (X =3) + P (X =4) + P (X =5) + P (X =6) =   2

    3 .

    Su uno stesso spazio di probabilità possono essere definite più variabili casuali. Ad esempio,

    una seconda variabile casuale può essere definita nel modo seguente:

    Y   := 0   se l’esito del lancio è pari;   Y   := 1   se l’esito del lancio è dispari.

    24

  • 8/20/2019 Dispensa Di Statisitica Prof Franceschini

    27/131

    Si ha cosı̀ :   P (Y  =0) = P (f2g) + P (f4g) + P (f6g) =   12 ,P (Y  =1) = P (f1g) + P (f3g) + P (f5g) =   12 ,P (1< Y 

    ·4) = P (

    ;) = 0 , P (Y < 0) =  P (

    ;) = 0   ecc.

    Definizione   Data una variabile aleatoria   X   definita sullo spazio di probabilit̀a(S, Ω, P ), si chiama  funzione di distribuzione  o  di ripartizione di  X  la funzione F   : R ! [0, 1]  cosı̀ definita:

    F (x) = P (X ·x) , x 2 R .

    Esempio  1.4.2   Consideriamo la variabile casuale Y   definita nell’esempio precedente. Indi-cata con F Y  (x)  la funzione di distribuzione ad essa associata, avremo

    F Y  (x) = P (Y 

    ·x) =

    P (;) = 0   per   x

  • 8/20/2019 Dispensa Di Statisitica Prof Franceschini

    28/131

    VARIABILI ALEATORIE DISCRETE

    Definizione   Una variabile aleatoria   X   è  discreta  se 

    1) c’è un insieme finito o numerabile di valori  xj , tali che    P (X =xj) >  0 ;

    2) 

    j P (X =xj) = 1 .

    Ovviamente, j  = 1,...,n nel caso finito e  j 2 N   nel caso numerabile.Una variabile aleatoria discreta, essendo individuata dai valori  xj  e dalle corrispon-denti probabilità   pj ´ P (X =xj), può essere cos̀ı rappresentata:

    X   :

    x1, x2, ... p1, p2, ...

    In maniera equivalente essa è poi rappresentabile mediante la relativa   funzione diprobabilità  f (x) definita come

    f (x) =  pj   se  x  =  xj   ( j  = 1, 2,...)

    0 altrove,

    oppure mediante la relativa funzione di distribuzione  F (x) già definita per una qua-lunque variabile aleatoria , che nel caso discreto diventa

    F (x) =

    j:xj · xf (xj) .

    Più esplicitamente, come peraltro già visto nell’esempio 1.4.2,   F (x) è la seguentefunzione a gradini

    F (x) =

    0 se   x < x1

     p1   se   x1 · x < x2 p1 + p2   se   x2 · x < x3¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢

     p1 + ¢ ¢ ¢ + pn−1   se   xn−1 · x < xn¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢

    Esempio  1.4.3   Nel caso di un dado non truccato, la variabile casuale X  definita nell’esempio1.4.1 e la relativa funzione di probabilità sono date da

    X   :

    1 2 3 4 5 616

    16

    16

    16

    16

    16

      , f (x) =

      16   per   x = 1, 2, 3, 4, 5, 6

    0   altrimenti.

    La funzione distribuzione di X  e il relativo grafico sono riportati qui sotto.

    F (x) =

    0   per   x

  • 8/20/2019 Dispensa Di Statisitica Prof Franceschini

    29/131

    Esempio  1.4.4   Si consideri l’esperimento del lancio simultaneo di due dadi non truccati. Inquesto caso lo spazio compionario  S   è costituito dai 36 eventi elementari  (i, j),   con i, j   =1, 2, 3, 4, 5, 6. Consideriamo la variabile aleatoria discreta   Z , con   Z   :=   somma dei duenumeri estratti. Si ha quindi

    Z   :

      2 3 4 5 6 7 8 9 10 11 12

    136

    236

    336

    436

    536

    636

    536

    436

    336

    236

    136

    Il grafico sottoriportato mostra la funzione di distribuzione relativa a  Z .

    VARIABILI ALEATORIE CONTINUE

    Definizione   Una variabile aleatoria   X   si dice   assolutamente continua   se esiste una funzione   f : R !R+0   che permette di rappresentare la funzione distribuzione F (x)  di  X  come funzione integrale, cioè tale che 

    F (x) =

       x−∞

    f (t)dt ,   8x 2 R .

    La funzione   f (¢), che è assunta continua eccetto al più che in un numero finito di punti,è detta   densità di probabilità   (o, più semplicemente,   densità) dellavariabile aleatoria   X .

    Nel seguito (come peraltro già fatto nel titolare il paragrafo), per semplicità, ci riferi-remo alle variabili casuali ”assolutamente continue” con il solo aggettivo ”continue”.

    Osservazione:   Qui e altrove si usano integrali ”impropri”, cioè integrali definiti su un in-tervallo con un estremo di integrazione infinito (qualche volta entrambi). Senza approfondire

    l’argomento, ricordiamo che   x−∞

    f (t)dt := lima→−∞

       xa

    f (t)dt ,

       +∞x

    f (t)dt := lima→+∞

       ax

    f (t)dt .

    Per quanto riguarda poi l’integrale su tutto l’asse reale, una possibile definizione è la seguente:   +∞−∞

    f (t)dt :=

       0−∞

    f (t)dt +

       +∞0

    f (t)dt .

    27

  • 8/20/2019 Dispensa Di Statisitica Prof Franceschini

    30/131

    La funzione densità gode di alcune proprietà che adesso elenchiamo.

    1)   Vale la relazione 

    P (a < X  · b) =  ba   f (t)dt .Essa consegue immediatamente dal fatto che  P (a  0. Analogamente, se  X   è continua si ha

    P (a < X < b) = P (a

    ·X < b) = P (a< X 

    ·b) = P (a

    ·X 

    ·b) .

    Queste stesse probabilità possono differire tra loro nel caso di  X  discreta.

    Definizione   Una variabile casuale  X  continua si dice  uniformemente distribuitao   equidistribuita se la sua funzione densità  f (x) o, equivalentemente,  la sua fun-zione di distribuzione  F (x)  sono cos̀ı definite:

    f (x) =

    0 per   x·a1

    b ¡ a   per   a

  • 8/20/2019 Dispensa Di Statisitica Prof Franceschini

    31/131

    Esempio  1.4.5   Si consideri la variabile casuale continua di densità

    f (x) =   1

    2 x   se   0·x·2

    0   altrove

    .

    Si chiede di verificare che f (x) è effettivamente una densità, calcolarne la funzione di distribu-zione F (x) e quindi disegnarla assieme alla f (x). Si chiede anche di calcolare  P ( 12

  • 8/20/2019 Dispensa Di Statisitica Prof Franceschini

    32/131

    I grafici di f (x)  e  F (x)  sono dunque i seguenti:

    Essendo   limx→+∞ F (x) = 1, ne consegue +∞−∞  f (x)dx = 1, e quindi risulta verificato che

    f (x)  è una densità. Per quanto concerne infine il calcolo di P (X  · ¡0.5), si haP (X  · ¡0.5) =  F (¡0.5) =   18 .

    Questa probabilità corrisponde all’area sottesa da f (x) fra ¡1 e ¡12 , ossia, come si vede dalgrafico, all’area di un triangolo di base   12  e altezza

      12 .

    Esercizio  1.4.2   Si consideri una variabile casuale  X  avente la seguente funzione di distribu-zione:

    F (x) =

    0   per    x·0

    150 x

    2  per    0·x·5¡   150 x2 +   25 x ¡ 1   per    5·x·101   per    x¸10 .

    a) quali sono i possibili valori della  X ? b) qual è la funzione densit̀a della  X ? 

    a) La variabile aleatoria X  assume, con probabilità 1, i valori compresi tra 0 e 10. Infatti:

    P (0·X ·10) = F (10) ¡ F (0) = 1 .b) Poichè nei punti di continuità di f (x)  vale la relazione   F ′(x)=f (x), si ha

    f (x) =

    0   per   x·0

    125 x   per   0·x·5¡ 1

    25x +   2

    5  per   5·x·10

    0   per   x¸10 .Riportiamo qui sotto i grafici della funzione di distribuzione e della funzione densità della

    variabile casuale  X . Osserviamo che dal grafico di f (x)  risulta evidente la simmetria della

    distruibuzione rispetto ad  x =5.

    30

  • 8/20/2019 Dispensa Di Statisitica Prof Franceschini

    33/131

    FUNZIONI DI VARIABILE ALEATORIA

    Spesso, data una variabile casuale X , interessa una sua funzione g(X ), che a sua volta

    è una variabile casuale. Negli esempi che seguono si considerano appunto variabilicasuali di questo tipo. L’ultimo esempio, per quanto semplice, è forse quello piùsignificativo in quanto mostra come si ricava la funzione di probabilità (nel caso diun variabile casuale discreta).

    Esercizio  1.4.3   In un processo automatico si riempiono bottigliette di sciroppo. Il contenuto di ciascuna bottiglietta risulta  Y  = 100+X ml   (millilitri), dove  X   è la variabile casuale definita nell’esercizio 1.4.1. Si chiede: in una partita di 1000 confezioni, quante approssima-

    tivamente conterranno meno di 99.5  ml? 

    Il numero di bottigliette cercato è uguale a 1000 moltiplicato per P (Y  · 99.5), cioè perP (X  + 100 · 99.5) = P (X  · ¡0.5) .

    Questa probabilità è già stata calcolata nell’esercizio 1.4.1 e vale  1

    8 . Il numero approssimativodelle bottiglie aventi contenuto inferiore a quanto richiesto è dunque

    18 ¢1000 = 125 .

    Esercizio  1.4.4   Si considerino le variabili casuali  Y  = 3X , Q = X 2 e  R =p 

    X , dove  X   è la variabile casuale dell’esercizio 1.4.2. Calcolare:

    a)   P (3·Y ·21);   b)   P (Q¸64);   c)   P (2·R·3) .Si ha:

    a)   P (3

    ·Y 

    ·21) = P (3

    ·3X 

    ·21) = P (1

    ·X 

    ·7) = F (7)

    ¡F (1) =

      4

    5

     ;

    b)   P (Q¸64) = P (X 2¸64) = P [(X ·¡8) [ (X ̧ 8)] = P (X ̧ 8) = 1 ¡ F (8) =   225

     ;

    c)   P (2·R·3) = P (2·p 

    X ·3) = P (4·X ·9) =  F (9) ¡ F (4) =  3350

     .

    Esercizio  1.4.5   Si consideri la variabile casuale  X   sotto definita e si ricavi la funzione di  probabilità della variabile  Y   := X 2.

    X   :

    ¡2   ¡1 0 1 215

    15

    15

    15

    15

    Osservato che mentre X   assume il valore xi   la variabile Y  assume il valore x2i , ne consegueche Y   può assumere solo i valori 0, 1 e 4. Più precisamente Y  assume il valore 0 quando  X assume il valore 0, il valore 1 quando  X  assume il valore -1 oppure 1, il valore 4 quando  X assume il valore -2 oppure 2. Per quanto riguarda, ad esempio, la probabilit à che Y   assumail valore 1, essa sarà data dalla somma delle probabilità che X  assuma i valori -1 e 1, ossia:P (Y  =1) = P (X =¡1) + P (X =1). La variabile casuale X 2 sarà dunque la seguente:

    Y   = X 2 :

    0 1 415

    25

    25

    31

  • 8/20/2019 Dispensa Di Statisitica Prof Franceschini

    34/131

    1.5 MEDIA E VARIANZA

    Definizione

    Si chiama  media   (o   valor medio  o   valore atteso   o   aspettazione matematicao  speranza matematica)  della variabile aleatoria   X   il numero, che indicheremo indifferentemente con  µX   o  E (X ), cos̀ı definito:

    µX ´ E (X ) :=i

    xif (xi) ,   se   X   è discreta ,

    µX ´ E (X ) :=   +∞−∞

    xf (x)dx ,   se   X   è continua .

    Nel caso discreto numerabile, per garantire la convergenza della serie, si assume che

    essa sia assolutamente convergente, cioè che sia i jxijf (xi) <  +1.Osservazione: Nel caso discreto la media è la somma dei valori xi  moltiplicati per lerispettive probabilità f (xi) ´ P (X =xi). Essa rappresenta dunque la  media ponderatadei possibili valori di  X , ciascuno pesato con la sua probabilità.

    Esempio  1.5.1   Si consideri l’esperimento del lancio simultaneo di una coppia di dadi nontruccati. Abbiamo già visto che lo spazio campionario  S   è

    S = f(i, j), i , j  = 1, 2, 3, 4, 5, 6g .Sia X   la variabile aleatoria che assegna a ciascun evento elementare (i, j)   il massimo fra i

    e  j . Allora l’insieme immagine di X , cioè l’insieme di tutti i possibili valori che la  X   puòassumere, è il seguente

    X (S) = f1, 2, 3, 4, 5, 6g .Tenendo conto che

    P (X =1)=P f(1, 1)g=   1

    36 ,

    P (X =2)=P f(1, 2)g + P f(2, 1)g + P f(2, 2)g=   336 ,

    e, generalizzando, essendo  2k—1 il numero degli eventi elementari f(i, j)g  che hanno comevalore massimo k ,

    P (X =k)= 2k ¡ 1

    36  , k = 3, 4, 5, 6 ,

    la variabile aleatoria   X   risulta cosı̀ definita:

    X   :

      1 2 3 4 5 6

    136

    336

    536

    736

    936

    1136

     .

    La media di X  si calcola dunque nel modo seguente:

    µX  =6

    k=1

    xkf (xk) = 1¢   136

     + 2¢   336

     + 3¢   536

     + 4¢   736

     + 5¢   936

     + 6¢ 1136

      = 161

    36 ¼ 4.47 .

    32

  • 8/20/2019 Dispensa Di Statisitica Prof Franceschini

    35/131

    Proposizione   Data la variabile casuale   X , la media della variabile casuale   g(X )è la seguente:

    E [g(X )] = i g(xi)f (xi) ,   se   X   è discreta ,E [g(X )] =

       +∞−∞

    g(x)f (x)dx ,   se   X   è continua.

    La proposizione consegue direttamente dalle definizione di media. Ad esempio, seg(X )=X 2, si ha

    E [X 2] =i

    x2i f (xi) ,   se   X   è discreta ,

    E [X 2] =

       +∞−∞

    x2f (x)dx ,   se   X   è continua.

    Nel seguito vedremo che il calcolo di  E [X 2

    ] è estremamente utile.

    Definizione

    Si chiama varianza (o  variazione standard) della variabile aleatoria X  il numero,che indicheremo con  σ2X   o  V ar(X ), cosı̀ definito:

    σ2X ´ V ar(X ) := E 

    (X ¡ µX)2

    .

    Quindi, tenendo conto della definizione di  µX ,

    σ2X ´ V ar(X ) := i (xi ¡ µX)2f (xi) ,   se   X   è discreta ,

    σ2X ´ V ar(X ) :=   +∞−∞

    (x ¡ µX)2f (x)dx ,   se   X   è continua .

    La varianza  σ2X   è sempre non negativa. Esiste un unico caso in cui è nulla. Questocaso, che è privo di interesse probabilistico, si ha se e solo se la variabile X   è degenere,cioè se la sua funzione di probabilità vale 1 in un punto  x1  e 0 in ogni altro punto  x.

    Definizione   La radice quadrata della varianza si chiama   deviazione standard  (oscarto quadratico medio)  e si indica con  σX .

    La varianza (e quindi anche la deviazione standard) misura la “dispersione” dei valoriassunti da X  rispetto al suo valor medio  µX : tanto più grande è σ

    2X , tanto più i valori

    di  X  saranno lontani dal valor medio; per contro, tanto più  σ2X   è piccola, tanto piùi valori di  X  saranno raccolti attorno a  µX . Si può anche dire che   la media di unavariabile casuale è tanto più attendibile quanto più piccola è la sua varianza.

    Teorema   σ2X  = E (X 2) ¡ µ2X .

    Facciamo la dimostrazione nel caso discreto. Nel caso continuo si procederà in manieradel tutto analoga con integrali al posto di sommatorie. Ricordando la definizione di

    33

  • 8/20/2019 Dispensa Di Statisitica Prof Franceschini

    36/131

    µX  e che 

    i f (xi)=1, si ottiene

    σ2X  = i(xi ¡ µX)2f (xi) =

    i(x2i ¡ 2xiµX + µ2X)f (xi) =

    =i

    x2i f (xi) ¡ 2µXi

    xif (xi) + µ2X

    i

    f (xi) =

    =i

    x2i f (xi) ¡ 2µ2X + µ2X   = E (X 2) ¡ µ2X .

    Teorema (trasformazione lineare di una variabile aleatoria)

    Data una variabile aleatoria  X , si consideri la variabile aleatoria  aX  + b, con  a  e  breali qualunque,  a 6= 0. Valgono allora le seguenti relazioni:

    µaX+b =  aµX + b , σ2aX+b =  a

    2σ2X .

    Dimostrazione

    Come nel caso del precedente teorema, proviamo anche questo nel caso discreto. Lavariabile aleatoria   aX  + b  è la seguente:

    ax1 + b ax2 + b ... axn + b ...f (x1)   f (x2)   ... f  (xn)   ...

    Ricordando che

     i f (xi) = 1, si ha immediatamente

    µaX+b =i

    (axi + b)f (xi) = ai

    xif (xi) + bi

    f (xi) = aµX + b .

    Ora, sfruttando questo risultato, calcoliamo la varianza:σ2aX+b =

    i

    (axi + b ¡ µaX+b)2f (xi) =i

    (axi + b ¡ aµX ¡ b)2f (xi) =

    = a2i

    (xi ¡ µX)2f (xi) = a2σ2X .

    Corollario   E (X ¡ µX) = 0 .Si ottiene immediatamente dall’ultimo teorema ponendo  a =1 e  b =¡µX .

    Corollario   σ2aX  = a2σ2X .

    Si ottiene immediatamente dall’ultimo teorema ponendo  b =0.

    Corollario   σ2X+b =  σ2X .

    Si ottiene immediatamente dall’ultimo teorema ponendo  a =1.

    Definizione   Sia  X  una variabile casuale con varianza  σ 2X> 0. Si chiama  variabilecasuale standardizzata  associata ad  X   la variabile casuale  X ∗  cos̀ı definita:

    X ∗  =  X ¡ µX

    σX.

    34

  • 8/20/2019 Dispensa Di Statisitica Prof Franceschini

    37/131

    Proposizione   Ogni variabile casuale standardizzata ha media nulla e varianzauguale ad 1, ossia

    µX∗  = 0  , σ2X∗  = 1 .

    Queste proprietà di   X ∗   seguono immediatamente dai teoremi e dai corollari prece-denti. Infatti:

    µX∗  = E X ¡ µX

    σX

    = E 

     X σX

    ¡  µX

    σX=

      1

    σX

    E (X ) ¡ µX

    = 0 ,

    σ2X∗  = V arX ¡ µX

    σX

    = V ar

     X σX

    ¡  µXσX

    =

      1

    σ2Xσ2X  = 1 .

    Definizione   Data una variabile aleatoria   X , si chiama   mediana  di   X  un valore x0  tale che 

    P (X < x0) ·  12 · P (X ·x0) .

    Dalla definizione consegue immediatamente che, se   F (x) è la funzione distribuzionedi   X , la mediana è un punto   x0   tale che   F (x0) =

      12   se un tale   x0   esiste. In caso

    contrario   x0   è un punto di discontinuità di   F (x) tale che   F (x) <  1

    2  per   x < x0   e

    F (x) >   12

      per  x ¸ x0.   È anche facile constatare che vi possono essere più mediane;più precisamente le mediane costituiscono un intervallo chiuso (che eventualmente siriduce ad un punto).

    I tre grafici proposti qui sotto illustrano le tre situazioni più comuni: a)   F (x) ècontinua in ogni  x  (e quindi associata ad una variabile casuale  X  continua con  f (x)continua 8x): esiste un unico  x0  tale che  F (x0) =  12 ; b)   F (x) è costante a tratti (equindi associata ad una variabile casuale  X  discreta), con  F (x) 6=   12 , 8x. In questocaso, se  F (x) assume i valori  α  e  β   con  α <   1

    2

     < β , saltando da  α  a  β  nel punto  x∗,allora  x0 = x∗. c)   F (x) è costante a tratti , con   F (x) =   12 ,  per  x1 · x < x2: ognix 2 [x1, x2] può essere assunto come  x0.

    Esempio 1

    .5

    .2

      Consideriamo di nuovo l’esperimento dell’esempio 1.5.1. Calcoliamo la va-rianza di X  mediante la relazione σ2X=E (X 2)¡µ2X . A tal fine andiamo a calcolare  E (X 2).

    E (X 2) =6

    i=1 x2i f (xi) = 1

    2   1

    36 + 22

      3

    36 + 32

      5

    36 + 42

      7

    36 + 52

      9

    36 + 62

    11

    36  =

      791

    36 ¼ 21.97 .

    Ora, applicando il risultato precedentemente ricordato e utilizzando il valore di  µX   trovatonell’esempio 1.5.1, si ottiene

    σ2X  = E (X 2) ¡ µ2X ¼ 21.97 ¡ (4.47)2 ¼ 21.97 ¡ 19.98 = 1.99 ,

    e quindi la deviazione standard

    σX ¼p 

    1.99 ¼ 1.41 .

    35

  • 8/20/2019 Dispensa Di Statisitica Prof Franceschini

    38/131

    Esempio  1.5.3   Sia X  la variabile aleatoria continua (già considerata nell’esempio 1.4.5) lacui funzione densità è

    f (x) =   1

    2 x   se   0·x·20   altrove

    .

    Calcoliamo media e varianza (quest’ultima in due modi: sia applicando la definizione che

    attraverso il calcolo di  E (X 2)).

    µX  = +∞−∞   xf (x)dx =

     20

    12

    x¢xdx =x3

    6

    20

    =   43

     ,

    σ2X  = +∞−∞ (x ¡ µX)2f (x)dx =

     20

    x ¡   43

    2¢ 12 xdx =

    x4

    8 ¡   49 (x3 ¡ x2)2

    0=   29 ,

    σ2X  = E (X 2) ¡ µ2X  =

     +∞−∞  x

    2f (x)dx ¡ µ2X  = 2

    012 x

    3dx ¡   169   =x4

    8

    20¡   169   =   29 .

    Esercizio  1.5.1   Si eseguano tre lanci consecutivi di una moneta truccata in modo tale che P (T ) =   34 . Sia  X   la variabile casuale che rappresenta il numero di teste ottenute nei tre lanci. Si chiede di calcolarne la media, la varianza e la deviazione standard.

    La variabile X  può assumere i valori 0,1,2,3. Le probabilità che X  assuma ciascuno di questivalori sono le seguenti:

    P (X =0) = P (CC C ) =

    14

    3=   164 ,

    P (X =1) = P (T CC ) + P (CT C ) + P (CCT ) = 3 34

    14

    2

    =   964 ,

    P (X =2) = P (T T C ) + P (T CT ) + P (CT T ) = 3 342 14  =   2764 ,P (X =3) = P (T T T ) =

    34

    3=   2764 ,

    La funzione di probabilità di X   è dunque la seguente:   X   :

      0 1 2 3

    164

    964

    2764

    2764

     .

    Avremo quindi:

    µX   = 0¢   164

     + 1¢   964

     + 2¢ 2764

     + 3¢ 2764

      = 9

    4 ;

    σ2X   =

    0 ¡  94

    2¢   1

    64 +

    1 ¡  9

    4

    2¢   9

    64 +

    2 ¡  9

    4

    2¢ 27

    64 +

    3 ¡  9

    4

    2¢ 27

    64 =

      9

    16 ;

    σX   =

      9

    16  =

      3

    4 .

    Per il calcolo della varianza si sarebbe potuto procedere anche utilizzando la relazione σ2X  =E (X 2) ¡ µ2x. In tal caso si sarebbe dovuto calcolare E (X 2)  ottenendo

    E (X 2) = 02 ¢   164

     + 12 ¢   964

     + 22 ¢ 2764

     + 32 ¢ 2764

     =  45

    8  ,

    e quindi, come prima,

    σ2X  = E (X 2) ¡ µ2x =

      45

    8 ¡  81

    16 =

      9

    16 .

    36

  • 8/20/2019 Dispensa Di Statisitica Prof Franceschini

    39/131

  • 8/20/2019 Dispensa Di Statisitica Prof Franceschini

    40/131

    1.6 VARIABILI ALEATORIE BIDIMENSIONALI

    In un esperimento, invece che ad un unico risultato numerico, possiamo essere inte-

    ressati a più valori (ad esempio, per una persona, a peso, altezza, età, ecc.). Ciascunodi tali valori è una variabile aleatoria, ma anche la  n-upla di valori ottenuti può es-sere considerata come una variabile aleatoria multipla o   n—dimensionale. Qui, persemplicità, tratteremo solo, seppure brevemente, le variabili aleatorie bidimensionali.

    Definizione

    Dato uno spazio di probabilità  (S, Ω, P ), si dice  variabile aleatoria bidimensio-nale una coppia di funzioni  (X, Y )  che ad ogni  s 2 S associa un coppia di numeri reali 

     X (s), Y (s)

    , tali che ogni insieme  fs   :  X (s) ·  a , Y (s) ·   bg  sia un evento 

    contenuto in  Ω.

    Anche nel caso di variabili casuali bidimensionali lo strumento essenziale per il loroutilizzo è la funzione distribuzione, la cui definizione si ottiene immediatamente ge-neralizzando quella per variabili unidimensionali. Infatti, si ha

    Definizione

    Data una variabile aleatoria bidimensionale   (X, Y )  definita sullo spazio di proba-bilità   (S, Ω, P ), si chiama   funzione di distribuzione   o   di ripartizione  ad essaassociata la funzione  F   : R2 ! [0, 1] cos̀ı definita:

    F (x, y) = P (X ·x, Y  · y) ,   (x, y) 2 R2 .

    La virgola nella probabilità appena scritta equivale ad una intersezione. Per favorire lacomprensione del significato della  F (x, y), ne ricordiamo tutte le possibili espressioni:

    F (x, y) =  P (X ·x, Y  · y) == P 

    s 2 S :  X (s) · x, Y (s) · y=

    = P 

    (X  · x) \ (Y  · y) == P 

    s 2 S :  X (s) · x \ s 2 S :  Y (s) · y .

    Ragionando sulla base del disegno riportato quiaccanto e utilizzando la proprietà additiva dellaprobabilità nel caso di eventi incompatibili, si di-mostra che

    P (x1

  • 8/20/2019 Dispensa Di Statisitica Prof Franceschini

    41/131

    Le funzioni di distribuzione  F X(x) della  X   e  F Y  (y) della  Y   sono dette   funzioni didistribuzione marginali  della variabile congiunta (X, Y ).

    Le variabili casuali bidimensionali, cos̀ı come quelle unidimensionali, possono esseredi tipo discreto o di tipo continuo.

    Una variabile bidimensionale (X, Y ) è discreta se esiste un insieme finito o numerabiledi coppie di numeri reali (xr, ys), r = 1, 2, . . . , s = 1, 2, . . . , tali che

    P (X =xr, Y  = ys) = prs¸0 ,   conr,s

     prs  = 1 .

    Eventuali coppie (xr, ys) con prs=0 possono rappresentare coppie di valori mai assuntidalla variabile casuale, che però per comodità sono presi ugualmente in considerazioneassegnando loro probabilità nulla.

    Si chiama  funzione di probabilità congiunta  la funzione

    f (x, y) =

     prs   se (x, y) = (xr, ys)   r = 1, 2, . . . , s = 1, 2, . . .

    0 altrove  ,

    mentre si chiamano   funzioni di probabilità marginali   le funzioni

    f X(x) =

     pr• =

    s prs   se   x =  xr

    0 altrove,

    f Y  (y) =

     p•s  =

    r prs   se   y =  ys

    0 altrove  .

    Nel caso di una variabile aleatoria (X, Y ) discreta finita, supposto  r  = 1, 2, . . . , N    es = 1, 2, . . . , M  , le funzioni di probabilità congiunta e marginali vengono rappresentateattraverso la seguente tabella:

    y1   y2   . . . . . . . . . yM 

    x1   p11   p12   . . . . . . . . . p1M    p1•x2   p21   p22   . . . . . . . . . p2M    p2•

    X . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . .xN    pN 1   pN 2   . . . . . . . . . pNM    pN •

     p•1   p•2   . . . . . . . . . p•M 

    Una variabile bidimensionale (X, Y ) è continua se esiste una funzione   f (x, y), nonnegativa, tale che

    F (x, y) =

       x−∞

       y−∞

    f (u, v)dudv .

    La funzione  f (x, y) è detta   funzione densità congiunta. Naturalmente si ha   +∞−∞

       +∞−∞

    f (u, v)dudv = 1 ,

    39

  • 8/20/2019 Dispensa Di Statisitica Prof Franceschini

    42/131

    che costituisce la condizione perché una funzione f (x, y)¸0 sia una funzione densità.Si può poi dimostrare che le funzioni di distribuzione marginali sono date da

    F X(x) =    x−∞   +∞

    −∞ f (u, v)dvdu ,F Y  (y) =

       y−∞

       +∞−∞

    f (u, v)du

    dv ,

    e quindi, per definizione di funzione densità, le  densità marginali  delle variabili  X e  Y   sono date da

    f X(x) =

       +∞−∞

    f (x, v)dv , f  Y  (y) =

       +∞−∞

    f (u, y)du .

    Sia A un sottinsieme di  R2 tale che l’insieme

    s :

    X (s), Y (s)

    2 A

     sia un evento di

    Ω. Un importante teorema riguardante la funzione densità congiunta è il seguente:Teorema   (senza dimostrazione)

    (X, Y ) 2 A =  A

    f (x, y) dxdy .

    Un corollario, molto utile ai fini della risoluzione degli esercizi (come si vedrà nell’e-sercizio 1.6.4), segue in maniera immediata dal teorema appena enunciato:

    Corollario   Siano   (X, Y )   una variabile casuale bidimensionale,   f (x, y)   la sua fun-zione densità congiunta,  Φ(X, Y ) una variabile casuale funzione di  X  e  Y , e  B  unboreliano di  R. Vale la relazione 

    P Φ(X, Y ) 2 B =  A

    f (x, y) dxdy ,   con   A = (x, y) : Φ(x, y) 2 B .La dimostrazione è immediata:

    Φ(X, Y ) 2 B = P s : ΦX (s), Y (s) 2 B == P 

    s :

    X (s), Y (s)

    2 (x, y) : Φ(x, y) 2 B == P 

    s :

    X (s), Y (s)

    2 A .Teorema   ( senza dimostrazione)   Se  (X, Y )  è una variabile casuale bidimensionale e Φ(X, Y )

     una variabile casuale funzione di  X 

      e  Y 

    , si ha

    E [Φ(X, Y )] =N r=1

    M s=1

    Φ(xr, ys) prs ,   se  X  e  Y  sono discrete (e finite);

    E [Φ(X, Y )] =

       +∞−∞

       +∞−∞

    Φ(x, y) f (x, y) dxdy ,   se  X  e  Y   sono continue .

    Corollario   E [aX  + bY ] = aE [X ] + bE [Y ] .

    Corollario   E N 

    k=1 αkX k

    =N 

    k=1 αkE [X k] .

    40

  • 8/20/2019 Dispensa Di Statisitica Prof Franceschini

    43/131

    Definizione   Si chiama   covarianza  delle variabili casuali  X   e  Y , e la indicheremo con  σX,Y   o   Cov (X, Y ), il numero 

    σX,Y 

     ´Cov(X, Y ) :=  E (X ¡ µX)(Y  ¡ µY  ) .In virtù del teorema precedente la covarianza risulta quindi cos̀ı definita:

    σX,Y   =N r=1

    M s=1

    (xr ¡ µX)(ys ¡ µY  ) prs ,   se X  e Y  sono discrete (e finite);

    σX,Y   =

       +∞−∞

       +∞−∞

    (x ¡ µX)(y ¡ µY  )f (x, y)dxdy ,   se X  e Y   sono continue.

    Teorema   σX,Y   = µXY  ¡ µXµY   .Dimostrazione

    σX,Y   = E (X ¡ µX)(Y  ¡ µY  ) = E XY  ¡ µXY  ¡ µY X  + µXµY  == E (XY ) ¡ µXE (Y ) ¡ µY E (X ) + µXµY   = µXY  ¡ µXµY   .

    Teorema   σ2X±Y   = σ2X + σ

    2Y  § 2σX,Y   .

    Dimostrazione

    σ2X±Y   = E 

    (X § Y ) ¡ (µX § µY  )2

    = E 

    (X ¡ µX) § (Y  ¡ µY  )2

    =

    = E 

    (X ¡ µX)2 + (Y  ¡ µY  )2 § 2(X ¡ µX)(Y  ¡ µY  )

    = σ2X + σ2Y  § 2σX,Y   .

    Il teorema appena dimostrato per due variabili casuali, si può facilmente generalizzarealla somma di  n  variabili  X i:

    Teorema   V ar   ni=1

    X i = ni=1

    V arX i+2 i=1,...,n−1k=i+1,...,n

    CovX i, X k .(senza dimostrazione)

    Teorema   σ2X,Y  · σ2Xσ2Y   .   (senza dimostrazione)

    Introduciamo ora l’importan