60
Quaderno di Didattica n. 32/2009 Novembre 2009 Department of Applied Mathematics, University of Venice QUADERNI DI DIDATTICA Mirko Modenese Statistica Per L’Impresa corso di Complementi di Matematica e Probabilità

Statistica per l'impresa. Corso di Complementi di Matematica e

  • Upload
    buitram

  • View
    220

  • Download
    1

Embed Size (px)

Citation preview

Page 1: Statistica per l'impresa. Corso di Complementi di Matematica e

Quaderno di Didattica n. 32/2009 Novembre 2009

Department of Applied Mathematics, University of Venice

QUADERNI DI DIDATTICA

Mirko Modenese

Statistica Per L’Impresa corso di Complementi di Matematica e

Probabilità

Page 2: Statistica per l'impresa. Corso di Complementi di Matematica e

Quaderno di Didattica n. 32/2009 Novembre 2009

I Quaderni di Didattica sono pubblicati a cura del Dipartimento di Matematica Applicata dell’Università di Venezia. I lavori riflettono esclusivamente le opinioni degli autori e non impegnano la responsabilità del Dipartimento. I Quaderni di Didattica vogliono promuovere la circolazione di appunti e note a scopo didattico. Si richiede di tener conto della loro natura provvisoria per eventuali citazioni o ogni altro uso.

Page 3: Statistica per l'impresa. Corso di Complementi di Matematica e

Appunti di Probabilita e Statisticaper il corso di Complementi di Matematica e Probabilita

Mirko Modenese

2009–2010

STATISTICA PER L’IMPRESA

corso di Complementi di Matematica e Probabilita

Universita Ca’ Foscari di Venezia

1

Page 4: Statistica per l'impresa. Corso di Complementi di Matematica e

Prefazione

Il presente scritto si inserisce come contributo del ben piu ampio lavoro che completa gli elementi es-senziali della prima parte del corso di Complementi di Matematica e Probabilita – CLM in Statistica perl’Impresa.

In prima istanza vengono introdotti i principali strumenti di analisi combinatoria (da subito vienedata una visione computazionale degli argomenti trattati mediante il software R (R Development CoreTeam, 2008)), per poi proseguire nel calcolo delle probabilita con analisi delle variabili casuali – discretee continue – di maggiore interesse. Dopo aver presentato gli elementi base della probabilita, si procedecon la definizione di processo stocastico, l’introduzione ai processi Markoviani e alle passeggiate ca-suali. Si conclude con la descrizione del processo Browniano (o processo di Wiener), la definizione deiprocessi di Nascita–Morte ed un’applicazione teorica.

Questa prima versione del presente elaborato e frutto dell’esperienza maturata nei percorsi di studioin Statistica e Informatica per la Gestione delle Imprese – CLT e Statistica per l’Impresa – CLM, Facolta diEconomia dell’Universita Ca’Foscari di Venezia, nonche da esperienze lavorative nel campo delle inda-gini statistiche in ambito medico e socio–economico. Sulla base di tali esperienze non posso affermareche il presente scritto si possa ritenere completo e concluso, ma che sicuramente sara la base di partenzaper ulteriori approfondimenti nel campo, da raccogliere e condividere.

Infine un sentito ringraziamento va a tutte quelle persone che hanno contribuito e reso possibile que-sto lavoro: grazie.

Mirko Modenese1.

1Per ogni informazione riguardante il presente elaborato, siete invitati a contattare il sottoscritto al seguente indirizzo E–[email protected]

2

Page 5: Statistica per l'impresa. Corso di Complementi di Matematica e

Indice

1 Calcolo combinatorio 71.1 Permutazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

1.1.1 Formula di Stirling . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81.1.2 Permutazioni con ripetizione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

1.2 Campioni ordinati . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91.3 Coefficiente Binomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

1.3.1 Teorema del binomio di Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111.4 Combinazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

2 Calcolo delle probabilita 132.1 Spazio campionario ed eventi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

2.1.1 Leggi di De Morgan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142.2 Assiomi della probabilita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142.3 Proprieta dagli assiomi della probabilita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152.4 Probabilita condizionata . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152.5 Indipendenza stocastica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162.6 Teorema di Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

3 Variabili casuali discrete 213.1 Funzioni di probabilita, ripartizione e valore atteso . . . . . . . . . . . . . . . . . . . . . . 213.2 Valore atteso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223.3 Varianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223.4 I momenti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233.5 La funzione generatrice dei momenti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233.6 Variabili aleatorie: Bernoulli e Binomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243.7 Variabile aleatoria di Poisson – o “degli eventi rari” . . . . . . . . . . . . . . . . . . . . . . 263.8 Variabile aleatoria geometrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

3.8.1 Perdita di memoria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 293.9 Binomiale negativa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 293.10 Tabella Riassuntiva Densita Discrete . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

4 Variabili casuali continue 314.1 Valore atteso e varianza di una variabile aleatoria continua . . . . . . . . . . . . . . . . . . 324.2 La funzione generatrice dei momenti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 344.3 Variabile aleatoria Uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 344.4 Variabile aleatoria Normale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 364.5 Teorema del Limite Centrale e Legge Forte dei Grandi Numeri . . . . . . . . . . . . . . . . 384.6 Variabile aleatoria esponenziale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 394.7 Variabile aleatoria Gamma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 404.8 La variabile aleatoria Log–Normale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 424.9 Tabella Riassuntiva Densita Continue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42

5 Processi stocastici 43

6 Processi Markoviani 436.1 Equazione di Chapman – Kolmogorov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

6.1.1 Stato assorbente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 466.2 Classificazione degli stati . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 466.3 Probabilita limite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48

7 Random Walk 497.1 Cos’e una passeggiata casuale? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 497.2 Definizione analitica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

8 Processo Browniano – anche detto processo di Wiener 518.1 Teorema del processo di Wiener . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52

9 Birth–Death Process 52

3

Page 6: Statistica per l'impresa. Corso di Complementi di Matematica e

10 Studio di un processo BD 52

A Listati codici di programmazione in R 56A.1 Generatore di una passeggiata pseudo–casuale . . . . . . . . . . . . . . . . . . . . . . . . . 56A.2 Generatore di una passeggiata casuale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56

4

Page 7: Statistica per l'impresa. Corso di Complementi di Matematica e

Elenco dei simboli

Abbreviazioni

MC Catena di Markov.

RW Random walk.

app. Appendice.

Fig. Figura.

i.i.d. Indipendenti ed identicamente distribuiti.

par. Paragrafo.

Tab. Tabella.

v. Vedi (riferimento, immagine, paragrafo, . . . ).

v.a. Variabile aleatoria.

v.c. Variabile casuale.

Simboli

# Conteggio.

≈ Approssimazione numerica.(nk

)Combinazione di n elementi presi a gruppi di k.

µ Vettore di medie.

∩ Intersezione.

∪ Unione.

det(X) Determinante della matrice X.

E[] Valore atteso.

≡ Equivalenza.

∀ Per ogni, qualunque sia.

∈ Appartenenza.

↔ Gli stati comunicano.

⇐⇒ Se e solo se, doppia implicazione

F sigma–algebra di insiemi di Ω i cui elementi sono chiamati eventi.

µ Indice di tendenza centrale, media.

Ω spazio campionario.

σ Scarto quadratico medio.

≃ Circa uguale.

⊂ Sottoinsieme.

1n Vettore unitario di ordine n.

In Matrice Identita di ordine n.

i 9 j i non comunica con j.

5

Page 8: Statistica per l'impresa. Corso di Complementi di Matematica e

i → j i comunica con j.

P (·) probabilita.

diag(X) Diagonale della matrice X.

6

Page 9: Statistica per l'impresa. Corso di Complementi di Matematica e

1 Calcolo combinatorio

Il calcolo combinatorio e una branca della matematica che studia i modi per raggruppare e ordinaresecondo date regole gli elementi di un insieme finito di oggetti.Diverse sono le applicazioni nelle quali sorge il problema di sapere in quanti modi possibili si puopresentare un certo fenomeno.

Il seguente principio viene spesso utilizzato in quella che viene definita anche “Analisi Combinato-ria”.

Definizione 1 (Principio fondamentale del calcolo combinatorio) Osserviamo l’esito di r esperimenti.Si supponga che il primo esperimento abbia n1 esiti possibili, che per ognuno di questi il secondo esperimento abbian2 esiti possibili, che per ognuno degli esiti dei due primi esperimenti il terzo esperimento abbia n3 esiti possibiliecc. Allora l’insieme degli r esperimenti ha n1 · n2 · · ·nr esiti possibili.

P Esempio 1.1 Lanciando contemporaneamente una moneta e un dado, quanti sono tutti gli esiti possibili?

A = T ;C ⇒cardinalita(A) = 2 eventi possibili

B = 1; 2; 3; 4; 5; 6 ⇒cardinalita(B) = 6 eventi possibili

cardinalita(A × B) = 2 · 6 =12 esiti possibili

1.1 Permutazioni

In quanti modi possiamo ordinare le lettere “a”,“l” e “f”?

a l fa f lf a lf l al a fl f a

esattamente in 6 modi diversi. Ogni singolo ordinamento prende il nome di permutazione. Sonorealizzabili:

n(n − 1)(n − 2) · · · 3 · 2 · 1 = n! . (1)

permutazioni di n oggetti.

P Esempio 1.2 In quanti modi possiamo disporre in fila 8 bandiere distinte? Abbiamo 8! = 8·7·6·5·4·3·2·1 =40320 modi diversi di disporre 8 bandiere.

Applicazione in R : con l’ausilio del software R (R Development Core Team, 2008), carichiamo ilpacchetto gregmisc e riproduciamo l’esempio precedente:

> permutations(3,3,c("a","l","f"))

[,1] [,2] [,3]

[1,] "a" "f" "l"

[2,] "a" "l" "f"

[3,] "f" "a" "l"

[4,] "f" "l" "a"

[5,] "l" "a" "f"

[6,] "l" "f" "a"

Esercizio 1.1 Il blocco tetranucleotidico di Phoebus Levene ha una sequenza fissa di nucleotidi nella qualeciascun nucleotide compare una sola volta (C =citosina, A =adenina, T =timina, G =gunina).Cosa accade se ciascun nucleotide viene utilizzato una sola volta e l’ordine dei nucleotidi e casuale? Quantidifferenti permutazioni ci possono essere in un blocco nucleotidico?Se ciascuno degli n possibili tetranucleotidi fosse considerato come una lettera dell’alfabeto del DNA, quante“parole” da quattro lettere si potrebbe comporre?

7

Page 10: Statistica per l'impresa. Corso di Complementi di Matematica e

> graphics.off()

> rm(list=ls())

> library(gregmisc)

> P <- permutations(4,4,c("A","C","T","G"))

> nrow(P)

[1] 24

> P

[,1] [,2] [,3] [,4]

[1,] "A" "C" "G" "T"

[2,] "A" "C" "T" "G"

[3,] "A" "G" "C" "T"

[4,] "A" "G" "T" "C"

[5,] "A" "T" "C" "G"

[6,] "A" "T" "G" "C"

[7,] "C" "A" "G" "T"

[8,] "C" "A" "T" "G"

[9,] "C" "G" "A" "T"

[10,] "C" "G" "T" "A"

[11,] "C" "T" "A" "G"

[12,] "C" "T" "G" "A"

[13,] "G" "A" "C" "T"

[14,] "G" "A" "T" "C"

[15,] "G" "C" "A" "T"

[16,] "G" "C" "T" "A"

[17,] "G" "T" "A" "C"

[18,] "G" "T" "C" "A"

[19,] "T" "A" "C" "G"

[20,] "T" "A" "G" "C"

[21,] "T" "C" "A" "G"

[22,] "T" "C" "G" "A"

[23,] "T" "G" "A" "C"

[24,] "T" "G" "C" "A"

Essendo 24 le permutazioni possibili dei tetranucleotidi, avremmo quindi 244 “parole” componibili, cioe piu di300000.

1.1.1 Formula di Stirling

Nel caso in cui si avesse una numerosita n alta, e possibile approssimare2 il valore cercato mediante laformula di Stirling3:

n! ≃√

2πn(n

e

)n

. (2)

Inoltre, Gosper4 ha notato che una migliore approssimazione a n! e data da:

n! ≈√(

2 · n +1

3

)

· π ·(n

e

)n

. (3)

2Applicazione in R per la formula di Stirling: stirling <- function(n) return(sqrt(2*pi*n)*(n/exp(1))∧n)

3James Stirling, detto il veneziano (Stirling, 22 aprile 1692 – Leadhills, 5 dicembre 1770), e stato un matematico scozzese. Dal1710 studia presso l’Universita di Oxford, dalla quale viene espulso nel 1715, a causa delle sue relazioni con le famiglie Keir eGarden, notoriamente Giacobiti.

Ripara quindi a Venezia sotto la protezione dell’ex–ambasciatore della Serenissima in Inghilterra Nicolo Tron, a cui dedical’opera Lineæ tertii ordinis Newtonianæ pubblicata nel 1717. Entra quindi in contatto con Nicolaus Bernoulli e Sir Isaac Newton(al quale invia –nel 1718– lo scritto intitolato Methodus differentialis Newtoniana illustrata, affinche lo trasmetta alla Royal Society).Stirling si interessa alle tecniche vetrarie impiegate a Murano; a causa di questa attivita, fugge ancora una volta, poiche teme perla sua vita, dato che viene sospettato dai veneziani di voler rubare il segreto della fabbricazione del vetro di Murano.

4Meglio conosciuto come Bill Gosper, matematico e programmatore, e considerato uno dei padri della comunita degli hackers.Gosper, entrato nel MIT (Massachusetts Institute of Technology) nel 1961, si laureo in matematica nel 1965. Studio programmazio-ne con John McCarthy, l’inventore del linguaggio Lisp (List Processor), un linguaggio di programmazione spesso usato nei progettidi intelligenza artificiale, integrato anche in programmi commerciali molto diffusi come Autocad. In seguito fece parte del labo-ratorio di intelligenza artificiale (MIT AI Lab): i suoi contributi spaziano dall’HAKMEM (hacks memo) al MIT Maclisp system, ilprogenitore del Lisp. Si e interessato al Gioco della vita, un automa cellulare sviluppato dal matematico inglese John Conway sulfinire degli anni ’60. Nel 1970 di trasferı in California, alla Stanford University, sotto la guida di Donald Knuth, e collaboro al IIvolume dell’The Art of Computer Programming. Padre di una curva frattale scoperta nel 1972 e soprannominata flowsnake (tracciadi serpente), in seguito, nel 1977, fu rinominata da Mandelbrot curva di Peano–Gosper.

8

Page 11: Statistica per l'impresa. Corso di Complementi di Matematica e

considerando x un numero reale con limx→0

xx = 1; inoltre, si noti che la (3) da una migliore approssima-

zione di 0!=1, con√

π/3 ≈ 1.02333, invece che il risultato 0 ottenuto con la (2).

P Esempio 1.3 (Permutazione circolare) In quanti modi un gruppo di 5 persone si puo disporre in 5 sedieallineate? Intorno ad un tavolo rotondo?

1. (i) Le cinque persone possono disporsi in 5! = 120 modi diversi.

2. (ii) Una persona si puo sedere in un posto qualsiasi del tavolo circolare. Le altre quattro, allora, hanno 4!modi di sedersi intorno al tavolo.Questo e un esempio di permutazione circolare. In generale, n oggetti possono essere sistemati intorno adun cerchio in (n − 1)! modi.

1.1.2 Permutazioni con ripetizione

Possiamo estendere il concetto delle permutazioni tra oggetti distinti a permutazioni tra oggetti alcunidei quali sono uguali fra loro.

Teorema 1 Il numero di permutazioni di n oggetti di cui n1 sono uguali, n2 sono uguali, . . . , nk sono ugualie:

n!

n1!, n2! · · ·nk!. (4)

P Esempio 1.4 Quanti segnali distinti, ognuno formato da 8 bandierine allineate verticalmente, si possonoottenere da un insieme di 4 bandiere rosse non distinguibili, 3 bandiere bianche non distinguibili e una bandieraazzurra?

8!

4! · 3!= 280

1.2 Campioni ordinati

Molte volte i problemi di analisi combinatoria, o la semplificazione di problemi piu astratti in statisti-ca, trovano utile esemplificazione nell’estrazione di palline da un’urna. Tale urna contiene n palline.Estraendo dall’urna una pallina dopo l’altra k volte, otterremo un campione di dimensione k. Possiamoin tal senso considerare due casi:

à Campionamento con reinserimento. Detto anche disposizioni con ripetizione. La pallina estrattaviene reinserita di volta in volta, prima della successiva estrazione. Vi sono n modi di estrarreciascuna pallina ad ogni estrazione, quindi per il principio del calcolo combinatorio:

k volte︷ ︸︸ ︷n · n · · · ·n = nk . (5)

à Campionamento senza reinserimento. Detto anche Disposizioni senza ripetizione. A differenzadel caso precedente, qui la pallina non viene reinserita dopo l’estrazione: quindi la popolazioneall’interno dell’urna varia di volta in volta.

D(n, k) = n(n − 1)(n − 2) · · · (n − k + 1) =n!

(n − k)!. (6)

P Esempio 1.5 In quanti modi si possono estrarre consecutivamente tre carte da un mazzo di 52 carte:

1. reinserendo la carta nel mazzo prima che venga estratta la successiva?

2. senza reinserire la carta estratta?

9

Page 12: Statistica per l'impresa. Corso di Complementi di Matematica e

Soluzione:

1. Abbiamo 52 modi diversi di estrarre una carta, quindi vi saranno:

523 = 140608

campioni distinti ordinati di dimensione 3 con reinserimento.

2. Abbiamo 52 modi diversi di estrarre una carta alla prima estrazione, 51 alla seconda, 50 alla terza; quindi visaranno:

52 · 51 · 50 = 132600

campioni distinti ordinati di dimensione 3 senza reinserimento.

1.3 Coefficiente Binomiale

Il coefficiente binomiale

(n

k

)

, con k ≤ n, e definito come:

(n

k

)

=n!

k!(n − k)!. (7)

P Esempio 1.6(

8

2

)

=8 · 72 · 1 = 28;

(10

5

)

=10 · 9 · 8 · 7 · 65 · 4 · 3 · 2 · 1 = 252 .

Possiamo costruirci in R (R Development Core Team, 2008) il coefficiente binomiale, come segue5:

bincoef <- function(n,k)

factorial(n)/(factorial(k) * factorial(n-k))

Osservazione 1 Dalla definizione segue che:(

n

n − k

)

=

(n

k

)

, (8)

cioe se α + β = n allora

(n

α

)

=

(n

β

)

.

Osservazione 2 Dimostriamo che:(

n + 1

k

)

=

(n

k − 1

)

+

(n

k

)

,

Poiche

(n

k − 1

)

+

(n

k

)

=n!

(k − 1)! · (n − k + 1)!+

n!

k! · (n − k)!, per ottenere lo stesso denominatore in entrambe

le frazioni, si moltiplichi la prima frazione per k/k e la seconda per n−k+1n−k+1 , ottenendo:

(n

k − 1

)

+

(n

k

)

=k · n!

k · (k − 1)! · (n − k + 1)!+

(n − k + 1) · n!

k! · (n − k + 1) · (n − k)!

=k · n!

k!(n − k + 1)!+

(n − k + 1) · n!

k! · (n − k + 1)!

=k · n! + (n − k + 1) · n!

k!(n − k + 1)!=

[k + (n − k + 1)] · n!

k!(n − k + 1)!

=(n + 1)n!

k!(n − k + 1)!=

(n + 1)!

k!(n − k + 1)!=

(n + 1

k

)

.

P Esempio 1.7(

10

3

)

=

(10

7

)

= 120,

(9

6

)

+

(9

7

)

=

(10

7

)

.

5Alternativamente e disponibile il comando choose .

10

Page 13: Statistica per l'impresa. Corso di Complementi di Matematica e

1.3.1 Teorema del binomio di Newton

(x + y)n =

n∑

k=0

(n

k

)

xkyn−k . (9)

Proprieta 1 dello sviluppo di (x + y)n

1. Vi sono n + 1 termini.

2. La somma degli esponenti di x e y in ogni termine e n.

3. Gli esponenti di y decrescono termine per termine da n a 0; gli esponenti di x crescono termine per termineda 0 a n.

4. Il coefficiente di ogni termine e

(n

k

)

, dove k e l’esponente di x o di y.

5. I coefficienti dei termini equidistanti dagli estremi sono uguali (vedi osservazione 1).

La (9) si puo dimostrare per induzione.I coefficienti binomiali formano per righe il noto Triangolo di Pascal:

(x + y)0 = 1

(x + y)1 = x + y

(x + y)2 = x2+2xy + y2

(x + y)3 = x3 + 3x2y + 3xy2 + y3

...

ponendo x = 1, y = 1:

1

1 1

1 2 1

1 3 3 1

...

1.4 Combinazioni

Si supponga di avere n oggetti. Supponiamo di voler formare un gruppo di k elementi, dove l’ordinenon conta. In quanti modi possiamo farlo? Chiamiamo tale numerole combinazioni di n su k.

P Esempio 1.8 Le combinazioni delle lettere w, x, y, z prese 3 a 3 sono:

w, x, y, w, x, z, w, y, z, x, y, z .

Si osservi che le seguenti combinazioni sono uguali:

w, x, y, w, y, x, y, x, w, x, y, w, x, w, y, y, w, x .

cioe ognuna denota lo stesso insieme x, y, w.

Il numero di combinazioni di n su k puo essere indicato con:

C(n, k) .

Per ottenere la formula delle combinazioni di C(n, k) trattiamo un caso particolare, nel seguente esem-pio.

11

Page 14: Statistica per l'impresa. Corso di Complementi di Matematica e

Combinazioni Permutazioni

wxy wxy, wyx, yxw, xyw, xwy, ywxwxz wxz, wzx, xwz, xzw, zwx, zxwwyz wyz, wzy, ywz, yzw, zwy, zywxyz xyz, xzy, yxz, yzx, zxy, zyx

Tabella 1: Permutazioni e combinazioni di un insieme.

P Esempio 1.9 Determiniamo il numero di combinazioni di quattro lettere w, x, y, z prese tre alla volta. Si ri-cordi che ogni combinazione formata da tre lettere determina 3! = 6 permutazioni delle lettere nella combinazione:Allora il numero di combinazioni moltiplicato per 3! e uguale al numero delle disposizioni:

C(4, 3) · 3! = D(4, 3) , oD(4, 3)

3!.

Dato che D(4, 3) = 4 · 3 · 2 = 24 e 3! = 6, abbiamo C(4, 3) = 4 come gia fatto vedere nell’esempio precedente.

Da quanto visto, ogni combinazione di n oggetti presi k alla volta da luogo k! permutazioni degli oggetti,possiamo quindi concludere che:

D(n, k) = k! · C(n, r) ,

possiamo scrivere:

C(n, k) =D(n, k)

k!=

n!

k!(n − k)!,

e, a mente della (7), e lecita la sostituzione:

C(n, k) =

(n

k

)

. (10)

Esercizio 1.2 Un club e composto da 20 membri dei quali 8 sono uomini e 12 sono donne. Dev’essere sceltoun comitato di 6 persone. Quanti comitati e possibile formare se:

1. Non vi sono ulteriori restrizioni.

2. Il comitato deve avere 4 donne e 2 uomini.

Soluzione:

1. > graphics.off()

> rm(list=ls())

> library(gregmisc)

> nrow(combinations(20,6))

2. Il comitato deve avere 4 donne e 2 uomini.

> graphics.off()

> rm(list=ls())

> library(gregmisc)

> nrow(combinations(12,4))*nrow(combinations(8,2))

[1] 13860

12

Page 15: Statistica per l'impresa. Corso di Complementi di Matematica e

2 Calcolo delle probabilita

2.1 Spazio campionario ed eventi

L’insieme Ω di tutti i possibili esiti di un esperimento e lo spazio campionario. Un particolare esito, cioeun elemento di Ω, e detto punto campionario. Un evento A e un insieme di esiti, cioe sottoinsieme diΩ.

P Esempio 2.1 Se l’esito di un esperimento e il determinare testa o croce dal lancio singolo di una monetina,allora lo spazio campionario sara:

Ω = T, C.Inoltre, A = T e l’evento che il lato della monetina sia testa. Lanciandola tre volte di seguito, l’evento che tuttie tre i lanci diano testa e A = T, T, T. Lo spazio campionario e dato da:

> permutations(2,3,c("C","T"),repeats.allowed=TRUE)

[,1] [,2] [,3]

[1,] "C" "C" "C"

[2,] "C" "C" "T"

[3,] "C" "T" "C"

[4,] "C" "T" "T"

[5,] "T" "C" "C"

[6,] "T" "C" "T"

[7,] "T" "T" "C"

[8,] "T" "T" "T"

L’evento a costituito da un singolo campione (p.to campionario) e detto evento elementare. Anchel’insieme vuoto ∅ ed Ω sono eventi:

• ∅ e detto evento impossibile,

• Ω e detto evento certo.

Utilizziamo un’algebra per gli eventi:

- unione degli eventi A e B: A ∪ B = ω ∈ Ω : ω ∈ A oppure/e ω ∈ B, e l’evento che si verifica sesi verificano gli esiti di A o B, o entrambi;

- intersezione degli eventi A e B: A ∩ B = ω ∈ Ω : ω ∈ A e ω ∈ B, e l’evento che si verifica se siverificano A e B (contemporaneamente);

- complemento: Ac = ω ∈ Ω : ω /∈ A, e l’evento che si verifica se non si verifica A.

Nota che: ∅ = Ωc .Definiamo A\B essere l’insieme degli elementi che appartengono ad A ma non a B. Si noti che:

A\B = A ∩ Bc.

Due eventi sono incompatibili se: A ∩ B = ∅ .

Dall’es. 2.1, l’evento T esce testa e C esce croce, sono incompatibili nel singolo lancio T ∩ C = ∅.

Proprieta commutative A ∪ B = B ∪ A , A ∩ B = B ∩ A .

Proprieta associative (A ∪ B) ∪ C = A ∪ (B ∪ C) , (A ∩ B) ∩ C = A ∩ (B ∩ C) .

Proprieta distributive (A ∪ B) ∩ C = (A ∩ C) ∪ (B ∩ C) , (A ∩ B) ∪ C = (A ∪ C) ∩ (B ∪ C) .

13

Page 16: Statistica per l'impresa. Corso di Complementi di Matematica e

2.1.1 Leggi di De Morgan

(n⋂

i=1

Ai

)c

=n⋃

i=1

Aci , (11)

(n⋃

i=1

Ai

)c

=

n⋂

i=1

Aci . (12)

2.2 Assiomi della probabilita

Consideriamo Ω uno spazio di eventi elementari e F una σ–algebra6 di parti di Ω. Sulla coppia (Ω,F)viene definita una funzione che probabilizza tutti gli insiemi che appartengono a F .

Definizione 2 Sia (Ω,F) uno spazio di misura. Una applicazione P : F → R+ e una probabilita se si

verifica che:

Assioma 10 ≤ P (A) ≤ 1 ,

Assioma 2P (Ω) = 1 ,

Assioma 3 data la successione di eventi Ai = 1, 2, . . . , a due a due disgiunti (incompatibili, Ai ∩Aj = ∅ perogni i 6= j) ad F , allora

P

(∞⋃

i=1

Ai

)

=

∞∑

i=1

P (Ai) . (13)

Nel caso di due eventi disgiunti, la precedente formula diventa

P (A ∪ B) = P (A) + P (B) .

La terna (Ω,F , P ) viene definita spazio di probabilita.(Parpinel e Provasi, 2003)

L’approccio frequentista al calcolo della probabilita, definisce quest’ultima come il limite della pro-porzione di volte #(A) che l’evento A quando si eseguono esperimenti indipendenti ed identicamentedistribuiti. Tale processo di convergenza e noto come legge dei grandi numeri.

Dall’assioma 3, con la scelta di A1 = Ω, Ai = ∅, per ogni i ≥ 2, otteniamo:

P (Ω) =

∞∑

i=1

P (Ai) = P (Ω) +

∞∑

i=2

P (∅) ,

dalla quale consegue che:

P (∅) = 0 .

Se si analizza Ω come spazio a cardinalita finita, con m numero totale di punti campionari ei, abbiamoche:

Pei =1

m,

ed in generale la probabilita si calcola come rapporto fra il numero di casi favorevoli sul numero di casipossibili:

P (A) =numero delle modalita con cui l’evento A puo presentarsi

numero delle modalita con cui lo spazio campionario Ω puo presentarsi.

Va sottolineato che la suddetta formula P (A) puo venire applicata soltanto in relazione ad uno spazioequiprobabile. Quindi, scegliere “a caso” vorra dire che stiamo scegliendo in uno spazio in cui ogni puntoha eguale probabilita.

6Famiglia di sottoinsiemi di Ω, che contiene unioni, intersezioni e negazioni di eventi appartenenti a F .

14

Page 17: Statistica per l'impresa. Corso di Complementi di Matematica e

2.3 Proprieta dagli assiomi della probabilita

Teorema 2 Per ogni evento A di F , abbiamo:

P (A) = 1 − P (Ac) . (14)

In altre parole, la probabilita che un evento si verifichi e 1 meno la probabilita che l’evento non si verifichi.

Teorema 3 Se gli eventi A, B ∈ F sono tali che A ⊂ B, allora P (A) ≤ P (B).

Teorema 4 Se A, B ∈ F sono due eventi qualsiasi, si ha che:

P (A ∪ B) = P (A) + P (B) − P (A ∩ B) . (15)

Figura 1: Diagramma di Eulero–Venn per il caso A ∪ B. L’unione da come insieme finale:1,2,3,4,5,6.

Il caso puo essere esteso:

P (A ∪ B ∪ C) = P (A) + P (B) + P (C) − P (A ∩ B) − P (A ∩ C) − P (B ∩ C) + P (A ∩ B ∩ C) . (16)

P Esempio 2.2 Alla roulette volete conoscere la probabilita di vincere, giocando due volte di seguito sulnumero 30.

Ω = 37 · 37 = 1369 e P (A1 ∩ A2 = P (ω1 = 30, ω2 = 30) = 11369 .

P (A) =1

37+

1

37− 1

1369≈ 5% .

2.4 Probabilita condizionata

Quando un evento e condizionato da un altro evento, automaticamente vede modificata la sua probabi-lita. Ad esempio, se voglio estrarre un asso da un mazzo di scopa la probabilita e di 4

40 = 110 . Ma se un

amico ci dice che la carta scelta, non e sicuramente una figura, la probabilita sara di 428 = 1

7 .

Definizione 3 Sia (Ω,F , P ) uno spazio di probabilita e siano A, B ∈ F , con P (B) > 0. Si definisceprobabilita condizionata di A rispetto a B la quantita:

P (A|B) =P (A ∩ B)

P (B). (17)

Teorema 5 Principio delle probabilita composte Dati due eventi A e B a probabilita positiva vale laseguente:

P (A ∩ B) = P (A)P (B|A) = P (B)P (A|B) , (18)

generalizzando la (18), otteniamo la regola del prodotto:

P

(n⋂

i=1

Ai

)

= P (A1)P (A2|A1)P (A3|A1 ∩ A2) · · ·P (An|A1 ∩ A2 ∩ · · · ∩ An−1) . (19)

In generale: P (A|B) 6= P (B|A).

15

Page 18: Statistica per l'impresa. Corso di Complementi di Matematica e

P Esempio 2.3 In un’urna, vi sono 20 palline, delle quali 15 sono bianche. Vogliamo calcolare la probabilitadi estrarre di seguito, senza reinserimento, 3 palline bianche. Indichiamo con Bi, per i ∈ 1, 2, 3, l’evento chel’i–esima pallina sia bianca. La probabilita di estrarre tre palline bianche e pari a:

P (B1 ∩ B2 ∩ B3) = P (B1) · P (B2|B1) · P (B3|B1 ∩ B2) =15

20· 14

19· 13

18≈ 0.4

alternativamente:

P (B1 ∩ B2 ∩ B3) =

(153

)

(203

) ≈ 0.4 .

P Esempio 2.4 Vogliamo calcolare la probabilita che n persone (nate lo stesso anno) scelte a caso (n ≤ 365),abbiamo data di nascita differente. Si denoti con A il suddetto evento,

P (A) =365

365· 364

365· · · · · 365 − n + 1

365=

(

1 − 1

365

)

·(

1 − 2

365

)

· · · · ·(

1 − n − 1

365

)

.

2.5 Indipendenza stocastica

In generale, la probabilita P (A|B) non e uguale a P (A): cioe, la conoscenza della realizzazione dell’e-vento B modifica solitamente la possibilita del realizzarsi o meno di A.Vi sono eventi condizionati che si “attraggono” (quando la probabilita di un evento condizionato ad unaltro, e piu alta della probabilita dell’evento singolo) ed altri che si “respingono” (viceversa). Interes-sante e il caso in cui la probabilita condizionata non e diversa dalla probabilita non condizionata, cioe laprobabilita di un evento non viene condizionata da un altro evento. In questo caso parliamo di eventistocasticamente indipendenti.

Definizione 4 Due eventi A e B sono detti stocasticamente indipendenti se si verifica che:

P (A ∩ B) = P (A)P (B) , (20)

Teorema 6 Due eventi A e B a probabilita positiva sono stocasticamente indipendenti, se e solo se:

P (A) = P (A|B) . (21)

Dimostrazione:

Condizione necessaria Se P (A ∩ B) = P (A)P (B) = P (A), allora:

P (A|B) =P (A)P (B)

P (B),

Condizione sufficiente Dalla def. 4 sappiamo che P (A) = P (A|B) = P (A∩B)P (B) , da cui P (A ∩ B) =

P (A)P (B).

Generalizzando, la nozione di indipendenza si puo estendere a piu di 3 eventi. Gli eventi A1, A2, . . . , An

si dicono indipendenti se per ogni sottoinsieme A1′ , A2′ , . . . , Ar′ , r ≤ n, di questi eventi si ha:

P (A1′ , A2′ , . . . , Ar′) = P (A1′)P (A2′) · · ·P (An′) .

Diciamo che infiniti eventi sono indipendenti se ogni sottoinsieme finito di essi e formato da eventiindipendenti.

P Esempio 2.5 Dato un mazzo di carte da poker, peschiamo una carta: l’evento A e la carta pescata e un asso;l’evento B la carta pescata e di picche. Gli eventi A e B sono indipendenti. P (A ∩ B) = 1

52 , P (A) = 1352 e

P (B) = 452 .

P (A|B) =13

52· 4

52=

1

52.

(Ross, 2002)

16

Page 19: Statistica per l'impresa. Corso di Complementi di Matematica e

P Esempio 2.6 Supponiamo di avere P (A) = 0.3, P (B) = 0.7 e P (A ∪ B) = 0.9: calcoliamo P (A ∩ B) eP (B|Ac).Sapendo che:

P (A ∪ B) = P (A) + P (B) − P (A ∩ B)

P (A ∩ B) = P (A) + P (B) − P (A ∪ B)

P (A ∩ B) = 0.7 + 0.3 − 0.9 = 0.1

Ora, possiamo scomporre l’evento B in due eventi incompatibili: P (Ac ∩ B) e P (A ∩ B). Otteniamo quindi:

P (B) = P (Ac ∩ B) + P (A ∩ B)

P (Ac ∩ B) = P (B) − P (A ∩ B)

P (Ac ∩ B) = 0.6

ora:

P (B|Ac) =P (B ∩ Ac)

(1 − P (A))=

0.6

1 − 0.3=

6

7.

(Parpinel e Provasi, 2003)

Quando il concetto di indipendenza e allargato a piu di due eventi, abbiamo diversi comportamenti.Parliamo di indipendenza a coppie di n eventi se:

P (Ai ∩ Aj) = P (Ai)P (Aj) . (22)

per ogni i 6= j. Invece, abbiamo l’indipendenza completa se per ogni scelta di k = 1, 2, . . . , n per glieventi del tipo Aj1, Aj2, . . . , Ajk abbiamo che:

P

(n⋂

i=1

Aji

)

=n∏

i=1

P (Aji) . (23)

E chiaro che quest’ultima definizione e piu restrittiva della precedente: l’indipendenza completa implical’indipendenza a coppie, mentre non e vero il viceversa.

Verifichiamo invece che, se per tre eventi la probabilita congiunta e uguale al prodotto delle proba-bilita dei singoli eventi, non e detto che si verifichi l’indipendenza delle coppie (come pure se dovesseverificarsi l’indipendenza a coppie, non e detto si debba verificare l’indipendenza congiunta).

P Esempio 2.7 Nel lancio di un dado consideriamo i tre eventi:

A = uscita di un punteggio ≤ 4;

B = uscita di un punteggio ≥ 4;

C = uscita di un punteggio pari.

Ci domandiamo se gli eventi sono tra loro indipendenti. Le probabilita sono rispettivamente, 46 per A, 3

6 per B e 36

per C. L’evento congiunto A ∩B ∩C coincide con la sola faccia 4, dunque P (A ∩B ∩C) = 16 , che coincide con:

P (A) · P (B) · P (C) =4

6· 3

6· 3

6

Andando pero a calcolare le probabilita a coppie, otteniamo che A e B non sono indipendenti:

1

6= P (A ∩ B) 6= P (A) · P (B) =

4

6· 3

6=

1

3

Allo stesso modo, si puo verificare che non risultano indipendenti B e C, mentre lo sono A e C.

P Esempio 2.8 Lanciando una moneta registriamo gli esiti di 2 lanci, sapendo che la probabilita di otteneretesta (croce) al lancio i–esimo e P (T1) = P (T2) = 1/2, nella seguente tabella di contingenza: Notiamo cheall’interno della tabella le probabilita sono calcolate alla luce dell’indipendenza come, v. Tab. 3.

17

Page 20: Statistica per l'impresa. Corso di Complementi di Matematica e

Tabella 2: Tabella di contingenza.H

HH

HH

21

T1 C1

T2 1/4 1/4 1/2

C2 1/4 1/4 1/2

1/2 1/2 1

Tabella 3: Tabella di contingenza.H

HH

HH

21

T1 C1

T2 P (T2

⋂T1) = P (T2)P (T1) P (T2

⋂C1) = P (T2)P (C1) P (T2)

C2 P (C2

⋂T1) = P (C2)P (T1) P (C2

⋂C1) = P (C2)P (C1) P (C2)

P (T1) P (C1) 1

2.6 Teorema di Bayes

Si consideri lo spazio degli eventi divisibile in n sottoinsiemi disgiunti tra loro (v. Fig. 2), condi-zionatamente ai quali sia piu facile identificare la probabilita di un altro evento B. In altre paro-le sia A1, A2, . . . , An una partizione dello spazio Ω. Per calcolare P (B) nel suo complesso, possiamoscomporre l’evento B negli n eventi disgiunti tra loro Ai ∩ B:

P (B) = P

[n⋃

i=1

(Ai ∩ B)

]

=n∑

i=1

P (Ai ∩ B) .

Poiche dalla definizione di probabilita condizionata abbiamo che:

P (Ai ∩ B) = P (Ai)P (B|Ai) ,

otteniamo cosı il teorema delle probabilita totali.

Teorema 7 Sia A1, A2, . . . , An una partizione dello spazio Ω e B un evento di cui si vuole calcolare laproababilita. Abbiamo:

P (B) =n∑

i=1

P (Ai)P (B|Ai) . (24)

Figura 2: Insieme B partizionato.

18

Page 21: Statistica per l'impresa. Corso di Complementi di Matematica e

P Esempio 2.9 Abbiamo una scatola di 50 componenti elettrici composta da due insiemi: 20 e 30 elementirispettivamente. E noto, che nel primo gruppo vi saranno un numero di difettosi pari al 3% mentre nel secondogruppo ve ne saranno un 5%. Vogliamo conoscere la probabilita di estrarre a caso un elemento difettoso, evento D.

Sappiamo che la probabilita di estrarre un pezzo dal primo gruppo e P (A1) = 2050 = 0.4, mentre dal secondo

gruppo P (A2) = 3050 = 0.6. Sappiamo inoltre che la probabilita di estrerre un elemento difettoso dal primo gruppo

e pari a 0.03, mentre per il secondo e 0.05.Quindi, la probabilita di estrarre un elemento, che sia del primo gruppo e difettoso, e P (D ∩ A1) = 0.03 · 0.4 =0.012.La probabilita di estrarre un elemento del secondo gruppo, difettoso, e P (D ∩ A2) = 0.05 · 0.5 = 0.03.La probabilita totale (24) di estrarre un difettoso sara quindi:

P (D) =2∑

i=1

P (Ai)P (D|Ai) = 0.012 + 0.03 = 0.042

In maniera conseguenziale, dato che:

P (Aj |B) =P (Aj ∩ B)

P (B),

allora si conviene al Teorema di Bayes:

Teorema 8 (di Bayes) Sia A1, A2, . . . , An una partizione dello spazio Ω e B un evento di Ω; inoltre, sianonote le probabilita condizionate P (B|Ai). Allora il calcolo della probabilita di Aj dato il fatto che si e verificato Be

P (Aj |B) = P (Aj)P (B|Aj)

∑ni=1 P (Ai)P (B|Ai)

. (25)

P Esempio 2.10 Abbiamo:

Tabella 4: Tabella percentuali di fumatori e fumatrici.

Fumatori Non Fumatori

4 p = 0.75 p = 0.25

2 p = 0.50 p = 0.50

Siano inoltre:

• A = persona pescata a caso sia ;

• B = persona pescata a caso fuma;

saranno quindi:

P (B|A) = probabilita che una persona fumi e che sia = 0.75 ,

P (A|B) = probabilita che, pescato un , egli fumi ,

=P (B|A)P (A)

P (B|A)P (A) + P (B|Ac)P (Ac)=

0.75 · 23

0.75 · 23 + 0.5 · 1

3

.

19

Page 22: Statistica per l'impresa. Corso di Complementi di Matematica e

P Esempio 2.11 Una televisione locale trasmette gli spot pubblicitari commissionati da una ditta. In seguito,viene rilevato per ogni cliente se ha visto lo spot e se ha effettuato l’acquisto. Indichiamo con B l’evento il cliente havisto lo spot e con A l’evento il cliente ha effettuato l’acquisto. Essendo noto che in base alle rilevazioni e risultatoP (A) = 6

10 , P (B|A) = 710 e P (B|Ac) = 2

10 , si puo affermare che la pubblicita e risultata efficace? Cioe, vogliamovalutare la probabilita che il cliente, avendo visto lo spot, abbia effettuato l’acquisto oppure no. P (Ac) = 4

10 , dalteorema della probabilita totali abbiamo:

P (B) = P (A)P (B|A) + P (Ac)P (B|Ac) =6

10· 7

10+

4

10· 2

10=

1

2.

Quindi, per il teorema di Bayes:

P (A|B) =P (A)P (B|A)

P (B)=

21

25= 0.84 ,

P (Ac|B) =P (Ac)P (B|Ac)

P (B)=

4

25= 0.16 .

Lo spot e quindi valido. (Parpinel e Provasi, 2003)

20

Page 23: Statistica per l'impresa. Corso di Complementi di Matematica e

3 Variabili casuali discrete

Definizione 5 Una variabile aleatoria X e una variabile che assume valori nello spazio dei numeri realisecondo una distribuzione di probabilita P (X).

(Parpinel e Provasi, 2003)

Tale definizione consiste quindi nell’associare un numero a ciascun risultato sperimentale in Ω. Sia-mo interessati alle funzioni a valori reali definite sullo spazio campionario: variabili aleatorie. Il va-lore di una variabile aleatoria e determinato dall’esito dell’esperimento, possiamo cosı assegnare leprobabilita ai possibili valori ottenuti dalla variabile casuale.

3.1 Funzioni di probabilita, ripartizione e valore atteso

Definizione 6 Si definisce variabile casuale discreta una v.a. che ha come codominio un sottoinsieme finitoo numerabile A dei reali.

La funzione di probabilita (o la desita discreta) di una v.c. discreta e:

f(x) = p(x) = PX = x , (26)

sappiamo inoltre che la funzione di probabilita:

p(xi) ≥ 0 i = 1, 2, . . . , (27)∞∑

i=1

p(xi) = 1 . (28)

La funzione di ripartizione (distribuzione) F di X , F (x) denota la probabilita che la variabile aleatoriaX assuma i valori minori o uguali a x. La funzione di ripartizione F puo essere espressa in funzione dip(x):

F (x) = PX ≤ x =∑

a≤x

PX = a =∑

a≤x

p(a) , (29)

si ricordi la relazione:f(x) = F (x) − F−(x) , (30)

doveF−(x) = lim

ǫ↓0F (x − ǫ) . (31)

Alcune proprieta per la funzione di distribuzione F sono:

1. F e funzione non decrescente: cioe se x < y allora F (x) ≤ F (y).

2. limx→∞

F (x) = 1.

3. limx→−∞

F (x) = 0.

4. F e continua a destra.

Se X e variabile aleatoria discreta che assume valori x1, x2, x3, . . . con x1 < x2 < . . . , allora la suafunzione di distribuzione e costante a tratti. Cioe il valore di F e costante negli intervalli [xi−1, xi) e poiha un salto di ampiezza pari a p(xi) in xi.

P Esempio 3.1 Data per esempio la seguente densita:

p(1) =1

4; p(2) =

1

2; p(3) =

1

8; p(4) =

1

8.

la sua funzione di distribuzione e:

F (a) =

0 a < 1 ,

14 1 ≤ a < 2 ,

34 2 ≤ a < 3 ,

78 3 ≤ a < 4 ,

1 4 ≤ a .

21

Page 24: Statistica per l'impresa. Corso di Complementi di Matematica e

3.2 Valore atteso

Definizione 7 (Valore atteso v.a. discreta) Se X e variabile aleatoria discreta che assume valori in un sot-toinsieme finito (o numerabile) A ⊂ R. Denotiamo con p(x) la probabilita che assuma il valore x ∈ A. Il valoreatteso e definito come :

µ = E[X] =∑

x∈A

x · p(x) . (32)

Cioe, il valore atteso di X e la media pesata di tutti i possibili valori che X puo assumere, ognuno pesatocon la probabilita che X lo assuma.

Definizione 8 Se X e variabile aleatoria discreta che assume valori xi, i ≥ 1 con probabilita pari a p(xi),allora per ogni funzione a valori reali g il valore atteso:

E[g(X)] =∑

x∈A

g(x) · p(x) . (33)

P Esempio 3.2

E[X2] =∑

x∈A

x2 · p(x) .

Proprieta 2 Il valore atteso gode delle seguenti proprieta:

a) se c e una costante,E[c] = c ,

b) se a, b sono costanti,E[aX + b] = aE[X] + b ,

c) se c1 e c2 sono due costanti e X e Y due variabili casuali, allora :

E[c1X + c2Y ] = c1 E[X] + c2 E[Y ] .

P Esempio 3.3 La funzione di probabilita della v.c. discreta X sia:

f(x) =

x

6se x = 1, 2, 3 ,

0 altrove .

Sia quindi:

E[X] =

3∑

x=1

x(x

6

)

=14

6,

E[X2] =3∑

x=1

x2(x

6

)

= 6 .

Inoltre:

E[X(2 − X)] = 2 E[X] − E[X2] = 2 · 14

6− 6 =

4

3.

(Parpinel e Provasi, 2003)

3.3 Varianza

Definizione 9 Sia X una v.c. che assume valori in un insieme finito A ⊂ R. Assumiamo che X abbia mediaµ, allora la varianza di X e definita:

σ2 = var(X) = E[(X − E[X])2] = E[(X − µ)2] =∑

x∈A

(x − µ)2p(x) . (34)

22

Page 25: Statistica per l'impresa. Corso di Complementi di Matematica e

Possiamo scrivere la varianza anche come:

var(X) = E[X2] − µ2 = E[X2] − (E[X])2 . (35)

La varianza:

• non puo essere negativa 0 ≤ σ2 ,

• E[X2] ≥ (E[X])2 .

3.4 I momenti

Ci sono altri valori attesi da considerare.

Definizione 10 Siano X una variabile casuale con funzione di probabilita f(x) su R e r un intero positivo.Per semplificare omettiamo dalla notazione l’insieme A di riferimento. Se esiste il valore atteso

E[(X − b)r] =∑

x

(x − b)rf(x) , (36)

viene definito momento di ordine r dalla costante b e indicato con µr(b).

Si riconoscono altresı:µr = E[Xr] = µr(0) momento dall’origine, (37)

µr = E[(X − µ)r] = µr(µ) momento centrale. (38)

3.5 La funzione generatrice dei momenti

Vogliamo associare ad una variabile casuale una particolare funzione che la identifica completamente.Cio risulta utile per quelle distribuzioni per le quali e difficile determinare i principali valori attesi, qualimedia e varianza.

Definizione 11 Sia X una v.c. di tipo discreto con funzione di probabilita f(x) e supporto A ⊂ R. Se h e unnumero positivo tale che:

Ψ(α) = E[eαX ] =∑

x

eαX f(x) , (39)

esiste ed e finito in −h < α < h, allora la funzione di t definita da:

Ψ(α) = E[eαX ] , (40)

e chiamata funzione generatrice dei momenti di X .

E evidente che Ψ(0) = 1. La f.g.m. puo essere scritta come:

Ψ(α) = eαa1 f(a1) + eαa2 f(a2) + . . . ,

dove f(ai) = P (X = ai). Quindi, se due v.c. hanno la stessa f.g.m., hanno necessariamente la stessafunzione di probabilita.

Per α = 0 abbiamo l’esistenza delle derivate di ogni ordine di Ψ(α). In generale, per ogni interopositivo r:

Ψ(r)(α) =∑

x

xr , eαxf(x) , (41)

da cui, con α = 0:

Ψ′(0) =∑

x

x f(x) = E[X] , (42)

Ψ′′(0) =∑

x

x2 f(x) = E[X2] , (43)

. . .

23

Page 26: Statistica per l'impresa. Corso di Complementi di Matematica e

In generale

Ψr(0) =∑

x

xr f(x) = E[Xr]. (44)

Quindi:

µ = Ψ′(0) , σ2 = Ψ′′(0) − [Ψ′(0)]2 . (45)

P Esempio 3.4 Data una v.c. che assume valori 0 e 1 con probabilita, rispettivamente, 1 − p e p (p ∈ [0, 1]).La f.g.m. di X :

Ψ(α) = eα0(1 − p) + eα1p = (1 − p) + eαp ,

µ = E[X] = Ψ′(0) = e0p = p ,

σ2 = E[X2] − E[X]2 = Ψ′′(0) − [Ψ′(0)]2 = e0p − e0p2 = (1 − p)p .

3.6 Variabili aleatorie: Bernoulli e Binomiale

Eseguiamo un esperimento i cui possibili risultati possono essere successo o insuccesso. Se poniamo X = 1quando l’esito e un successo e X = 0 quando e un insuccesso, allora la densita di X e data da:

p(x) =

px(1 − p)1−x per x = 0, 1

0 altrove., (46)

dove p, 0 ≤ p ≤ 1, rappresenta la probabilita di successo. Una v.c. X e detta v.c. di Bernoulli se la suadensita discreta e data dalla (46), p ∈ (0, 1). La funzione di ripartizione:

F (x) = PX ≤ x =

per x < 0 ⇒ PX ≤ x = 0per 0 ≤ x < 1 ⇒ PX ≤ x = 1 − pper x ≥ 1 ⇒ PX ≤ x = 1

.

Il valore atteso di una bernoulliana sara:

E[X] =1∑

x=0

x · p(x) = 1 · p + 0(1 − p) = p ,

quindi:

E[X] = p . (47)

La varianza per una bernoulliana:

var(X) =1∑

x=0

(x − p)2fi

= (0 − p)2(1 − p) + (1 − p)2p

= p2(1 − p) + p(1 − p)2

= p(1 − p)[(1 − p) + p]

= p(1 − p) .

cioe:var(X) = p(1 − p) . (48)

Se ora volessimo eseguire n prove indipendenti, ognuna delle quali puo avere un successo con proba-bilita p o un insuccesso con probabilita 1 − p. Se X rappresenta il numero di successi che otteniamo nellen prove, allora X e una v.c. Binomiale di parametri (n, p). Quindi una v.c. di Bernoulli non e altro che unav.c. binomiale di parametri (1, p).

La densita discreta di una v.c. binomiale di parametri (n, p) e data da:

PX = i =

(n

i

)

pi(1 − p)n−i i = 0, 1, . . . , n

0 altrove

. (49)

24

Page 27: Statistica per l'impresa. Corso di Complementi di Matematica e

P Esempio 3.5 Consideriamo il seguente gioco. Scommettiamo su un numero tra 1 e 6. Lanciamo 3 dadiindipendenti: se il numero sul quale abbiamo scommesso compare i volte, con 1 ≤ i ≤ 3, vinciamo i euro;altrimenti perdiamo 1 euro. Ci domandiamo se il gioco e equo.Considerando X la vincita dello scommettitore:

PrX = −1 =

(3

0

)(1

6

)0(5

6

)3

=125

216

PrX = 1 =

(3

1

)(1

6

)1(5

6

)2

=75

216

PrX = 2 =

(3

2

)(1

6

)2(5

6

)1

=15

216

PrX = 3 =

(3

3

)(1

6

)3(5

6

)0

=1

216.

Sara quindi il valore atteso:

E[X] =−125 + 75 + 30 + 3

216= − 17

216.

In media il giocatore perdera 17 euro ogni 216 partite.

Proprieta 3 Il valore atteso della binomiale di parametro (n, p) e:

E[X] = np . (50)

Ricordando la (9), possiamo ottenere il risultato della (50):

E[Xk] =

n∑

i=1

ik(

n

i

)

pi(1 − p)n−i ,

utilizzando l’identita: ik(

n

i

)

= n ik−1

(n − 1

i − 1

)

,

E[Xk] = npn∑

i=1

ik−1

(n − 1

i − 1

)

pi−1(1 − p)n−i

= npn−1∑

j=0

(j + 1)k−1

(n − 1

j

)

pj(1 − p)n−1−j ponendo j = i − 1 ,

= np E[(Y + 1)k−1] .

Cioe, il valore atteso k–esimo per una v.c. binomiale e:

E[Xk] = np E[(Y + 1)k−1] . (51)

con Y v.c. binomiale di parametri n − 1 e p. Con k = 1 otteniamo la (50).Alternativamente, utilizzando la (39), otteniamo che la f.g.m. della binomiale e:

Ψ(α) = E[eαX ] =n∑

k=0

f(k)PX = k

=n∑

k=0

eαkPX = k =n∑

k=0

eαk ·[(

n

k

)

· pk · (1 − p)n−k

]

=n∑

k=0

(n

k

)

eαkpk(1 − p)n−k =n∑

k=0

(n

k

)

(eαp)k

︸ ︷︷ ︸

ak

(1 − p)n−k

︸ ︷︷ ︸

bn−k

v. binomio di newton (9) ,

= [eαp + (1 − p)]n

.

cioe:

Ψ(α) = E[eαX ] = (eαp + 1 − p)n

. (52)

25

Page 28: Statistica per l'impresa. Corso di Complementi di Matematica e

Cercando i momenti nell’origine, avremo che:

dΨ(α)

dα=

d E[eαX ]

dα= E

[deαX

]

= E[XeαX

],

quindi:

Ψ′(0) = E[X] ,

Ψ′′(0) = E[X2] ,

. . .

per qualsiasi α, il momento primo e dato da:

Ψ(α) = (eαp + 1 − p)n

Ψ′(α) = n (eαp + 1 − p)n−1

eαp .

per α = 0:

E[X] = Ψ′(0) = n(e0p + 1 − p

)n−1e0p = n · p . (53)

Ora, la varianza, per la v.c. binomiale considerando la (51) e ponengo k = 2, abbiamo che:

var(X) = E[X2] − (E[X])2

= np E[(Y + 1)k−1] − (np)2

= np[(n − 1)p + 1] − (np)2

= np(1 − p) .

quindi,

var(X) = np(1 − p) . (54)

La funzione di ripartizione di una v.c. binomiale sara:

PX ≤ i =

i∑

k=0

(n

k

)

pn(1 − p)n−k i = 0, 1, . . . , n . (55)

3.7 Variabile aleatoria di Poisson – o “degli eventi rari”

Supponiamo di osservare una successione di n prove indipendenti, ognuna delle quali puo risultareun successo con probabilita pari a p. Supponiamo che n sia grande e p e sufficientemente piccolo dacompensare n, ossia lim

n→∞np = λ > 0 un valore positivo finito. Il numero di successi osservati puo

essere bene approssimato da una v.c. di Poisson7 di parametro λ > 0:

X ∼ Bi(n, p) ≃ Poisson (λ) ,

p(x) = PX = x =

e−λλx

x!x = 0, 1, 2, . . .

0 altrove.

. (56)

7La Poissoniana porta il nome di Simeon–Denis Poisson in quanto questo la utilizzo nel 1837 (tre anni prima di morire) in unaricerca sulle statistiche giudiziarie, derivandola come distribuzione limite della distribuzione di Pascal ( P (x) = p(1 − p)x ) edella distribuzione binomiale. Secondo alcuni storici questa variabile casuale dovrebbe portare il nome di Ladislaus Bortkiewiczconsiderati gli studi fatti da questo nel 1898. Bortkiewicz pubblico uno studio sui decessi di soldati dell’esercito prussiano in seguitoa calcio di cavallo. Analizzando i verbali di 20 anni di 10 reggimenti constato che c’erano stati in totale 122 morti dovuti a queltipo di incidenti.

In realta la poissoniana come approssimazione della binomiale era gia stata introdotta nel 1718 da Abraham de Moivre in Doctrinedes chances.

26

Page 29: Statistica per l'impresa. Corso di Complementi di Matematica e

Dimostrazione Sia per ipotesi: limn→∞

np = λ ∈ (0,∞), allora:

limn→∞

P (X = k) = limn→∞

(n!

n!(n − k)!

)

pk(1 − p)n−k(

posto p =λ

n+ o(1/n)

)

= limn→∞

(n!

n!(n − k)!

)(λ

n

)k (

1 − λ

n+ o(1/n)

)n(

1 − λ

n+ o(1/n)

)−k

=λk

k!lim

n→∞

(n!

nk(n − k)!

)(

1 − λ

n+ o(1/n)

)n

︸ ︷︷ ︸

e−λ

(

1 − λ

n+ o(1/n)

)−k

︸ ︷︷ ︸

1

=λk

k!lim

n→∞

n(n − 1)(n − 2) . . . (n − k + 1)(n − k)!

nk(n − k)!︸ ︷︷ ︸

1

e−λ

=e−λλk

k!.

Sappiamo che λ = limn→∞

np, ed essendo il valore atteso di una v.c. binomiale µ = np e σ2 = np(1 − p),

per p piccolo ci aspettiamo, per la v.c. di Poisson, media e varianza uguali a λ:

Ψ(α) = E[eαX ] =

∞∑

k=0

eαkP (X = k)

=∞∑

k=0

eαk

(e−λλk

k!

)

= e−λ∞∑

k=0

eαk

(λk

k!

)

= e−λ∞∑

k=0

[(eαλ)k

k!

]

︸ ︷︷ ︸

eeαλ

= e−λeeαλ = e−λ+eαλ = eλ(eα−1) .

Sara dunque la media:

Ψ′(α) = λeαeλ(eα−1)

e ponendo α = 0:

Ψ′(0) = λe0eλ(e0−1) = λ .

Quindi, la media di una Poisson:

µ = λ . (57)

Derivando due volte otteniamo il momento secondo:

Ψ′′(α) = λeαeλ(eα−1) + (λeα)2eλ(eα−1) ,

Poniamo α = 0

Ψ′′(0) = E[X2] = λe0eλ(e0−1) + (λe0)2eλ(e0−1) ,

= λ + λ2 .

La varianza:var(X) = E[X2] − (E[X])2 = λ + λ2 − λ2 = λ ,

quindi:

var(X) = λ . (58)

P Esempio 3.6 Contiamo il numero di particelle α emesse da un grammo di materiale radioattivo in un se-condo. Sappiamo che in media vengono emesse 3.2 particelle α: calcolare la probabilita che vengano emesse menodi 2 particelle α.

PX ≤ 2 = e−3.2 + 3.2 e−3.2 +(3.2)2

2!e−3.2 ≃ 0.3799

27

Page 30: Statistica per l'impresa. Corso di Complementi di Matematica e

3.8 Variabile aleatoria geometrica

Supponiamo di osservare una successione di esperimenti indipendenti e identicamente distribuiti. Sup-poniamo che ciascun esperimento sia un successo con probabilita p. Sia X il numero di prove necessarieper ottenere il primo successo:

PX = n = (1 − p)n−1p n = 1, 2, . . . (59)

Condizione necessaria e sufficiente e che affinche X sia pari ad n, le prime n−1 prove devono essere uninsuccesso. Il valore atteso della v.c. geometrica, posto q = (1 − p):

E[X] =

∞∑

n=1

n · P (X = n) =

∞∑

n=1

nqn−1p

= p

∞∑

n=1

d

dqqn = p · d

dq·

∞∑

n=1

qn dove∞∑

n=1

qn =1

1 − q, per |q| < 1 ,

= pd

dq

(1

1 − q

)

=p

(1 − q)2

=1

p.

utilizzando la f.g.m. avremo invece:

E[eαX ] =∞∑

k=1

eαk(1 − p)k−1p

= p

∞∑

k=1

eα(k−1)eα(1 − p)k−1

= peα∞∑

j=0

eαj(1 − p)j posto j = k − 1

= peα∞∑

j=0

(eα(1 − p))j

︸ ︷︷ ︸

xj

utilizzando∞∑

j=0

xj =1

1 − x,

=eαp

1 − eα(1 − p).

Derivando in α = 0, otteniamo il precedente risultato, cioe, per una v.c. geometrica

E[X] =1

p. (60)

Per la varianza determiniamo dapprima E[X2]:

E[X2] =∞∑

n=1

n2qn−1p = p∞∑

n=1

d

dq(nqn)

= pd

dq

(∞∑

n=1

nqn

)

= pd

dq

(q

1 − qE[X]

)

= pd

dq

[q(1 − q)−2

]

= p

[1

p2+

2(1 − p)

p3

]

=2

p2− 1

p.

28

Page 31: Statistica per l'impresa. Corso di Complementi di Matematica e

essendo E[X] =1

p, la varianza sara:

E[X2] − (E[X])2 =2

p2− 1

p− 1

p2=

2 − p − 1

p2,

var(X) =1 − p

p2. (61)

Analogamente, ma con qualche calcolo in piu, deriviamo la f.g.m. al secondo ordine e otteniamo:

Ψ′′(α) = −(p2 − p

)e2α − p eα

(p3 − 3 p2 + 3 p − 1) e3α + (3 p2 − 6 p + 3) e2α + (3 p − 3) eα + 1,

Ψ′′(0) = E[X2] = − p2 − 2p

p3 − 3p2 + 3p − 1 + 3p2 − 6p + 3 + 3p − 3 + 1= −p(p − 2)

p3=

2 − p

p2,

var(X) = E[X2] − (E[X])2 =2 − p

p2− 1

p2=

1 − p

p2Q.E.D.

3.8.1 Perdita di memoria

La mancanza di memoria e un proprieta caratteristica di due variabili casuali: quella esponenziale equella geometrica. La mancanza di memoria esprime il fatto che una variabile di quei due tipi “nonricorda il passato” ma si comporta come se fosse “nuova”.

Per capire meglio, facciamo un esempio: lanciando un dado, la quantita aleatoria che descrive ilnumero di tentativi prima di ottenere un 6 e una quantita intera e segue la distribuzione geometrica.Supponiamo ora di aver gia fatto un po’ di lanci senza che sia uscito un 6: data l’indipendenza, nessunainformazione in piu e giunta sul dado dai lanci precedenti, quindi la nostra aspettazione non e cambiatariguardo all’evento futuro uscira un 6. In questo senso le distribuzioni con la mancanza di memoria“dimenticano” quello che e accaduto in passato.

Formalmente:

PX > t + s|X > t =P(X > s + t ∩ X > t

)

PX > t

=P(X > s + t

)

PX > t essendo X > s + t ⊂ X > t ,

=(1 − p)t+s

(1 − p)t

= (1 − p)s = PX > s .

Riassumendo:PX > t + s|X > t = PX > s . (62)

3.9 Binomiale negativa

La somma di variabili geometriche indipendenti e identicamente distribuite si distribuisce come unavariabile aleatoria binomiale negativa. Supponiamo di ripetere in maniera indipendente una prova, cheabbia probabilita p di risultare un successo, fintanto che non si totalizzano r successi. Denotiamo con Xil numero di prove necessarie per ottenerli:

PX = n =

(n − 1

r − 1

)

pr(1 − p)n−r n = r, r + 1, . . . . (63)

Media e varianza sono rispettivamente:

E[X] =r

p(64)

var(X) =r(1 − p)

p2. (65)

29

Page 32: Statistica per l'impresa. Corso di Complementi di Matematica e

3.10 Tabella Riassuntiva Densita Discrete

Densita discreta f.g.m. Ψ(α) Media Varianza

Binomiale (n, p)

n

x

!

px(1 − p)x (p eα + 1 − p)n np np(1 − p)

Poisson λ > 0e−λλx

x!eλ(eα

−1) λ λ

Geometrica (1 − p)n−1peαp

1 − eα(1 − p)

1

p

1 − p

p2

Binomiale negativa (r, p)

n − 1

r − 1

!

(1 − p)n−rp

»

eαp

1 − eα(1 − p)

–rr

p

r(1 − p)

p2

Tabella 5: Tabella Riassuntiva Densita Discrete.

30

Page 33: Statistica per l'impresa. Corso di Complementi di Matematica e

4 Variabili casuali continue

Abbiamo trattato precedentemente variabili casuali discrete, v.c. che assumono un numero finito oun’infinita numerabile di valori. Qui tratteremo v.c. il cui insieme dei valori e non numerabile.

Diremo che X e una v.c. continua se esiste una funzione non negativa (integrabile) f definita perogni numero reale x ∈ (−∞,∞), tale che per ogni sottoinsieme B di numeri reali:

PX ∈ B =

B

f(x) dx . (66)

La funzione f e chiamata funzione di densita della v.a. X . La (66) afferma che, la probabilita che X stia

−4 −2 0 2 4

0.0

0.1

0.2

0.3

0.4

x

Densità Normale µµ=0 σσ2=1

Figura 3: Grafico della distribuzione normale, N(µ = 0, σ2 = 1).

in B, e ottenibile integrando la densita nell’insieme B. Abbiamo inoltre che:

PX ∈ (−∞,∞) =

∫ ∞

−∞

f(x) dx = 1 . (67)

Se l’insieme B = [a, b], abbiamo che (v. Fig. 3):

Pa ≤ X ≤ b =

∫ b

a

f(x) dx . (68)

Se poi a = b:

PX = a =

∫ a

a

f(x) dx = 0 .

Inoltre la funzione di ripartizione (distribuzione):

PX < a = PX ≤ a = F (a) =

∫ a

−∞

f(x) dx . (69)

P Esempio 4.1 Il tempo, in ore, che un computer impiega per bloccarsi e una variabile aleatoria continua condensita data da:

f(x) =

λe−x/100 x ≥ 0,0 x < 0

Qual’e la probabilita che:

31

Page 34: Statistica per l'impresa. Corso di Complementi di Matematica e

a) il computer funzioni tra le 50 e le 150 ore prima di bloccarsi?

b) il computer funzioni per meno di 100 ore prima di bloccarsi?

c) visti i risultati, abbia un sistema operativo Microsoft?

(a) Dato che:

1 =

R

f(x) dx = λ

∫ ∞

0

e−x/100 dx ,

possiamo stimarci il parametro λ nel seguente modo

1 = −λ(100) e−x/100∣∣∣

100

0= 100λ ,

λ =1

100.

pertanto la probabilita che un computer funzioni tra le 50 e le 150 ore prima di bloccarsi e data da:

P50 < X < 150 =

∫ 150

50

1

100e−x/100 dx = −e−x/100

∣∣∣

150

50= e−1/2 − e−3/2 ≈ 0.384 ,

analogalmente (b):

PX < 150 =

∫ 100

0

1

100e−x/100 dx = −e−x/100

∣∣∣

100

0= 1 − e−1 ≈ 0.633 .

La risposta a (c) e 1, per partito preso.[Elaborazione personale da Ross (2002)].

La relazione tra la funzione di densita f e la funzione di distribuzione F e data da:

F (a) = PX ∈ (−∞, a) =

∫ a

−∞

f(x) dx , (70)

derivando ambo i membri dalla precedente, otteniamo:

d

daF (a) = f(a) . (71)

cioe, la densita e la derivata della funzione di distribuzione.

4.1 Valore atteso e varianza di una variabile aleatoria continua

Nel caso di v.a. discrete, abbiamo visto che il valore atteso era dato dalla (32); avendo ora v.a. continue,essendo l’integralela controparte nel continuo della sommatoria nel discreto, allora il valore atteso inquesto caso e dato da:

E[X] = µ =

∫ ∞

−∞

x · f(x) dx . (72)

P Esempio 4.2 Sia la densita di X :

f(x) =

1 se 0 ≤ x ≤ 1

0 altrimenti.

Determinare E[eX ].

Sia Y = eX . Determiniamo dapprima fY , la densita di Y . Per 1 ≤ x ≤ e si ha:

FY (x) = PY ≤ x= PeX ≤ x= PX ≤ log(x)

=

∫ log(x)

0

f(y) dy

= log(x) .

32

Page 35: Statistica per l'impresa. Corso di Complementi di Matematica e

Derivando Fy(x), otteniamo che la densita di Y e data da:

F ′Y (x) = fY (x) =

1

x1 ≤ x ≤ e .

pertanto:

E[eX ] = E[Y ] =

∫ ∞

−∞

xfY (x) dx

=

∫ ∞

−∞

x1

xdx

=

∫ e

1

1 dx

= e − 1 .

Il metodo utilizzato nell’es. 4.2 e sempre applicabile; in alternativa:

Proposizione 1 Se X e una v.a. continua con densita f(x), allora per ogni funzione g a valori reali:

E[g(X)] =

∫ +∞

−∞

g(x)f(x) dx . (73)

Riprendendo l’es. 4.2, con la proposizione 1:

E[eX ] =

∫ 1

0

ex dx dato che f(x) = 1, 0 < x < 1

= e − 1 .

Per la prop. 1, abbiamo che:

Corollario 1 Se a e b sono della costanti si ha:

E[aX + b] = aE[X] + b . (74)

La varianza di una v.a. continua e definita esattamente come per una v.a. discreta:

var(X) = E[(X − µ)2]

= E[X2] − (E[X])2 .

dove calcoliamo E[X2] come:

E[X2] =

∫ +∞

−∞

x2f(x) dx .

P Esempio 4.3 Data la v.c.:

f(x) =

2x se 0 ≤ x ≤ 1

0 altrimenti.

si calcoli media e varianza.

Il valore atteso e dato da:

E[X] =

∫ 1

0

x · 2xdx

=

∫ 1

0

2x2 dx

=2

3x3

∣∣∣∣

1

0

=2

3.

33

Page 36: Statistica per l'impresa. Corso di Complementi di Matematica e

Per la varianza, si calcoli dapprima E[X2]:

E[X2] =

∫ 1

0

x2 · 2xdx

=

∫ 1

0

2x3 dx

=1

2x4

∣∣∣∣

1

0

=1

2.

Quindi:

var(X) = E[X2] − (E[X])2 =1

2−(

2

3

)2

=1

18.

4.2 La funzione generatrice dei momenti

Definizione 12 Sia X una v.c. di tipo continuo con funzione di probabilita f(x) e supporto R. Se h e unnumero positivo tale che:

Ψ(α) = E[eαX ] =

∫ ∞

−∞

eαX f(x) . (75)

esiste ed e finito in −h < α < h, allora la funzione di t definita da:

Ψ(α) = E[eαX ] . (76)

e chiamata funzione generatrice dei momenti di X .

I momenti vengono calcolati analogamente al caso discreto:

∫d

dα[eαXf(x)] dx ,

valutando in α = 0:Ψ′(0) = E[X] , Ψ′′(0) = E[X2] .

4.3 Variabile aleatoria Uniforme

La piu semplice delle funzioni di distribuzione di probabilita di variabile continua e quella in cui siassegna lo stesso grado di fiducia a tutti i possibili valori di una variabile definita in un certo intervallo.Essa e detta distribuzione uniforme. Diciamo che X e una v.a. uniforme sull’intervallo (α, β) se la suadensita e data da:

f(x) =

1

β − αse α < x < β

0 altrimenti

. (77)

Si ha per ogni α < a < b < β:

Pa ≤ X ≤ b =

∫ b

a

f(x) dx = b − a .

Essendo F (x) =

∫ x

−∞

f(x) dx otteniamo la funzione di distribuzione della uniforme sull’intervallo

(α, β), (78).

F (x) =

0 x ≤ α

x − α

β − αα < x < β

1 x ≥ β

. (78)

La media per una distribuzione uniforme:

34

Page 37: Statistica per l'impresa. Corso di Complementi di Matematica e

Figura 4: Grafico della densita f di una uniforme (α, β).

E[X] =

∫ +∞

−∞

xf(x) dx

=

∫ β

α

x

β − αdx

=1

β − α

∫ β

α

xdx

=1

2

1

β − αx2

∣∣∣∣

β

α

=β2 − α2

2(β − α)

=β + α

2.

quindi:

E[X] =α + β

2. (79)

Figura 5: Grafico della distribuzione F di una uniforme (0, 1).

La varianza della uniforme la possiamo calcolare come:

E[X2] =

∫ β

α

x2

β − αdx

=x3

3(β − α)

∣∣∣∣

β

α

=β3 − α3

3(β − α)=

β2 + αβ + α2

3.

35

Page 38: Statistica per l'impresa. Corso di Complementi di Matematica e

per definizione:

var(X) = E[X2] − (E[X])2

=β2 + αβ + α2

3−(

β + α

2

)2

=(β − α)2

12.

quindi:

var(X) =(β − α)2

12. (80)

cioe la lunghezza dell’intervallo diviso 12.

4.4 Variabile aleatoria Normale

Diciamo che X e una v.a. normale di parametri µ, σ2 se la densita di X e data da:

f(x) =1√2πσ

exp

[

−1

2

(x − µ)2

σ2

]

−∞ < x < +∞ . (81)

Se X e una v.c. normale standardizzata, Z = (X − µ)/σ, assume parametri µ = 0, σ2 = 1, la funzione

−4 −2 0 2 4

0.0

0.1

0.2

0.3

0.4

x

Figura 6: Grafico della distribuzione normale standard, N(µ = 0, σ2 = 1).

di ripartizione (in questo caso chiamata Φ):

Φ(x) =1√2π

∫ x

−∞

e−y2/2 dy , (82)

si noti inoltre che:Φ(−x) = 1 − Φ(x) −∞ < x < ∞ ,

e, sempre per Z v.a. normale standard:

PZ ≤ −x = PZ > x −∞ < x < ∞ .

Cerchiamo il valore atteso della Normale:

E[X] =

∫ +∞

−∞

x · 1√2πσ

exp

[

−1

2

(x − µ)2

σ2

]

dx

36

Page 39: Statistica per l'impresa. Corso di Complementi di Matematica e

ponendo (x − µ) + µ ,

=

R

(x − µ) · 1√2πσ

e−12

(x−µ)2

σ2 dx + µ

R

1√2πσ

e−12

(x−µ)2

σ2 dx

ponendo y = (x − µ) :

=1√2πσ

∫ +∞

−∞

ye−12

y2

σ2 dy

︸ ︷︷ ︸

=0,per simmetria

∫ +∞

−∞

f(x) dx

︸ ︷︷ ︸

=1

= µ .

riassumendo, il valore atteso della normale:

E[X] = µ . (83)

La varianza della Normale di parametri µ, σ2 e:

var(X) = E[(X − µ)2]

=1√2πσ

∫ +∞

−∞

(x − µ)2e−12

(x−µ)2

σ2 dx

posto y = (x − µ)/σ con x = σ y + µ,d

dx= σ

d

dy

=σ√2π

∫ +∞

−∞

y2e−y2

2 σ dy

=σ2

√2π

−ye−

y2

2

∣∣∣∣

+∞

−∞︸ ︷︷ ︸

=0

+

∫ +∞

−∞

e−y2 dy

= σ2

∫ ∞

−∞

1√2πσ

e−y2/2 dy

︸ ︷︷ ︸

=1

= σ2 .

dove l’integrazione per parti8 e riportata in nota.

Utilizzando la f.g.m. in una Normale standard, X ∼ N(0, 1) con f(x) =1√2π

e−x2

2 :

ΨZ(α) = E[eαX ] =

∫ ∞

−∞

eαx 1√2π

e−x2

2 dx

=1√2π

∫ ∞

−∞

exp

(

αx − x2

2

)

dx

=1√2π

∫ ∞

−∞

exp

[

− (x2 − 2αx)

2

]

dx

=1√2π

∫ ∞

−∞

exp

[

− (x2 − 2αx + α2 − α2)

2

]

dx

=1√2π

∫ ∞

−∞

exp

[

− (x − α)2

2+

α2

2

]

dx

= eα2

2

∫ ∞

−∞

1√2π

e−(x−α)2

2 dx

︸ ︷︷ ︸

=1

= eα2

2 .

8Integrale per parti:Z

f ′(x) · g(x) dx = f(x) · g(x) −

Z

f(x) · g′(x) dx

37

Page 40: Statistica per l'impresa. Corso di Complementi di Matematica e

Pertanto la f.g.m. di una variabile normale standardizzata e:

ΨZ(α) = eα2

2 . (84)

Generalizziamo calcolando ora la f.g.m. di una v.a. normale arbitraria X = µ + σZ:

ΨX(α) = E[eαX ]

= E[

eα(µ+σZ)]

= E[eαµ+ασZ

]

= eαµ E[eασZ

]

= eαµΨZ(ασ)

= eαµe(ασ)2

2

= exp

[α2σ2

2+ αµ

]

.

Derivando, abbiamo:

Ψ′X(α) = (ασ2 + µ) exp

(α2σ2

2+ αµ

)

,

Ψ′′X(α) = (ασ2 + µ)2 exp

(α2σ2

2+ αµ

)

+ σ2 exp

(α2σ2

2+ αµ

)

.

dove media e il quadrato delle medie:

E[X] = Ψ′X(0) = µ ,

E[X2] = Ψ′′X(0) = µ2 + σ2 .

calcolando la varianza:

var(X) = E[X2] − (E[X])2 = µ2 + σ2 − µ2 = σ2 .

Quindi la varianza di una normale di parametri µ, σ2 e:

var(X) = σ2 . (85)

4.5 Teorema del Limite Centrale e Legge Forte dei Grandi Numeri

La somma di un grande numero di variabili aleatorie indipendenti si distribuisce approssimativamentesecondo una legge normale. Con tale teorema andiamo a giustificare il fatto che le frequenze empirichedi moltissimi dati reali osservati presentano una forma a campana.

Teorema 9 (del Limite Centrale) Sia X1, X2, . . . , Xn una successione di v.c. aleatorie i.i.d., ognuna dimedia µ e varianza σ2. Allora la distribuzione di:

∑ni=1 Xi − nµ

σ√

n,

tende ad una v.a. normale standard quando n → ∞. Cio significa che per −∞ < a < ∞ con n → ∞

P

∑ni=1 Xi − nµ

σ√

n≤ a

→ 1√2π

∫ a

−∞

e−x2/2 dx . (86)

La legge forte dei grandi numeri stabilisce che la media aritmetica di una successione di variabilialeatorie i.i.d. converge, con probabilita pari a 1, alla media della distribuzione comune.

Teorema 10 (Legge Forte dei Grandi Numeri) Sia X1, X2, . . . , Xn una successione di v.c. aleatorie i.i.d.,ognuna di media finita µ = E[Xi]. Allora per n → ∞, con probabilita 1,

∑ni=1 Xi

n→ µ . (87)

38

Page 41: Statistica per l'impresa. Corso di Complementi di Matematica e

Figura 7: Grafico della distribuzione normale standard, N(µ = 0, σ2 = 1) e relativi valori.

4.6 Variabile aleatoria esponenziale

Una v.a. si dice esponenziale se la sua densita, per qualche λ > 0:

f(x) =

λe−λx per x ≥ 0,

0 per x < 0.. (88)

La funzione di distribuzione F (x) per la v.a. esponenziale:

F (x) = PX ≤ x

=

∫ x

0

f(x) dx

=

∫ x

0

λe−λx dx

= λ

(

− 1

λ

)

e−λx

∣∣∣∣

x

0

= 1 − e−λx x ≥ 0 .

quindi:

F (x) = 1 − e−λx x ≥ 0 . (89)

La f.g.m. relativa all’esponenziale e:

ΨX(α) = E[eαX ] =

∫ ∞

0

eαXλe−λx dx

= λ

∫ ∞

0

eαx−λx dx

= λ

∫ ∞

0

e−x(λ−α) dx

= λ

∫ ∞

0

e−x

γ

︷ ︸︸ ︷

(λ − α) dx

= λ

∫ ∞

0

e−xγ dx

39

Page 42: Statistica per l'impresa. Corso di Complementi di Matematica e

γ

∫ ∞

0

γe−xγ dx

γ=

λ

λ − α

=(

1 − α

λ

)−1

.

Derivando, abbiamo:

Ψ′X(α) =

∂α

λ

λ − α=

λ

(λ − α)2=

λ

λ2 − λα + α2,

Ψ′′X(α) =

∂α

λ

(λ − α)2=

(λ − α)3.

dove media e il quadrato delle medie:

E[X] = Ψ′X(0) =

λ

λ2 − λα + α2=

1

λ,

E[X2] = Ψ′′X(0) =

(λ − α)3=

2

λ2.

calcolando la varianza:

var(X) = E[X2] − (E[X])2 =2

λ2− 1

λ2=

1

λ2.

Quindi la varianza di una esponenziale di parametro λ e:

var(X) =1

λ2. (90)

Una v.c. X e priva di memoria se:

PX > s + t|X > t = PX > s ∀s, t ≥ 0 .

La condizione precedente e equivalente a scrivere:

PX > s + t|X > tPX > t = PX > s ,

oppurePX > s + t = PX > sPX > t .

tale condizione e soddifatta per X esponenziale e−λ(s+t) = e−λse−λt. Le variabili aleatorie esponenzialisono prive di memoria.

4.7 Variabile aleatoria Gamma

Una v.a. ha distribuzione Gamma di parametri (α, γ), γ > 0, α > 0 se la sua densita e data da:

f(x) =

λe−λx(λx)α−1

Γ(α)x ≥ 0,

0 x < 0. (91)

dove la funzione Γ(α) e:

Γ(α) =

∫ ∞

0

e−yyα−1 dy .

Applicando l’integrazione per parti otteniamo la seguente proprieta valida per ogni α > 0,

Γ(α) = (α − 1)Γ(α − 1).

In particolar modo, per valori interi ottieniamo:

Γ(n) = (n − 1)! .

40

Page 43: Statistica per l'impresa. Corso di Complementi di Matematica e

e la (91) puo essere scritta come:

f(x) =

λe−λx(λx)n−1

(n − 1)!x ≥ 0,

0 x < 0. (92)

Il valore atteso della distribuzione gamma e:

E[X] =1

Γ(α)

∫ ∞

0

λxe−λx(λx)α−1 dx

=1

λΓ(α)

∫ ∞

0

λe−λx(λx)α dx

=Γ(α + 1)

λΓ(α)

∫ ∞

0

1

Γ(α + 1)λe−λx(λx)α dx

=Γ(α + 1)

λΓ(α)

λ.

Quindi la media e:

E[X] =α

λ. (93)

Calcolando E[X2], possiamo ricavare la varianza:

var(X) =α

λ2. (94)

L’esponenziale non e altro che una gamma di parametro α = 1.

41

Page 44: Statistica per l'impresa. Corso di Complementi di Matematica e

4.8 La variabile aleatoria Log–Normale

Una variabile casuale X ha distribuzione lognormale, con parametri µ e σ2, se log(X) ha distribuzionenormale con media µ e deviazione standard σ2. Equivalentemente:

X = eY

dove Y e distribuita normalmente con media µ e deviazione standard σ2. Si ricordi che il parametro µpuo essere un qualsiasi reale, mentre σ2 dev’essere positivo.

Con un cambiamento di variabile ricaviamo la funzione di densita lognormale con parametri µ, σ2,dato Z ∼ N(0, 1) e y = eZ :

FY (y) = P (ez ≤ y)

= P (z ≤ log(y))

d

dyFY (y) =

d

dy

∫ log y

−∞

1√2π

exp

(

−1

2x2

)

dx

=1√2π

exp

(−(log y)2

2

)1

y

cioe:

f(y) =1

y√

2πexp

[

−1

2(log y)2

]

.

Diamo per conoscenza l’indice di posizione media e di variabilita varianza:

µ = eµ+σ2/2 ,

σ2 = (eσ2 − 1) e2µ+σ2

.

4.9 Tabella Riassuntiva Densita Continue

Densita discretaexample f.g.m. Ψ(α) Media Varianza

Uniforme (α, β)

8

<

:

1

β − αα < x < β

0 altrove

eβt− eαt

t(β − α)

β + α

2

(β − α)2

12

Normale (µ, σ2)1

2πσexp

»

−1

2

(x − µ)2

σ2

eα2

2 µ σ2

Esponenziale, λ > 0 λe−λx λ

λ − α

1

λ

1

λ2

Gamma (γ, α)λ e−λx(λ x)α−1

Γ(α)

λ

λ − t

«αα

λ

α

λ2

Tabella 6: Tabella Riassuntiva Densita Continue.

42

Page 45: Statistica per l'impresa. Corso di Complementi di Matematica e

5 Processi stocastici

All’interno della teoria della probabilita un processo stocastico viene definito come una generalizzazionedell’idea di variabile casuale e puo euristicamente essere interpretato come una variabile casuale cheprende valori in spazi piu generali dei numeri reali (come ad esempio, R

n , o spazi funzionali).Nella maggior parte delle applicazioni il parametro9 e rappresentato dal tempo t.

Definizione 13 Per processo stocastico intendiamo una famiglia di variabili aleatorie ordinate secondo undato parametro.

Formalmente, un processo stocastico e una funzione aleatoria di due argomenti:

1. il parametro t ∈ T ⊂ [0,+∞)

2. ω ∈ Ω in uno spazio di probabilita10 (Ω,F , P )

Se T = N = 0, 1, 2, . . . , il processo e detto a parametro discreto. Se invece T e non numerabile, allorasiamo in presenza di un processo a parametro continuo.

Possiamo pensare a Xt come lo “stato” o la “posizione” del processo al tempo t. Lo spazio degli statie solitamente R, e il processo e detto a valori reali. Vi sono esempi in cui lo spazio corrisponde a N o adun suo sottoinsieme.Per ogni ω → Ω, avremo:

t → Xt(ω)

definita in T , possiamo identificarla come la traiettoria o realizzazione del processo.

X = X(ω, t); ω ∈ Ω, t ∈ T (95)

Supponiamo ad esempio di voler modellare matematicamente la dinamica di un punto che si muovesu di una retta con una legge probabilistica. Possiamo introdurre un processo stocastico come la collezio-ne delle variabili casuali Xt, t ∈ R, dove per ogni valore della variabile tempo t, Xt e semplicementeposizione (aleatoria) della particella al tempo t.Il processo stocastico X(ω, t) e quindi una relazione funzionale tra un dominio, dato dal prodottoΩ × T ed un codominio dato dalla retta reale R.

6 Processi Markoviani

Un’interessante tipologia di processi stocastici e rappresentata dai processi di Markov11, definiti comeprocessi nei quali: “il futuro, dato il presente, e indipendente dal passato”.

SiaΩ = x1, x2, . . . , xs,

e consideriamo un processo stocastico Xn, n = 0, 1, 2, . . . a valori in Ω. Supponiamo ora che

PXn+1 = xj | Xn = xi = PX1 = xj | X0 = xi = Pij (Omogeneita) (96)

9Nel caso delle serie storiche, questo parametro e il tempo, e l’utilizzo del processo stocastico deriva dall’esigenza di descrivereun fenomeno aleatorio in evoluzione nel tempo.

10Dove per spazio di probabilita intendiamo la terna (Ω,F , P ):

• Ω e un insieme non vuoto, a volte chiamato spazio campionario, ognuno dei cui membri si puo pensare come un potenzialerisultato di un esperimento casuale.

• F e una sigma–algebra di insiemi di Ω i cui elementi sono chiamati eventi.

• P e una misura della probabilita in F, cioe una misura tale per cui PΩ = 1.

Nel particolare, in matematica, una σ-algebra o tribu su di un insieme Ω, e una famiglia di sottoinsiemi di Ω che abbia delleproprieta di stabilita rispetto ad alcune operazioni insiemistiche, in particolare l’operazione di unione numerabile e di passaggioal complementare. La struttura di σ-algebra e particolarmente utile nelle teorie della misura e probabilita, ed e alla base di tutte lenozioni di misurabilita, sia di insiemi che di funzioni.

11 Andrej Andreevic Markov (padre) (in russo Andre Andreeviq Markov) (Rjazan’, 14 giugno 1856 – San Pietroburgo, 20

luglio 1922) e stato un matematico e statistico russo.E noto per i suoi contributi alla teoria dei numeri, all’analisi matematica, alcalcolo infinitesimale, alla teoria della probabilita e alla statistica.Ideo il processo stocastico senza memoria, detto appunto processo markoviano o catena di Markov o processo di Markov. Anchesuo figlio omonimo, Andrej Andreevic Markov (figlio) (1903-1979), fu un matematico di valore.

43

Page 46: Statistica per l'impresa. Corso di Complementi di Matematica e

Le probabilita Pij soddisfano:

Pij ≥ 0, i, j ≥ 0;s∑

j=1

Pij = 1, i = 0, 1, . . . .

Un processo Xn e detta catena di Markov omogenea se soddisfa (96) e se per ogni ωk ∈ Ω, k ∈1, 2, . . . , n + 1, soddisfa

PXn+1 = ωn+1 | Xn = ωn, Xn−1 = ωn−1, . . . , X1 = ω1, X0 = ω0 = PXn+1 = ωn+1 | Xn = ωn−1(97)

La (97) puo essere interpretata come la probabilita di transizione e che, la distribuzione condizionata diogni futuro stato Xn+1, dato dagli stati passati X0, X1, . . . , Xn−1 e il presente Xn, e indipendente daglistati passati e dipende esclusivamente dal presente.

Sia P la matrice quadrata delle probabilita di transizione (“one step”), allora possiamo scrivere:

P =

P00 P01 P02 · · ·P10 P11 P12 · · ·

...Pi0 Pi1 Pi2 · · ·

......

...

P Esempio 6.1 Supponiamo che il meteo si rilevi in pioggia o non pioggia e che la situazione meteorologicadi domani dipenda esclusivamente da quella odierna. Supponiamo anche che, se oggi piove, allora domani possapiovere con probabilita α; se invece oggi non piove, domani potrebbe piovere con probabilita β.

Il processo e nello stato 0 quando piove e 1 quando non piove, abbiamo quindi una catena di Markov a due staticon le probabilita di transizione riassunte nella seguente:

P =

(α 1 − αβ 1 − β

)

(Ross, 2006)

Figura 8: Grafo es.6.2.

P Esempio 6.2 Consideriamo la Fig. 8, la matrice P su questa costruita:

P =

0 1/2 0 1/21/3 0 1/3 1/30 1/2 0 1/2

1/3 1/3 1/3 0

Vogliamo calcolare la probabilita che, dopo il primo passo, ci troviamo nello stato 2; assumiamo che la distribuzioneiniziale sia uniforme sui vertici. Utilizzando la (24) e facile verificare che:

PX1 = 2 = PX1 = 2, X0 = 1 + PX1 = 2, X0 = 2 + PX1 = 2, X0 = 3 + PX1 = 2, X0 = 4 =

= PX1 = 2|X0 = 1PX0 = 1 + PX1 = 2|X0 = 2PX0 = 2++ PX1 = 2, X0 = 3PX0 = 3 + PX1 = 2, X0 = 4PX0 = 4 =

=1

2· 1

4+ 0 · 1

4+

1

2· 1

4+

1

3· 1

4=

1

3

44

Page 47: Statistica per l'impresa. Corso di Complementi di Matematica e

6.1 Equazione di Chapman – Kolmogorov

Abbiamo definito la probabilita di transizione di un singolo passo Pij . Per semplificare la notazioneidentifichiamo ωj con l’intero j (basta applicare l’ovvia funzione isomorfa). Vogliamo ora definire laprobabilita Pn

ij (con n numero di passi) che il processo passi dallo stato i allo stato j dopo n transizioni

intermedie (chiaramente sara P 1ij = Pij):

P(n)ij = PXn+k = j|Xk = i n ≥ 0, i, j ≥ 1 (98)

L’equazione di Kolmogorov – Chapman12 ci permette di calcolare la probabilita degli n–passi di transizio-ne:

P(n+m)ij =

s∑

k=1

P(n)ik P

(m)kj per tutti n, m ≥ 0, e i, j. (99)

La (99) e facilmente comprensibile: il prodotto P(n)ik P

(m)kj rappresenta la probabilita che partendo da i

il processo possa andare in j in n + m transizioni attraverso un percorso che passa per lo stato k all’n–esimo passo. Quindi, sommando tutti gli stati intermedi k si perviene alla probabilita che il processoarrivi in j dopo n + m transizioni.

Formalmente, facendo riferimento alle (18) e (19), abbiamo13:

P(k+m)ij = PXk+m = j|X0 = i

=

s∑

k=1

PP (A∩B|C)

︷ ︸︸ ︷

Xk+m = j,Xn = k|X0 = i

=s∑

k=1

PP (A|B∩C)

︷ ︸︸ ︷

Xn+m = j|Xn = k,X0 = iPP (B|C)

︷ ︸︸ ︷

Xn = k|X0 = i

=s∑

k=1

P(m)kj P

(n)ik

Ora, P(n) denoti la matrice delle probabilita di transizione P(n)ij ad n–passi, la (99) asserisce che:

P(n+m) = P(n) · P(m)

Data la precedente relazione P(n) = Pn, ossia la potenza ennesima della matrice P.

P Esempio 6.3 Riprendiamo l’esempio 6.1. Dati α = 0.7 e β = 0.4, calcoliamo la probabilita che piova perquattro giorni da oggi, considerando che oggi piove:

P(1) =

(0.7 0.30.4 0.6

)

quindi:

P(2) =

(0.7 0.30.4 0.6

)

·(

0.7 0.30.4 0.6

)

=

(0.61 0.390.52 0.48

)

P(4) =

(0.61 0.390.52 0.48

)

·(

0.61 0.390.52 0.48

)

=

(0.5749 0.42510.5668 0.4332

)

la probabilita cercata, P 400 = 0.5749.

12Sydney Chapman (29 Gennaio 1888 – 16 Giugno 1970) fu un matematico, geofisico e astronomo britannico. Dedico parte deipropri studi alle catene markoviane, pervenendo ai medesimi risultati di Kolmogorov indipendentemente dallo statistico russo.

13

P (A ∩ B|C) =P (A ∩ B ∩ C)

P (C)

45

Page 48: Statistica per l'impresa. Corso di Complementi di Matematica e

Le probabilita fino ad ora considerate sono condizionate: P(n)ij e la probabilita che lo stato al tempo n e

j, dato lo stato iniziale i al tempo 0. Se invece cerchiamo la distribuzione incondizionata dello stato altempo n, e necessario specificare la distribuzione di probabilita dello stato iniziale. Scriviamo dunque:

µi ≡ PX0 = i, i ≥ 0

s∑

i=1

µi = 1

Tutte le probabilita incondizionate possono essere calcolate condizionatamente allo stato iniziale:

PXn = j =

s∑

i=1

PXn = j|X0 = iPX0 = i

=

s∑

i=1

P(n)ij µi (100)

Riprendendo l’esempio 6.3, se µ0 = 0.4 e µ1 = 0.6, allora la probabilita (incondizionata) che pioveraquattro giorni:

PX4 = 0 = 0.4P(4)00 + 0.6P

(4)10

= 0.57

Se si dispongono delle probabilita iniziali:

µ = (µ1, µ2, . . . , µs)

le probabilita degli stati all’istante n si ottengono mediante il teorema della probabilita totale (24). Quin-di, la probabilita di trovarmi al tempo n nello stato j, condizionatamente alla probabilita dei punti dipartenza µ:

φ(m)j = P (Xm = j) =

s∑

i=1

PX1 = i · PXm = j|X1 = i = µ1P1,j + µ2P2,j + · · · + µsPs,j (101)

=s∑

i=1

µiPij (102)

in termini matriciali:

Φ(m) = (φ

(m)1 , φ

(m)2 , . . . , φ(m)

s ) = µ P (103)

P Esempio 6.4 Siano:

P =

0 1/2 0 1/21/3 0 1/3 1/30 1/2 0 1/2

1/3 1/3 1/3 0

µ =

(1

2, 0,

1

2, 0

)

Qual’e la PX1 = 3?

Φ(1) = µP =

(

0,1

2, 0,

1

2

)

,

quindi PX1 = 3 = φ(1)3 = 0.

6.1.1 Stato assorbente

Un insieme C di stati e detto chiuso quando non e possibile raggiungere stati esterni a C. Se l’insieme Ce composto da un unico stato, questo si chiama stato assorbente. Si veda la Fig. 9.

6.2 Classificazione degli stati

Siano i e j due stati. Lo stato j si dice accessibile dallo stato i (e scriveremo i → j) se il processo ha lapossibilita di andare da i a j (non necessariamente in un solo passo):

P(n)ij > 0

per qualche n ≥ 1. Cio implica che lo stato j e accessibile dallo stato i se e solo se, partendo da i, epossibile che il processo entri sempre in j.

46

Page 49: Statistica per l'impresa. Corso di Complementi di Matematica e

Figura 9: Catena di Markov con un insieme chiuso (B, C,D) ed uno stato assorbente E.

Definizione 14 (Regolarita) Una MC finita e detta regolare se esiste una potenza della matrice di transizioneP che contiene solo elementi strettamente positivi.

Cio significa che per qualche n e possibile andare da ogni stato ad ogni altro in esattamente n passi.Due stati i e j accessibili tra essi vengono detti comunicanti14, e possiamo scrivere (i → j e j → i):

i ↔ j.

La relazione di “comunicazione” tra due stati soddisfa le seguenti proprieta:

1. Se lo stato i comunica con lo stato j, allora lo stato j comunica con lo stato i.

2. Se lo stato i comunica con lo stato j, e lo stato j comunica con lo stato k, allora i comunica con k.

Due stati comunicanti vengono detti appartenenti alla medesima classe.Dato lo stato i, se esiste uno stato j per cui i → j ma j 9 i (ovvero da i raggiungo uno stato chenon comunica con esso) allora si dice che i e uno stato transitorio. Uno stato non–transitorio e dettoergodico. Notiamo che ogni catena di Markov finita ha almeno uno stato ergodico ma puo non averealcun stato transitorio. Uno stato assorbente (o di assorbimento) e quello dal quale il processo non puopiu ripartire e, evidentemente, se esso e k sara Pkk = 1. Banalmente si ha che uno stato assorbente eergodico. Diremo anche che uno stato ergodico e tutti gli stati che comunicano con esso costituisconoun insieme ergodico. Parimenti uno stato transitorio e tutti gli stati che con esso comunicano formanoun insieme transitorio. E da notare che uno stato di assorbimento costituisce un insieme ergodico conun solo elemento.

Definizione 15 (Ergodicita) Una catena di Markov e detta irriducibile se e possibile andare da ogni stato adogni altro (non necessariamente in un passo solo).

Notiamo subito che ogni MC regolare e ergodica ma non vale il viceversa: per esempio se

P =

(0 11 0

)

il processo e ergodico ma non regolare.

Una MC e detta irriducibile se vi e una sola classe, cioe se tutti gli stati comunicano tra di essi.

P Esempio 6.5 Una matrice non irriducibile denota classi distinte, come la seguente:

1/2 1/2 0 01/2 1/2 0 00 0 1/2 1/20 0 1/2 1/2

Definizione 16 (Periodicita) Uno stato i si dice avere periodo d(i) se

d(i) = MCDn : P(n)ii > 0 =

d = 1 aperiodicad 6= 1 periodica

(104)

Uno stato con periodo 1 e detto aperiodico. Se lo stato i ha periodo d e, i e j comunicano, allora anche j ha periodod(i). In altre parole: se una matrice e irriducibile, allora tutte le d(i) sono uguali.

Si noti che una catena finita e regolare se e solo se e irriducibile e aperiodica.

14Ogni stato comunica con se stesso, per definizione:

P(0)ii = PX0 = i|X0 = i = 1.

47

Page 50: Statistica per l'impresa. Corso di Complementi di Matematica e

6.3 Probabilita limite

Ci possiamo domandare se esiste una distribuzione iniziale per la quale valga la seguente uguaglianza:

π P = π (105)

cioe, supponendo che la relazione 105 sia valida:

π P100 = π P P99 = · · · = π

Se la matrice di transizione e irriducibile e aperiodica, allora (condizione sufficiente) esiste ed eunico π = π · P = π e:

limn→∞

Φ(n) = lim

n→∞µPn = π (106)

possiamo inoltre scrivere:

limn→∞

P(n)ij = πj (107)

Ma vediamo tali enunciati con maggior precisione. Riprendiamo l’esempio 6.3, abbiamo calcolato P4

per una MC a due stati. Calcolando allo stesso modo P8, otteniamo:(

0.572 0.4280.570 0.430

)

Notiamo che le matrici P4 ≃ P8, cioe sembrerebbe che P(n)ij converga ad un valore (n → ∞) che e lo

stesso per ogni i.lim

n→∞PXn = j j = 1, . . . , N

In altre parole, vi e una probabilita limite che il processo andra in uno stato j, dopo un alto numero ditransizioni, e tale valore e indipendente dallo stato iniziale. Tali condizioni sono date dal teorema 11.

Teorema 11 (Teorema di Markov) Sia P una matrice di transizione per una catena di Markov ergodica

regolare (cioe esiste un n tale che P(n)ij > 0, ∀i,∀j). Per n tendente all’infinito Pn tendera ad una matrice limite

con tutte le righe eguali ad uno stesso vettore di probabilita π strettamente positivo (chiamato anche vettorefisso). Cioe, esistono delle quantita πj tali che:

limn→∞

P(n)ij = πj ∀i = 1, 2, . . . , N

Definizione 17 Un vettore riga π per cui π = πP e detto vettore (riga) fisso per P.

Definizione 18 (Stazionarieta) Soddisfatto il teorema 11, la catena e definita stazionaria.

P Esempio 6.6 Data la seguente matrice:

1/2 0 1/21/2 0 1/21/2 1/2 0

si determinino periodicita, irriducibilita ed eventuale stazionarieta.La catena e regolare e irriducibile: tutti gli stati comunicano (C).

C C CC C CC C C

La catena e aperiodica: d(1) = MCDn : Pn11 > 0 = MCD1, . . . .

La catena e stazionaria per il vettore fisso π:

πP = π∑

πiPij = πj ∀j

π1P11 + π2P21 + π3P31 = π1

π1P12 + π2P22 + π3P32 = π2

π1P13 + π2P23 + π3P33 = π2

π1 + π2 + π3 = 1

48

Page 51: Statistica per l'impresa. Corso di Complementi di Matematica e

π112 + π2

12 + π3

12 = π1

π10 + π20 + π312 = π2

π112 + π2

12 + π30 = π2

π1 + π2 + π3 = 1

...

π3 = 13

π1 = 12

π2 = 16

π1 + π2 + π3 = 1

Identificato il vettore fisso, possiamo dire che la catena e stazionaria.

7 Random Walk

7.1 Cos’e una passeggiata casuale?

Una passeggiata casuale (chiamata dagli anglosassoni Random Walk – RW), non e altro che la formaliz-zazione matematica di una traiettoria formata da una successione di passi casuali.L’utilita delle RW trova conferma in diverse discipline come l’informatica, la fisica, l’ecologia e l’econo-mia.

Volendo esemplificare le passeggiate casuali sono la traiettoria disegnata da una molecola nell’attra-versare un liquido, il percorso compiuto da un animale da foraggio al pascolo, il prezzo di un titolo inborsa, ecc. . . .

7.2 Definizione analitica

Definizione 19 (Random Walk) Sia Xk∞k=1 una sequenza di variabili casuali discrete, indipendenti edidenticamente distribuite. Per ogni intero positivo n, consideriamo Sn come la somma delle v.c. X1+X2+· · ·+Xn.La sequenza Sn∞n=1 e chiamata random walk. Se il range comune tra le v.c. Xi e R

m, allora possiamo affermareche Sn e una RW in R

m, e assumiamo che S0 = 0, ossia l’origine.

Vi sono diversi modi di vedere una RW. Come accennavamo prima, possiamo immaginare una parti-cella in un liquido (o gas) posta all’origine in R

m al tempo n = 0. La somma Sn rappresenta la posizionedella particella al termine di n (secondi, minuti, ore,. . . – al tempo n). Cioe, nell’intervallo [n − 1, n],la particella si muove dalla posizione Sn−1 a Sn. Il vettore che rappresenta tale movimento, quindi, eSn − Sn−1, che e uguale a Xn. Cio significa che in una RW, il salto (da un punto ad un altro punto) eindipendente ed identicamente distribuito. Se m = 1, per esempio, possiamo immaginare una particellache parte dall’origine nell’asse dei reali e ad ogni tempo n salta di un’unita a destra o sinistra, con pro-babilita data dalla distribuzione delle v.c. Xk.

Ponendo m = 2, possiamo immaginare la camminata casuale all’interno di un piano, tipo una cittacome New York City (cioe a scacchiera). Un pedone (ubriaco) parte dall’incrocio di due strade e sceglieuna delle quattro possibili direzioni secondo la distribuzione delle v.c. Xk. Per m = 3 ci rapportiamoallo spazio tridimensionale; anche qui valgono le implicazioni sopra descritte.

Un ulteriore esempio di passeggiata casuale (utilizzato soprattutto nel campo R1) e un gioco, che

coinvolge due persone, e il quale consiste in una sequenza di movimenti indipendenti ed identicamen-te distribuiti (i.i.d.). La somma Sn rappresenta il punteggio della prima persona dopo n mosse, conl’assunzione che il punteggio della seconda persona sia −Sn. Ad esempio, due persone lanciano unamoneta in aria, associando +1 o −1 a testa e croce, si otterra la vincita o meno del primo giocatore.Riprenderemo in seguito tale esempio.

49

Page 52: Statistica per l'impresa. Corso di Complementi di Matematica e

0 2 4 6 8 10

−2

−1

01

2

Figura 10: Generazione di una passeggiata casuale con n = 20 mediante software R (R DevelopmentCore Team, 2008) – listato A.1.

0 1 2 3 4

0.0

0.5

1.0

1.5

2.0

Figura 11: Passeggiata casuale in 4 passi con ritorno al livello iniziale al quarto step.

50

Page 53: Statistica per l'impresa. Corso di Complementi di Matematica e

Si noti che l’evento che la particella si trovi all’origine dopo 2n passi e esattamente l’evento di averen successi ed n insuccessi. Quindi

P (S2n = 0) =

(2n

k

)

pk(1 − p)2n−k

=2n!

n!n!22n=

2n!

(n!)222n= utilizzando la (2)

=e2n(2n)2n

√2π2n

(e−nnn√

2πn)22n=

1√πn

(?)

P Esempio 7.1 Markov Chains & Random Walks.Una catena di Markov il cui spazio degli stati e dato da i = 0,±1,±2, . . . , non e altro che una RW se la probabilita0 < p < 1:

Pi,i+1 = p = 1 − Pi,i−1 i = 0,±1, . . .

La MC cosı descritta e una RW: pensiamo ad una linea retta sulla quale sono segnati gli stati i–esimi e che, ad ognitransizione, corrisponda una probabilita p di muoversi verso destra i + 1 e 1 − p muovendosi verso sinistra i − 1.

8 Processo Browniano – anche detto processo di Wiener

Cos’e un moto Browniano?

Potremmo rispondere a questa domanda partendo dalla storia: il tutto nasce con lo studio in cam-po fisico di come delle piccole particelle solide, come le particelle di fumo o delle minuscole particelledel polline, si muovono quando vengono bombardate dalle molecole circostanti. Tale movimento fuosservato per la prima volta nel 1827 dal botanico scozzese Robert Brown15. Egli evidenzio delle piccolemolecole di polline sospese in acqua. In una piu attenta osservazione egli noto che le particelle sembra-vano essere scosse da “qualcosa” ad alta velocita. La spiegazione data da Brown fu che tali movimentierano il risultato della collisione tra le molecole d’acqua e le particelle di polline, che davano originecosı a quei movimenti sconnessi. Albert Einstein16 pose la sua attenzione sulla natura dei movimenti el’importante risultato di questo lavoro fu il calcolo del numero di molecole in un volume standard digas. Tale valore era sconosciuto sino a quel momento.

Non ci proponiamo di esporre dei metodi per la costruzione di un processo di Wiener (o moto Brow-niano). In realta ve ne sono diversi: il primo, e una variante (un po’ piu semplice) di un metodo dovutoa Paul Levy17. Il secondo e la traduzione in termini espliciti di un procedimento accennato da GiovanniDa Prato18 in un Quaderno della Scuola Normale Superiore. Infine un terzo metodo, fondato sul criteriodi holderianita di Kolmogorov, consiste nel passare attraverso la costruzione di un processo ausiliario,avente come insieme dei tempi l’insieme dei numeri diadici.

Molto piu semplicemente, daremo esclusivamente la definizione di moto Browniano.

15Robert Brown (Montrose, 21 dicembre 1773 – Londra, 10 giugno 1858) e stato un botanico britannico. Agli inizi del XIX secoloesploro l’Australia ed al termine di quel viaggio pubblico (1810) l’opera Prodromus Floræ Novæ Hollandie et Insule Van Diemen, incui cataloga e descrive oltre 4000 specie vegetali da lui scoperte.

16Albert Einstein (Ulma, 14 marzo 1879 – Princeton, 18 aprile 1955) e stato un fisico tedesco naturalizzato svizzero, e in seguitostatunitense. La grandezza di Einstein e stata nell’aver mutato per sempre, a soli 26 anni, il modello istituzionale di interpretazionedel mondo fisico: nel 1905, l’anno ricordato come annus mirabilis, Einstein pubblica tre articoli a contenuto fortemente innovativo,riguardanti tre aree differenti della fisica:

• introduce il concetto corpuscolare di quanto di luce;

• fornisce una valutazione quantitativa e l’ipotesi di aleatorieta del moto Browniano;

• espone la teoria della relativita ristretta, che precede di qualche tempo quella della relativita generale.

Nel 1921 ricevette il Premio Nobel per la Fisica.17Paul Pierre Levy (Parigi, 15 settembre 1886 – Parigi, 15 dicembre 1971) e stato un matematico e statistico francese, noto soprat-

tutto per i suoi contributi alla teoria della probabilita, di cui fu uno dei massimi esponenti del XX secolo insieme a Gyorgy Polya eAndrey Kolmogorov.

Appartenente ad una famiglia di accademici, Levy frequento l’Ecole Polytechnique avendo tra i suoi insegnanti Emile Picard, HenriPoincare e Jacques Hadamard, e pubblicando il suo primo lavoro all’eta di 19 anni, prima ancora di laurearsi.(?)

18Professore ordinario di Analisi Matematica alla Scuola Normale Superiore di Pisa dal 1979. Laureato in Fisica all’Universita di

Roma. E stato professore alle Universita di Roma e di Trento. Giuseppe Da Prato svolge attualmente la sua attivita scientifica nelcampo delle equazioni di Kolmogorov e delle equazioni differenziali stocastiche alle derivate parziali (esistenza, unicita, misureinvarianti, ergodicita), con applicazioni alla teoria del controllo ottimale.

51

Page 54: Statistica per l'impresa. Corso di Complementi di Matematica e

8.1 Teorema del processo di Wiener

Definizione 20 (Processo di Wiener reale) Un processo stocastico (Wt), t ≥ 0 definito su uno spazio diprobabilita (Ω,F , P) e a valori in R, si dice processo di Wiener o moto Browiano, se verifica le seguenti proprieta:

• W0 = 0;

• per ogni scelta di 0 = t0 < t1 < t2 < · · · < tn, n ∈ N, gli incrementi Wt1 − Wt0 , Wt2 − Wt1 , . . . ,Wtn−

Wtn−1 sono indipendenti (si dice anche che il processo (Wt) e a incrementi indipendenti);

• la variabile aleatoria Wt − Ws , per ogni 0 ≤ s ≤ t, ha legge normale N(0, t − s) ;

• Wt ha traiettorie continue.

9 Birth–Death Process

Immaginiamo di essere al casino e di avere a disposizione x euro in un dato istante i. Supponiamo discommettere 1 euro, ad ogni istante, cambiando magari gioco nel tempo. Nel caso di vincita incremen-teremo il nostro patrimonio di euro, che invece verra tolto nel caso di perdita. Le probabilita di vincerecambiano a seconda del nostro patrimonio (potremmo decidere di cambiare gioco a seconda dei soldiche abbiamo).

Possiamo riassumere queste situazioni con un processo di “Nascita-Morte”.

I processi cosiddetti “Nascita-Morte” (Birth-Death Process – BD), sono legati ai processi di Markov. Sidefinisca una successione di probabilita pi e qi = 1 − pi. Le transizioni del BD avvengono tra vicinii → i ± 1, e la probabilita di passare da i a i + 1 e uguale a pi. La probabilita di passare da i a i − 1 euguale a qi.

Figura 12: Grafico di un BD process.

Quando avviene una “nascita”, il processo si sposta dallo stato i allo stato i + 1; mentre quando sievidenzia una “morte”, il processo si sposta da uno stato i ad uno stato i−1. Il processo viene specificatoda un tasso di nascite pii=0...∞ e da un tasso di decessi qii=1...∞ (v. Fig. 12).

Tale modello ha chiaramente diverse applicazioni nell’ambito demografico, nella teoria delle codeoppure in biologia (studio dell’evoluzione dei batteri) (Novozhilov e altri, 2005).

10 Studio di un processo BD

Riprendiamo il nostro esempio del casino . Possiamo vedere il gioco schematizzato come in Fig. 14.Vogliamo nello specifico considerare una RW discreta, con probabilita di spostamento pr (probabilita

al passo r–esimo) per un passo “in avanti” r → r + 1 e qr = 1− pr per un passo “all’indietro” r → r − 1.Consideriamo le seguenti condizioni:

Condizione A :0 ≤ pr ≤ 1 r = 1, 2, . . .

Condizione B( ω) : c’e un intero ω > 1 tale che:

0 ≤ pr ≤ 1 r = 1, 2, . . . , ω − 1; pω = 0

52

Page 55: Statistica per l'impresa. Corso di Complementi di Matematica e

Possiamo dare le seguenti definizioni:

L1 = 1, Lr =r−1∏

j=1

(qj

pj

)

, r > 1; (108)

z0 = 0, zr =r∑

j=1

Lj , r > 0; (109)

Z =∞∑

j=1

Lj ≤ ∞ (condizione A). (110)

Teorema 12 Si supponga di considerare la condizione A e sia lo stato iniziale k > 0. La probabilita che lostato della BD non arrivi mai a 0 e zk/Z.

Se Z = ∞, si assume che zk/Z = 0.

Teorema 13 Si supponga di considerare la condizione B e sia lo stato iniziale k, 0 < k ≤ ω. La probabilitache lo stato della BD raggiunga ω prima di 0 e zk/zω.

Da quest’ultimo teorema otteniamo dunque:

PBD raggiunga ω prima di 0 =zk

zω=

k∑

j=1

Lj

ω∑

i=1

Li

=

k∑

j=1

k−1∏

j=1

(qj

pj

)

ω∑

i=1

ω−1∏

i=1

(qi

pi

) (111)

Figura 13: Grafico: la probabilita di raggiungere con un moto Browniano il punto A prima di B e pari aOB/AB.

Per dimostrare la precedente formula immergiamo il nostro gioco discreto in un moto Browniano. Se-gnamo i punti 0 = z0, z1, z2, . . . su una linea e supponiamo di generare il moto suddetto (Wiener process)tra le rette riportate (v. Fig. 15). Ogni movimento effettuato dalla particella del moto Browniano vieneregistrato con un’etichetta all’elemento zr visitato. In tal senso, i passi che riportano le etichette delle zr

danno luogo ad una BD.

Assumendo come noto che la particella del moto Browniano, inizialmente nel punto O (in Fig. 13,O ≡ x) compreso tra i punti A (in Fig. 13, A ≡ x − a) e B (in Fig. 13 B ≡ x + b), ha probabilita di

53

Page 56: Statistica per l'impresa. Corso di Complementi di Matematica e

raggiungere il punto A prima del punto B pari a OB/AB; alternativamente, considerando il punto Ocome variabile avremmo che:

Praggiungere A prima di B =b

a + b(112)

(Harris, 1952)Vogliamo quindi provare che, la BD cosı generata dal moto Browniano tra le zr, ha le medesime proba-bilita di transizione pr e qr della BD originaria.

Figura 14: Rappresentazione grafica di una RW monodimensionale – processo BD.

0.0 0.2 0.4 0.6 0.8 1.0

010

2030

4050

60

N

Z

Figura 15: Generiamo un processo Browniano con l’ausilio del listato A.2 (ulteriore strumento utilizzabilee il comando BM contenuto nel pacchetto sde di R (R Development Core Team, 2008) ).

P Esempio 10.1 Supponiamo che il moto Browniano abbia raggiunto z3. Qual’e la probabilita che raggiunga

54

Page 57: Statistica per l'impresa. Corso di Complementi di Matematica e

z4 prima di z2? Utilizzando la (111) otteniamo

Praggiunga z4 prima di z2 =z3 − z2

z4 − z2=

3∑

r=1

Lr −2∑

r=1

Lr

4∑

s=1

Ls −2∑

s=1

Ls

=

3∑

r=1

2∏

r=1

(qr

pr

)

−2∑

r=1

1∏

r=1

(qr

pr

)

4∑

s=1

3∏

s=1

(qs

ps

)

−2∑

s=1

1∏

s=1

(qs

ps

)

=

(

1 +q1

p1

)

+

(q1

p1· q2

p2

)

−(

1 +q1

p1

)

(

1 +q1

p1

)

+

(q1

p1· q2

p2

)

+

(q1

p1· q2

p2· q3

p3

)

−(

1 +q1

p1

)

=

q1

p1· q2

p2q1

p1· q2

p2+

q1

p1· q2

p2· q3

p3

=1

1 +q3

p3

=p3

p3 + q3︸ ︷︷ ︸

1

= p3

Questo e valido per ogni zi (nulla di speciale in z3). Quindi abbiamo trovato un modo per immergere la BD nelmoto Browniano Q.E.D.

Usando l’esempio 10.1 diamo una dimostrazione ‘empirica’ del teorema 13.

Seconsideriamo Z < ∞, le passeggiate da k che raggiungono lo 0 corrispondono alle traiettorieBrowniane da zk verso 0 e, prima di raggiungere Z, la probabilita di questo diventa 1 − zk/Z.

55

Page 58: Statistica per l'impresa. Corso di Complementi di Matematica e

A Listati codici di programmazione in R

Sono riportati di seguito i listati dei codici di programmazione in R, 2.5.119 per Mac OS X con Aqua GUI1.20 (R Development Core Team, 2008).

A.1 Generatore di una passeggiata pseudo–casuale

Andiamo a generare la camminata casuale di un “ubriaco” 20.

graphics.off()

rm(list=ls())

n <- 10

# Generatore dei passi pseudo-casuali

x <- round(runif(n,1,2))

v_rw <- (x==1)*-1+(x==2)*1

p <- matrix(1:n,n,2)

p[1,2] <-v_rw[1]

for(i in 2:n) p[i,2] <- p[i-1,2]+v_rw[i]

# Disegno bidimensionale

quartz()

#pdf("rw_unif.pdf")

par(bty="l")

plot(p[,1],p[,2],xlim=c(-.3,n),ylim=c(-n,n),ylab="",xlab="",type="l")

points(0,0)

lines(c(0,1),c(0,p[1,2]))

points(p[,1],p[,2])

# Assi cartesiani

abline(h=0,v=0,col=8)

#dev.off()

A.2 Generatore di una passeggiata casuale

Andiamo a generare un moto browniano in R. Dapprima generiamo n v.c. bernoulliane xi, con n ∈ N:

xi ∼ Bernoulli

(

p =1

2

)

i = 1, 2, . . . , n.

Definiamo l’oggetto yi come:yi = 2xi − 1 i = 1, 2, . . . , n

in modo tale che:

yi =

1 se xi = 1

−1 se xi = 0.

L’“altezza” dei passi sara quindi descritti dalla seguente:

Zi =

n∑

i=1

yi i = 1, 2, . . . , n.

La rappresentazione grafica mette in relazione il passo i–esimo con l’oggetto Zi (v. Fig. 14).

graphics.off()

rm(list=ls())

# Numerosita delle xi

n <- 1000

# intervallo

N <- seq(0,1,1/n)

N <- N[1:n]

19www.r-project.org/20O meglio, pseudo casuale perche la generazione dei numeri avviene mediante generatore congruenziale di numeri pseudo–

casuali in R.

56

Page 59: Statistica per l'impresa. Corso di Complementi di Matematica e

# generazione di v.c.bernoulliane pseudo-aleatorie

X <- rbinom(n,1,.5)

# creazione dei passi

Y <- c()

for(i in 1:n) Y[i] <- 2*X[i]-1

Z <- c()

Z[1] <- 0

for(j in 2:n) Z[j] <- sum(Y[1:j])

# Disegno bidimensionale

quartz()

#pdf("rw_brown.pdf")

par(bty="l")

plot(N,Z,type=’l’)

# Assi cartesiani

abline(h=0,v=0,col=8)

#dev.off()

57

Page 60: Statistica per l'impresa. Corso di Complementi di Matematica e

Riferimenti bibliografici

Dagum E. B. (2002). Analisi delle serie storiche, Modellistica, previsione e scomposizione. Springer.

Harris T. (1952). First passage and recurrence distribution. Transactions of the America MathematicalSociety, 73(3), 471–486.

Novozhilov A. S.; Karev G. P.; Koonin E. V. (2005). Biological applications of the theory of birth anddeath processes. Briefings in Bioinformatics, 7(1), 70–85.

Parpinel F.; Provasi C. (2003). Elementi di probabilita e statistica per le scienze economiche. G.Giappichelli.

R Development Core Team (2008). R: A Language and Environment for Statistical Computing. R Foundationfor Statistical Computing, Vienna, Austria. ISBN 3-900051-07-0.

Ross S. M. (2002). Calcolo delle probabilita. APOGEO.

Ross S. M. (2006). Introduction to Probability Models. Academic Press, eight edizione.

Siti web consultati

AA.VV. (2008). The R project for statistical computing. http://www.r-project.org.

Sloane N. (2008). Oeis. http://www.research.att.com/˜njas/sequences.

Elaborato scritto in LATEX.

58