460 likes | 789 Views
VARIABILI ALEATORIE. Sono presentate di seguito le nozioni di: Variabile casuale (o aleatoria) (o numero aleatorio) Funzione di probabilità Funzione di ripartizione Variabili aleatorie discrete Variabili aleatorie discrete doppie: funzione di probabilità congiunta
E N D
VARIABILI ALEATORIE • Sono presentate di seguito le nozioni di: • Variabile casuale (o aleatoria) (o numero aleatorio) • Funzione di probabilità • Funzione di ripartizione • Variabili aleatorie discrete • Variabili aleatorie discrete doppie: • funzione di probabilità congiunta • funzioni di probabilità marginale • funzioni di probabilità condizionale • Variabili aleatorie continue: • funzione di densità di probabilità • Valori di sintesi di una variabile aleatoria (o valori caratteristici) • Esempi ed esercizi
VARIABILI ALEATORIE (O CASUALI) (O NUMERI ALEATORI) • Con riferimento agli esiti del lancio di due dadi da gioco, si considerino le seguenti funzioni: • x = punteggio realizzabile con il primo dado: x= 1, 2, …, 6; • z = punteggio realizzabile con il secondo dado: z = 1, 2, …, 6; • s = punteggio somma: s := x + z; s = 2, 3, …, 12; • d = differenza tra i punteggi dei due dadi in valore assoluto: d :=|x - z|; d = 0, 1, 2, ..., 5. • Nella tabella seguente sono riportate all’interno delle celle i valori di probabilità per ciascuna coppia di valori (s,d) possibili riguardanti le due variabili (o numeri) aleatorie s e d riportati rispettivamente nella prima riga e prima colonna • Di seguito: • X (maiuscolo) per indicare la funzione (numero) aleatoria; • x (minuscolo) una generica determinazione delle possibili: x = 1, 2, …, 6; • …... • D (maiuscolo) per indicare la funzione (numero) aleatoria; • d (minuscolo) una generica determinazione delle possibili: d = 0.1, …, 5.
RAPPRESENTAZIONE GEOMETRICA DELLE FUNZIONI DI PROBABILITÀ MARGINALI • Funzioni di probabilità.
RAPPRESENTAZIONE GEOMETRICA DELLA FUNZIONE DI PROBABILITA’ • D := |X - Z |. • (1) p(di) 0, i = 1,2,…,N; • (2) p(di) = 1. p(di) = P(D = di), i=1,2,…,N. p(1)=10/36 p(0) = 6/36 p(5) = 2/36 (5, p(5)) 0 1 2 3 4 5 di
FUNZIONE DI RIPARTIZIONE • Siano: • X = funzione reale di , con ; X: ; • B = intervallo: B ; • X-1(B) = contro immagine di B; X-1(B) := {: X() B}; • Probabilità dell’intervallo B (B ) • P(B) := P[X-1(B)] = P[{: X() B}]. • Intervalli di interesse: • B = (-, x], x ; • Funzione di ripartizione: • F(x) := P(X x) = P{X-1((-, x])}, x ;
RAPPRESENTAZIONE DELLA FUNZIONE DI RIPARTIZIONE • F(d) = P(D d), d. 1 34/36 ° 30/36 ° 24/36 ° 16/36 ° 6/36 ° d 0 1 2 3 4 5
FUNZIONE DI RIPARTIZIONE: PROPRIETA’ • La funzione di ripartizione F(x) di una variabile aleatoria X soddisfa le seguenti proprietà: • (i) F(x+) F(x), 0; (F(x) è monotona non decrescente) • (ii) F(x+) = F(x), 0; (F(x) è continua da destra) • (iii) F(x) = 0; • (iv) F(x) = 1. ;
VARIABILI ALEATORIE DISCRETE • Chiameremo variabili aleatorie (v.a.) discrete le v.a. che possono assumere con probabilità non nulla un numero finito o una infinita numerabile di determinazioni. • Esempi. • X = numero dei successi in n prove (n 1); x = 1,2,…,n; • Y = numero d’ordine dell’uscita per la prima volta della faccia “sei” nel lancio successivo di un dado da gioco; y = 1,2,…, • Z = voto conseguibile nell’esame di “statistica” nel caso di superamento dell’esame; z = 18, 19,…,30; • W = punti percentuali arrotondati al decimale della variazione giornaliera del prezzo (quotazione) di un titolo azionario; w = …, -0.3, -0.2, -0.1, 0, 0.1, 0.2, 0.3, … ; • X1 = altezza del primo studente cafoscarino incontrato al mattino di oggi nella fondamenta di S. Giobbe, arrotondata al centimetro. • Nel caso di variabili discrete risulta: • F(x) = p(xi); x .
SUL RITARDO DI UN NUMERO NEL GIOCO DEL LOTTO. • Si supponga che il 13 sia in ritardo di ben x = 52 “giornate” (giornate nelle quali avvengono le estrazioni; di seguito semplicemente “estrazioni”) sulla ruota di Venezia. • Ci si chiede di valutare la probabilità che venga estratto entro le prossime z = 10 successive estrazioni, sempre della ruota di Venezia. • Sia X il numero aleatorio “estrazione” nella quale appare per la prima volta il 13, x =1,2,… . • Sia la probabilità che venga estratto il 13 in una estrazione, si ha: • = = 5/90. • Si ottiene: • (1) P(X = x) = (1-)x-1, x = 1,2,… . • Si dimostra che la valutazione di probabilità (1) è coerente con un processo di successive estrazioni con assenza di memoria, risultando: • P(X > x+z | X x) = P(X > z), x =1,2..., z=1,2,… . • Segue anche: • P(X x+z | X x) = P(X z), x =1,2..., z=1,2,… . • Infatti, risulta: • P(X > x+z | X x) = P(X > x+z)/P(X x) = (1-)y-1 / (1-)y-1 = • = (1-)x+z / (1-)x = (1-)z = (1-)y-1 = P(X > z).
SOMMA DI UNA SUCCESSIONE FINITA DI n (n>1) ADDENDI IN PROGRESSIONE GEOMETRICA • Si osservi che si ha: • S = 1 + q + q2 + q3 + … + qn-1 = (1-qn)/(1-q). • Infatti seguono: • qS = q + q2 + q3 + … + qn-1 +qn = S -1 + qn . • Dalla: • qS = S -1 + qn , • segue: • S = (1-qn)/(1-q). (c.v.d.) • Dati: b1, b2, b3,…, bn , se risulta: bi/bi-1 = q, i = 2,3,…,n, si avrà quindi: • S = b1 + b2 + b3 +…+ bn = b1(1 + q + q2 + q3 + … + qn-1) = b1 (1-qn)/(1-q).
VARIABILI ALEATORIE CONTINUE:FUNZIONE DI DENSITA’ DI PROBABILITA’ • Funzione di densità di probabilità. • Considerato l’intervallo B = {x: x1 x x2}, se esiste una funzione non negativa f(y), y B, integrabile (secondo Riemann) in B, per la quale risulta: • () F(x) = F(x1) + f(y)dy ; x: x1 x x2. • f(y) è chiamata funzione di densità di probabilità della variabile aleatoria nell’intervallo B = {x: x1 x x2}. • La funzione di ripartizione (f.r.) F(x) è, per la (), assolutamente continua nell’intervallo B = {x: x1 x x2}. • La variabile aleatoria X, in questo caso, viene detta continua nell’intervallo B = {x: x1 x x2}. • Naturalmente B può essere un qualsiasi intervallo di o coincidere con .
VARIABILI ALEATORIE CONTINUE:FUNZIONE DI DENSITA’ DI PROBABILITA’ • Se la v.a. X è continua in , allora si avranno: • (1)F(x) = f(y)dy ; x ; • (2)P{(x1< X x2]} = F(x2) - F(x1) =f(y)dy ; x1 x2; • (3) f(y)dy = 1.
VARIABILE ALEATORIA UNIFORME CON SUPPORTO L’INTERVALLO [0, 2] • Sia dato il cerchio di raggio unitario. Si considerino i settori circolari definibili a partire dall’origine OA, quale ad esempio il settore circolare AOB con arco di lunghezza x (0 x 2). Una lancetta imperniata nel centro della circonferenza, fatta girare, si potrà fermare in un punto aleatorio lungo la circonferenza definente un arco di lunghezza X dall’origine OA che può risultare interno oppure esterno all’arco del settore AOP. • La probabilità che si abbia (0 X x) è valutata pari al rapporto tra la lunghezza x dell’arco AB e la circonferenza 2 del cerchio di raggio unitario. • Pertanto, avendo posto: • P (0 X x) = x/2, 0 x 2 ; • Si avrà: • 0, per x 0; • F(x) = x/(2), per 0 x 2 ; • 1, per 2 x. • In questo caso posto: • f(x) = 1/(2), per x: 0 x 2 e zero altrove, • si ha: • F(x) = f(y)dy = f(y)dy = x/(2), x: 0 x 2.
V.A. ESPONENZIALE • La v.a non negativa con la seguente funzione di ripartizione: • F(x) = 1 - exp(-x); per x 0; • è denominata v.a con funzione di distribuzione Esponenziale. • Si osservi che ponendo: • f(x) = exp(-x); per x 0 e zero altrove, • si ha: • F(x) = f(y)dy , x 0. • Si osservi che vale la seguente proprietà di assenza di memoria: • P(X > x+z | X x) = P(X > z),x 0, z 0. • Segue anche: • P(X x+z | X x) = P(X z),x 0, z 0. • Infatti risulta: • P(X > x+z | X x) = P(X > x+z )/P(X x) = exp[-(x+z)]/exp(-x) = • = exp(-z) = P(X > z) , x 0, z 0. • Segue anche: • P(X x+z | X x) = 1- P(X > x+z | X x) = 1- P(X > z) • = P(X z), x 0, z 0.
MEDIA DI UNA V.A.(O PREVISIONE, O VALORE ATTESO) • Data la v.a. X con f.r. F(x), chiameremo media (o valore medio, o previsione) della v.a. X, che indicheremo con EF(X), o più brevemente E(X), il seguente valore: • (1) EF(X) := xdF(x). • Nelle specificazioni: • se la variabile è discreta: • E(X) = xip(xi) ; • se la v.a. è continua: • E(x) = xf(x)dx . • La (1) è definita sotto la condizione di assoluta sommabilità (nel senso dell’integrale di Riemann-Stieltjes): • |x|dF(x) + .
MEDIA DI UNA FUNZIONE DI UNA V.A.(O PREVISIONE, O VALORE ATTESO) • Data la v.a. X con f.r. F(x), si consideri la funzione reale h(x). • la v.a. Y = h(X), ha valore medio: • EF{h(X)} := h(x)dF(x); • sotto la condizione di assoluta sommabilità (nel senso dell’integrale di Riemann-Stieltjes): • |h(x)|dF(x) + .
PROPRIETA’ DEL VALORE MEDIO • Data la v.a. X con f.r. F(x), valgono le seguenti proprietà esplicative della media = EF(X): • (1) se P(x_min X x_max) = 1, allora: x_min x_max ; • (2) E{(X-)} = 0; • (3) E{(X-)2} E{(X-b)2}, b ; • (4) EF(X) = [1-F(x)]dx - F(x)dx ; • (5) se H(x) = F(x) + (1 - )G(x), x , 0< <1, allora: • EH(X) = EF(x) + (1 - )EG(x); • (6) E{(a+bX)} = a + bE(X); • (7) E(X+Y) = E(X) + E(Y).
PROPRIETA’ DI ORDINAMENTO STOCASTICO • Date le v.a. X ed Y con f.r. rispettivamente F(x) e G(y), se si ha: • X() Y(), ; • P(X z) P(Y z), z ; • F(z) G(z) , z ; • EF(X) EG(Y). • Se si ha: • F(z) G(z) , z ; • scriveremo: • XF YG; • diremo che la v.a. X è dominata dalla v.a. Y (o che Y domina X).
VARIANZA DI UNA VARIABILE ALEATORIA • La varianza di una v.a. X, denotata con Var(X) è definita come segue: • Var(X) := E{[X-E(X)]2}. • La varianza di una variabile aleatoria sarà denotata anche con il simbolo 2. • Posti: • = E(X); = + ; • è denominata “scarto quadratico medio” (o standard error). • Le seguenti proprietà sintetizzano il significato conoscitivo della varianza. • (1) 2 E{(X-b)2}, b ; • (2) E{[(X-)/]2} = 1; • (3) E{(X-)2} = E(X2) - 2; • (4) Var{(a+bX)} = b2Var(X). • Dalla (3), risultando E{(X-)2} 0, segue con immediatezza: • (5) [E(X2)]1/2 E(X). • Date le v.a. (X,Y) con f.r. congiunta F(x,y), si ha XY e quindi: • F(x,y) = F1(x)F2(y), • con F1(x) e F2(y) f.r. marginali rispettivamente di X e Y, allora segue: • (6) Var(X+Y) = Var(X) + Var(Y).
V.A. DI BERNOULLI • La v.a con funzione di probabilità seguente: • ______________________ • x = 0 1 • ______________________ • p(x|) = (1 - ) • ______________________ • con compreso tra zero ed uno (0 1) è chiamata v.a. con f. p. di Bernoulli. • Risultano con immediatezza: • E(X) = ; • Var (X) = (1 - ).
LA V.A. BINOMIALE • La v.a. discreta X, con supporto costituito dai primi n (n 1) numeri interi: x=0,1,2,…,n; con funzione di probabilità p(x|,n) dipendente dai parametri ed n: • p(x|,n) = x(1- )(n-x) , x = 0, 1, 2, …, n; 0 < <1; n 1; • è chiamata v.a. (con funzione di probabilità) Binomiale. • Genesi: La v.a. Binomiale è leggibile come v.a. numero dei successi in n prove e dunque come somma di n v.a. Zi, i=1,2,…,n, a due a due stocasticamente indipendenti con medesima funzione di probabilità di Bernoulli (medesimo valore di ). • Date n v.a. Zi, i=1,2,…,n, si ha: • (10) E( Zi) = E(Zi) • Date n v.a. Zi, i=1,2,…,n, a due a due stocasticamente indipendenti, vale la seguente proprietà: • (11) Var( Zi) = Var(Zi). • Pertanto, la media (o previsione o valore atteso) e la varianza della v.a. Binomiale risultano: • E(X|,n) = n; • Var(X|,n) = n(1 - ).
V.A. DI POISSON • Si consideri la v.a. X con f.p. Binomiale e cioè con funzione di probabilità p(x|,n) dipendente dai parametri ed n: • p(x|,n) = x(1- )(n-x) , x = 0, 1, 2, …, n; 0 < <1; n 1. • Risultano: • E(X|,n) = n; Var(X|,n) = n(1-). • Sotto il vincolo che si abbia n = , ( > 0) e quindi = /n, • si dimostra che segue: • (1) x(1- )(n-x) = e- x / x!, x = 0, 1, 2, … . • La v.a. con funzione di probabilità data dalla (1) è chiamata v.a. di Poisson. • La f.p. (1) è nota come funzione di probabilità degli eventi rari di Poisson. • Il valore medio e la varianza risultano rispettivamente pari a: • E(X) = E(X|,n) = n(/n) = ; • Var(X) = Var(X|,n) = n(/n)(1-/n) = .
FUNZIONE DI PROBABILITA’ DI POISSON • Ponendo = /n, risulta: • x(1- )(n-x) = (n/n)(1-1/n)(1-2/n) • • • [1-(x-1)/n]nx(/n)x[1-(/n)]n[1-(/n)]-x /x! • Valendo il seguente limite notevole: • (1 - /n)n = e- ; • e risultando: • (1 - /n)-x = 0, per ogni x fissato • segue: • x(1- )(n-x) = e- x/x!, x = 0, 1, 2, … . • Valendo il seguente sviluppo in serie: • e = x/x!, • segue: • E(X) = xe- x/x! = e- x-1/(x-1)! = .
V.A. IPERGEOMETRICA • La v.a. X con funzione di probabilità seguente: • p(x|n,M,N) = • con x intero : max{0, [n-(N-M)]} x min{n, M}, • e chiamata v.a. ipergeometrica (o con f.p. ipergeometrica). • Il valore medio e la varianza risultano rispettivamente pari a: • E(X) = n(M/N); • Var(x) = n(M/N)(1-M/N)[(N-n)/(N-1)]. • Genesi: Può essere determinata quale variabile aleatoria numero dei successi su n estrazioni senza reinserimento (o in blocco) da un’urna contenete M palline Bianche ed (N-M) palline Nere, chiamando successo l’uscita di una pallina Bianca.
LA V.A. GEOMETRICA • La v.a. X con funzione di probabilità seguente: • p(x| ) = (1-)x-1, x= 1, 2, …; 0 1; • è denominata v.a.con f.p. geometrica. • Genesi: Numero d’ordine nel quale, in successivi esperimenti condotti nelle “medesime condizioni”, si verifica per la prima volta un evento avente probabilità di manifestarsi costante in ogni prova sperimentale e pari a . • La media e la varianza risultano rispettivamente: • E(X) =1/; • Var(X) = (1- )/2. • La media si ottiene come segue: • E(X) = x(1-)x-1 = x(1-)x-1 = -d[(1-)x]/d = • = -d[ (1-)x]/d = -d{ (1-)[1-(1-)n]/[1-(1-)]}/d = • = -d{(1-)/}/d = -(-1/2) = 1/;
CONDIZIONE DI ASSOLUTA SOMMABILITA’ • Si consideri il seguente gioco di sorte. • Si lancia successivamente una moneta fino a quando si realizza per la prima volta l’evento “Testa”. • Il numero x, lancio nel quale si realizza per la prima volta l’evento “Testa” è aleatorio con f.p. p(x|) geometrica, con = 1/2. • Se un gioco di sorte prevede la vincita di 2x euro se si realizza Testa per la prima volta all’x-esimo lancio, si osservi che in questo caso la vincita media non è definita poiché: • E(2X) = 2x(1/2)x = 1 , diverge. • Se un gioco di sorte prevede la vincita di 2x euro se si realizza Testa per la prima volta all’x-esimo lancio se pari e la perdita -2x euro se si realizza Testa per la prima volta all’x-esimo lancio se dispari, si osservi che in questo caso la vincita media non è definita poiché: • E{(-1)x2X} = (-1)x 2x(1/2)x = (-1+1-1+1-1+…), oscilla. • In questi due casi non è soddisfatta la condizione di assoluta sommabilità della vincita aleatoria.
V.A. CON FUNZIONE DI PROBABILITA’ UNIFORME • La v.a. discreta X con determinazioni possibili (con probabilità diversa da zero) • x = 1,2,…,N, ciascuna con probabilità pari a 1/N: • ______________________________ • x = 1 2 … … N • ______________________________ • p(x) = 1/N 1/N … … 1/N • ______________________________ • è denominata v.a. discreta con f.p. uniforme. • Media, momento di ordine due e varianza risultano rispettivamente: • E(X) = (1 + 2 +…+ N)/N = [(1+N)(N/2)]/N = (1+N)/2; • E(X2) = (12 + 22 + … + N2)/N = [N(N+1)(2N+1)/6]/N • Var(X) = E(X2) - [E(X)]2 = (N2 - 1)/12. • Per la v.a. Dado, denotata di seguito con Z, ottenibile dalla v.a. con f.p. uniforme ponendo N = 6, si ottengono: • E(Z) = (1+6)/2 = 3.5 ; • Var(Z) = (62 - 1)/12 = 35/12 .
SOMMA DI n ADDENDI IN PROGRESSIONE ARITMENTICA • Dati: b1, b2, b3,…, bn , se risulta: bi-bi-1 = q, i = 2,3,…,n, si avrà: • S = b1 + b2 + b3 +…+ bn-1 + bn = • = b1 + (b1+q) + (b1+2q) + (b1+3q) + … + (b1+(n-2)q) + (b1+(n-1)q) = • = (b1 +bn)(n/2) . • Segue anche: • S = [b1 + (b1+(n-1)q)](n/2) = nb1 +q(n-1)n/2. • Vale la specificazione: • (1 + 2 + 3 + … + N) = (1 + N)(N/2).
SOMMA DEI QUADRATI DEI PRIMI n NUMERI INTERI • Risultano: • (1+22+32+42+…+N2) = i2 = • = 1 + • + 2 + 2 + • + 3 + 3 + 3 + • + .. + .. + .. + .. + .. + • + N + N+ N + ..+ .. + N = • = i = (i+N)[(N-i+1)/2] = (-i2 + i + N2 + N)/2 . • Segue quindi: • i2 = -i2/2 + i/2 + N2(N+1)/2 ; • e quindi: • i2 = (1/3)[(1+N)(N/2) + N2(N+1)] = N(N+1)(2N+1)/6.
V.A. CON FUNZIONE DI DENSITA’ UNIFORME [0, 1] • La v.a. X continua nell’intervallo (a, b), (a b), con supporto costituito dall’intervallo [a, b] {x: a x b}, con funzione di densità di probabilità f(x): • f(x) = 1/(b - a), per x: a x b e nulla altrove; • è chiamata v.a. (con funzione di densità di probabilità) Uniforme nell’intervallo [a, b]. • Risultano: • E(X) = (a+b)/2; • Var(X) = (b- a)2/12. • Per la v.a. Z con f.d. Uniforme nell’intervallo [0, 1], si ottengono: • E(Z) = 1/2; • Var(Z) = 1/12.
V.A. ESPONENZIALE • La v.a Esponenziale: • F(x) = 1 - exp(-x); per x 0; • ha media e varianza pari a: • E(X) =1/ ; • Var(X) = (1/)2. • Si osservi che risulta: • E(X) = [1 - F(x)]dx = exp(-x)dx = = 1/ ;
V.A. CON FUNZIONE DI DENSITA’ DI PROBABILITA’ DI GAUSS (O NORMALE) • La v.a. X Normale o di Gauss ha funzione di densità di probabilità: • f(x|,2) = [22]-1/2exp[(-1/2)(x-)2/2], - x +; • : - +; • 2 0. • Si hanno: E(X) = ; Var(X) = 2. • Denotando con F(x|,2) la f.r. di una v.a. Normale con media e varianza 2 e con G(z|0,1) la f.r. di una v.a. Normale con media zero e varianza uno, si ha: • F(x|,2) = G((x-)/|0,1). • Risultano: • ______________________________________ • Intervalli Probabilità • ______________________________________ • - 0.675 x + 0.675 0.50 • - x + 0.6826 • - 1.282 x + 1.282 0.80 • - 1.645 x + 1.645 0.90 • - 1.960 x + 1.960 0.95 • - 2 x + 2 0.9544 • - 2.576 x + 2.576 0.99 • - 3 x + 3 0.9973 • __________________________________
QUANTILI • Data la v.a. X con f.r. F(x), si definisce quantile di ordine p (0 p 1), il valore xp F-1(p) definito come segue: • xp F-1(p) := inf(x: F(x) p). • Il quantile x0.5 è chiamato mediana della v.a. X. • Per la v.a. con f.d. Normale risultano: • x0.025 = - 1.960; • x0.050 = - 1.645; • x0.100 = - 1.282; • x0.250 = - 0.675; • x0.500 = ; • x0.750 = + 0.675; • x0.900 = + 1.282; • x0.950 = + 1.645; • x0.975 = + 1.960.
DISUGUAGLIANZA DI CHEBYSHEV • Per la v.a. X con media e varianza 2, fissato , vale la seguente disuguaglianza: • P(| X - | ) 1 - 2/2. • Si consideri la v.a. Y = (X - )2 e Z = h(X), definita come segue: • x: | x - | , h(x) = 0 ; • x: | x - | , h(x) = 2; • Si avranno: • E(Z) E[h(X)] = 2[1 - P(| X - | )]; • E(Y) E[(X - )2] = 2; • Y Z; • E(Y) E(Z); • e quindi: • 2 2[1 - P(| X - | )]; • da cui segue: • P(| X - | ) 1 - 2/2.
DISUGUAGLIANZA DI CHEBYSHEV (CONTINUAZIONE) • Per la v.a. X con f.d.p. Normale risultano: • ___________________________________________________________ • Intervalli Probabilità Limite inferiore di Chebyshev • ___________________________________________________________ • - 1.645 x + 1.645 0.90 1 - 1/(1.645)2 = 0.630 • - 1.960 x + 1.960 0.95 1 - 1/(1.960)2 = 0.739 • - 2.576 x + 2.576 0.99 1 - 1/(2.576)2 = 0.849 • ___________________________________________________________
DISUGUAGLIANZA DI JENSEN • Data la v.a. X con f.r. F(x), e valore medio E(X), considerata la funzione h(X) con media E[h(X)], si avrà in generale: E{h(X)} h(E{X}). • Se h(.) è una funzione monotona e quindi con funzione inversa h-1(.), seguirà: • h-1(E{h(X)}) E{X}. • (i) Se h(.) è una funzione convessa: • h(x1 + (1-)x2) h(x1) + (1-)h(x2), :01; • o equivalentemente: • x0, (x0): h(x) h(x0) + (x-x0), x; • si ha: • E{h(X)} h(E{X}). • Esempio. x2 è una funzione convessa di x; per la v.a. X segue pertanto: • E(X2) [E(X)]2. • (ii) Se h(.) e una funzione concava: -h(.) è convessa, si ha: • E{h(X)} h(E{X}). • Esempio. log(x), x0, è una funzione concava di x e può essere interpretata quale funzione di utilità del valore monetario x; per la v.a. positiva X segue pertanto: • E{log(X)} log(E{X}). • L’utilità attesa è minore-uguale all’utilità del valore monetario atteso. • Il certo equivalente all’utilità attesa: x0: log(x0) = E{log(X)}, e cioè x0 = exp(E{log(X)}), è minore del valore monetario atteso E(X).
IL PARADOSSO DI S. PIETROBURGO • Si consideri il seguente gioco di sorte. • Si lancia successivamente una moneta fino a quando si realizza per la prima volta l’evento “Testa”. • Quanto si è disposti a versare per partecipare al gioco e vincere 2x euro se si realizza Testa per la prima volta all’x-esimo lancio? • Si osservi che la v.a. numero d’ordine del lancio nel quale si realizza per la prima volta l’evento “Testa” ha f.p. Geometrica: • p(x) = (1-)x-1, x=1,2,…, con E(X) = 1/ , con in questo caso =1/2. • Risultano: • E(2X) = 2x(1/2)x = 1, con ( 1 ) = + ; • E{log(2X)} = xlog(2)(1/2)x = log(2) x(1/2)x = log(2)E(x)=2log(2). • Se si considera la funzione log(.) come funzione di utilità della vincita monetaria, si conclude come segue: • la vincita monetaria attesa diverge e quindi dovremmo essere disposti a versare una cifra elevatissima per partecipare al gioco (ma così “paradossalmente” non accadrebbe), l’utilità attesa è finita e il certo equivalente risulta pari a: exp{2•log(2)} = 4.
ASIMMETRIA • Si consideri la v.a. X con funzione di probabilità p(x|n,) Binomiale. • Se = 1/2, la funzione di probabilità è simmetrica con asse di simmetria passante per il punto x = x0.5 = . • In questo caso risulta: • E{(x - )2k+1} = 0, k =1,2,… . • Se 1/2, la funzione di probabilità è asimmetrica a sinistra (o negativamente) risultando x0.5 . • Se 1/2, la funzione di probabilità è asimmetrica a destra (o positivamente) risultando x0.5 . • Quale indice di asimmetria della f.p. o f.d.p. di una v.a. X si considera il seguente rapporto: • E{(x - )3}/[E{(x - )2}]3/2.
CURTOSI • Si può confrontare la legge di densità di probabilità di una qualsiasi v.a. con quella di una v.a. con f.d.p. Normale con uguale valore medio. • In una v.a. con f.d.p. Normale risulta: • E{(X-)4}/[E{(x-)2}]2 = 3. • Pertanto per una v.a. continua X il seguente indice: • = E{(X-)4}/[E{(x-)2}]2 - 3; • potrà risultare: • positivo, si dirà che la v.a. X ha f.d.p. ipernormale (o leptocurtica); • negativo, si dirà che la v.a. X ha f.d.p. iponormale (o platicurtica); • nullo, in tal caso si dirà che la v.a X non è né ipernormale, né iponormale.
TEOREMA DEL LIMITE CENTRALE • Nella sua versione più semplice, il teorema del limite centrale afferma che date n v.a. stocasticamente indipendenti: X1, X2, …, Xn, con: • i = E(Xi); • i2 = Var(Xi); i=1,2,…,n; • la v.a. somma: • S = X1 + X2 + …+ Xn; • al divergere di n tende a distribuirsi con f.r. Normale: • S N(s| i , i2). • Posti: • (n) = i; • 2(n) = i2; • denotando con Fn(s|(n), 2(n)) la f.r. della v.a. S e con G(z|0,1) la f.r. della v.a. Normale standardizzata, si avrà pertanto: • Fn(s|(n), 2(n)) = G([s-(n)]/(n)|0,1).
APPROSSIMAZIONE DELLA f.r. BINOMIALE • Si possono approssimare i valori della funzione di ripartizione F(x|n,) di una v.a. con f.p. Binomiale con quelli di della f.r. G(x|n, n(1-)) di una v.a. Normale con medesima media e medesima varianza. • Risulta in particolare: F(x|n,) G(x+0.5| n, n(1-)), x=0, 1, 2, …, n. • Per n=10, =0.5, si ottengono i seguenti valori: • ____________________________________________ • x F(x|n,) G(x+0.5| n, n(1-)) • ____________________________________________ • 0 0.0010 0.0022 • 1 0.0108 0.0136 • 2 0.0547 0.0571 • 3 0.1719 0.1711 • 4 0.3770 0.3745 • 5 0.6230 0.6255 • 6 0.8281 0.8289 • 7 0.9453 0.9429 • 8 0.9892 0.9864 • 9 0.9990 0.9978 • 10 1.0000 0.9997 • ____________________________________________ • L’approssimazione è tanto più buona quanto più n è elevato e è prossimo a 0.5.