1 / 81

certo…anzi probabile

certo…anzi probabile. Atto di nascita: 1733 fu introdotta nella teoria della probabilità da Abraham De Moivre come approssimazione della distribuzione binomiale. media µ. Distribuzione binomiale.

Download Presentation

certo…anzi probabile

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. certo…anzi probabile

  2. Atto di nascita: 1733 fu introdotta nella teoria della probabilità da Abraham De Moivre come approssimazione della distribuzione binomiale media µ

  3. Distribuzione binomiale Sia dato un evento E di probabilità p(E)=0,47 si fanno 10 prove e si calcola la probabilità che l’evento E si verifiche 0 volte, 1 volta, 2 volte, ….10 volte

  4. P(E) = 0,47 n= numero delle prove = 20

  5. La curva fu poi ripresa in un ambito matematico diverso da Carl Friedrich Gauss (1777-1855) tanto che oggi è ricordata come curva di Gauss o curva degli errori. Gauss la descrisse come distribuzione delle misure atte a determinare la posizione degli astri.

  6. Riportiamo sull’asse orizzontale le misure di una certa grandezza fatte con uno strumento di precisione e sull’asse verticale la frequenza con cui si sono verificate queste misure. Media = valore della misura

  7. Quello che è eccezionale è che la curva gi Gauss caratterizza anche la distribuzione delle principali grandezze antropometriche di una popolazione di individui, come il peso, l’altezza ecc… In questo grafico ad esempio in ascissa sono riportati i pesi di 4.017.264 bambini nati da gravidanze singole nel 1991 negli Stati Uniti e in ordinateil numero dei neonati aventi un determinato peso. Le informazioni sono state raccolte utilizzando i certificati di nascita. Il valore del peso centrale che è la moda è anche la media dei pesi.

  8. Uno dei primi che nei suoi lavori fece grande uso della curva di Gauss fu Adolphe Quételet che è ritenuto uno dei padri della statistica sociale. La statistica nasce attorno alla seconda metà del Seicento con il nome di ARITMETICA SOCIALE o CALCOLO SOCIALE o SCIENZA NUMERICA DELLA SOCIETA’ e DEGLI STATI. Si studiavano mediante indagini statistiche eventi naturali come le nascite , le morti, ma anche gli atti volontari come i matrimoni, i crimini e i suicidi. Tutto ciò per la promozione di una politica statale più informata e quindi più efficace. Di qui probabilmente il nome di Statistica, i suoi praticanti furono chiamati “statisti” e verso la fine del XIX secolo “statistici”. La Statistica si sviluppa poi in modo particolare nel corso dell’Ottocento appunto con Quételet. Ma le basi della statistica matematica moderna furono poste tra il 1890 e il 1930. Fra i fondatori della moderna statistica matematica ricordiamo Pearson, Spearman, Yule, Gosset, Fisher.

  9. Adolphe Quételet (Gand 1796- Bruxelles 1874) Astronomo, matematico interlocutore di matematici illustri come Fourier, Poisson, Laplace, è indubbiamente la figura più importante nello sviluppo della statistica scientifica. Cerca di portare in Statistica il rigore dei metodi usati in astronomia e l’impiego sistematico della matematica. Nel 1834 fonda la Statistical Society di Londra. Per Quételet la matematica avrebbe dato un ordine all’apparente caos sociale, nel senso che – pensava - in campo sociale esistono delle leggi come nel mondo naturale che possono essere scoperte con la statistica. Per lui la statistica divenne una Physique sociale.

  10. Ad esempio Quételet si occupò di eventi come il crimine e il suicidio e scoprì che l’attività criminale variava di poco di anno in anno. E a proposito di tale regolarità Quételet osservava: “ essa ci insegna che l’azione dell’uomo è limitata in tale ambito e che le grandi leggi della natura sono per sempre al di fuori della sua influenza; essa dimostra inoltre che nel mondo morale possono esistere delle leggi di conservazione allo stesso modo in cui si trovano nel mondo fisico”. Sulla base delle leggi sociali scoperte la società era vista come un’entità a se stante, indipendente dai capricci e dalle idiosincrasie degli individui che la costituiscono. Ci sono delle leggi sociali ineluttabili per quanto possa sembrare diverso ed irrazionale il comportamento dei singoli uomini. C’è una regolarità collettiva.

  11. Questa visione della ineluttabilità delle leggi sociali diventa visione filosofica e in campo politico costituisce anche il fondamento della politica liberale del laissez faire: dato che la società era governata da leggi statistiche il suo governo si doveva limitare ad un ruolo ancillare, lo Stato doveva solo favorire e assecondare la naturale evoluzione sociale. “L’uomo può essere considerato un enigma solo come individuo, come massa è un problema matematico”.

  12. L’ homme moyen Nell’ultimo periodo del suo lavoro Quételet elabora il concetto di homme moyen. Questo essere astratto definito nei termini della media di tutte le sue qualità umane in un determinato paese costituiva il “tipo” nazionale rappresentativo della società nella scienza sociale analogo al baricentro in fisica. I calcoli relativi a l’homme moyen physiquenon poneva particolari problemi in quanto si trattava di misurare le altezze, i pesi, le dimensione delle membra e dei vari organi e di farne poi la media. Maggiori ostacoli presentava invece la definizione dell’ homme moyen moralperché non si poteva misurare il coraggio, la criminalità e i buoni sentimenti. Lo stesso risultato si poteva ottenere registrando gli atti coraggiosi o criminali dell’intera società e quindi si poteva attribuire all’uomo medio una tendenza al crimine equale al numero dei delitti commessi diviso il numero della popolazione. In questo modo un insieme di atti separati commessi dai singoli individui veniva trasformato in una grandezza costante, la propensione che era attribuita all’uomo medio.

  13. Per determinare le caratteristiche dell’uomo medio Quételet fece una serie di esperimenti in cui usò la curva a campana di Gauss. Infatti dimostrò che i caratteri antropometrici come il peso, l’altezza, la lunghezza degli arti ecc.. Hanno una distribuzione gaussiana

  14. Quételet misurò le circonferenza toraciche di 5738 soldati scozzesi e le raggruppò in intervalli di ampiezza un pollice,ottenendo sedici gruppi. Quételet osservò che la distribuzione delle frequenze approssimava la distribuzione gaussiana. Quételet concluse che se le misurazioni delle circonferenze toraciche si comportavano nel modo indicato dalla teoria degli errori di Gauss, allora le misure delle circonferenze toraciche dei soldati potevano essere interpretate come repliche sottoposte a errori di misurazioni della misura toracica dell’uomo medio. La stessa cosa vale per il peso, l’altezza ecc..

  15. In ascissa x: valori di una variabile In ordinata y: i valori della densità di probabilità della x y deviazione standard σ x µ= media I valori di µ e di σ individuano perfettamente la curva

  16. h= densità di probabilità probabilità ∆x= 10 Le probabilità p sono le aree dei rettangoli, le altezze h dei rettangoli sono le densità di probabilità: h ∆x= area=p

  17. Al tendere a 0 di ∆x l’istogramma diventa la curva a campana che ha quindi in ascissa x i valori delle altezze e in ordinate y i valori della densità di probabilità. y Probabilità di trovare individui di altezza compresa fra x1 e x2 x x1 x2

  18. In ascissa x: valori di una variabile In ordinata y: i valori della densità di probabilità della x y σ x µ= media

  19. Il problema della stima della media o di una proporzione di una popolazione • - Indagine completa • Indagine campionaria: la inferenza statistica • Teorema del limite centrale: sia data una popolazione la cui media sia µ (e la cui proporzione sia P). Estraiamo da essa tutti i possibili campioni di dimensione n (grandi campioni con n≥30) e di ogni campione calcoliamo la media m (o la frequenza f). Otteniamo una distribuzione di medie campionarie (o di proporzioni campionarie). • Esempio se la popolazione ha dimensione N=10 e n= 2 allora i campioni sono 45 • Se N = 100 e n= 10 allora i campioni sono 1,73103 1013

  20. Sia la popolazione costituita da 4 elementi a, b, c, d Tutti i possibili campioni di dimensione 2 sarebbe costituito da: a, b a, c a, c b, c b, d c, d

  21. Valgono i seguenti risultati: • tali distribuzioni sono gaussiane • la media delle medie campionarie coincide con la media µ della popolazione • la media delle frequenze campionarie coincide con la proporzione P della popolazione • La deviazione standard della distribuzione delle medie campionarie è dove σ è la deviazione standard della popolazione. • La deviazione standard della distribuzione delle frequenze campionarie è • dove P è la Proporzione della popolazione.

  22. 95% Densità di frequenza delle medie campionarie Medie campionarie Media della popolazione

  23. Un ingegnere addetto al controllo di quantità vuole stimare il peso medio di una scatola di cereali riempita da una certa macchina in un certo giorno. Estrae un campione casuale di 100 scatole ne calcola la media campionaria m = 300,5 grammi e la deviazione standard s= 15 grammi. Livello di fiducia dove σ è la deviazione standard della popolazione e n la dimensione del campione . L’intervallo di confidenza al 95% è [300,5 –(1,96)(1,5);300,5+(1,96)(1,5)] cioè (297,56;303,44)

  24. La media campionaria m proviene dalle code del 5% della distribuzione delle medie campionarie, così l’intervallo di confidenza al 95% non contiene la media della popolazione.

  25. Una stima è tanto più precisa quanto più piccolo è l’intervallo di confidenza • È tanto più affidabile quanto maggiore è il livello di fiducia • Da notare che mantenendo costante la dimensione del campione, aumentando il livello di fiducia aumenta anche l’intervallo di confidenza, cioè aumentando l’attendibilità della stima diminuisce la sua precisione.

  26. Tuttavia si può conciliare l’aumento dell’attendibilità con l’aumento della precisone o a precisione invariata, aumentando la dimensione del campione. • Infatti all’aumentare della dimensione del campione diminuisce la deviazione standard della distribuzione che si concentra maggiormente attorno alla media

  27. Dimensione del campione n= 250 dimensione del campione n=100

  28. La verifica delle ipotesi, i test di significatività Il nostro ingegnere potrebbe procedere in modo diverso per vedere se la produzione procede sotto controllo. Supponiamo che l’azienda dichiari di produrre scatole di cereali del peso di 300 grammi, per cui la produzione sarà sotto controllo se la media è 300 grammi. Si tratta di verificare questa ipotesi al livello di fiducia del 95%. H0: µ = 300 si dice ipotesi nulla, l’ipotesi alternativa H1: µ ≠ 300. Ogni giorno per sapere se la produzione è sotto controllo l’ingegnere estrae a caso un campione di 100 scatole, ne calcola il peso medio m e la deviazione standard s Supponiamo che la media del campione sia 303 grammi. Si pone il problema seguente: La differenza 3 grammi rientra nella normale variabilità campionaria oppure è significativa del fatto che in realtà stiamo producendo scatole di peso medio superiore a 300 grammi?

  29. σ è la deviazione standard della popolazione ed è stimata dalla deviazione standard del campione. L’intervallo verde indica la zona di accettazione dell’ipotesi nulla. Le semirette rosse indicano la zona del rifiuto dell’ipotesi nulla. Zona accettazione Zona rifiuto

  30. P=95% α/2=2,5% α/2=2,5% P=0,95 si dice livello di fiducia α = 0,05 = 1-p = 1-0,95 = area delle due code si dice livello di significatività.

  31. Ogni decisione che si prende è soggetta ad un errore, si hanno due tipi di errori: Si rifiuta H0 quando è vera. L’errore si commette quando la media campionaria m cade nella zona di rifiuto. La probabilità dell’errore è α. L’errore si dice di1° specie Si accetta H0 quando è falsa. Si dice che si commette un errore βdi 2° specie Si prendono invece decisioni giuste quando Si accetta H0 quando è vera (La probabilità è il livello di fiducia p) Si rifiuta Ho quando è falsa (La probabilità è 1- β che è detta potenza del test).

  32. E’ chiaro che la cosa migliore sarebbe costruire un test in modo da rendere minime le probabilità degli errori α e β, ma vediamo se ciò è possibile. E’ più agevole discutere la cosa nel caso in cui le ipotesi alternative siano 2. Supponiamo che due persone A e B stiano giocando ai dadi con la regola che A perde ogni volta che esce la faccia 1. supponiamo che in 100 lanci la faccia 1 si sia presentata 27 volte, per cui A ha perso con una frequenza pari a 0,27. Considerato che la probabilità che esca 1 è 0,167, A sospetta che B stia giocando con un dado truccato, magari con uno di quei dadi in cui 1 esce con probabilità 0,25. E’ possibile sottoporre a verifica tale sospetto?

  33. Le ipotesi in conflitto sono: • Ipotesi nulla H0: p=0,167 il dado non è truccato • Ipotesi alternativa H1: p= 0,25, il dado è truccato Si deve assumere una regola di decisone che potrebbe essere la seguente: Se dopo una serie di 100 lanci la frequenza con cui esce 1 è f< 0,20 allora si accetta H0, altrimenti si accetta H1. La situazione per quanto riguarda gli errori di 1° e di 2° specie è allora la seguente.

  34. Distribuzione delle frequenze campionarie di campioni di 100 lanci Zona rifiuto Zona accettazione

  35. Aumentando la dimensione dei campioni è possibile diminuire sia α sia β

  36. Esempio in campo giudiziario L’impossibilità di diminuire contemporaneamente α e β a parità di dimensione del campione è chiarita bene dal seguente esempio in campo giudiziario. Sia H0: l’imputato è innocente H1: l’imputato è colpevole α= errore di 1° specie, è la probabilità di condannare un innocente cioè la probabilità di rifiutare H0 e quindi accettare H1 quando H0 è vera β = errore di 2° specie, è la probabilità di assolvere un colpevole cioè la probabilità di accettare H0 (l’imputato è innocente) quando invece è vera H1 cioè l’imputato è colpevole. Le riforme a carattere garantista che vogliono diminuire il rischio di condannare un innocente (α) portano necessariamente al rischio di aumentare β cioè ad aumentare il rischio di assolvere un colpevole.

  37. Il T test Caso dell’efficacia di un medicinale (ad esempio per abbassare la pressione)

  38. Si calcola la media delle differenze e si ottiene m= 24,1 e la deviazione standard delle differenze = 13,15 L’ipotesi che vogliamo verificare è che tale differenza sia nulla, che corrisponde alla ipotesi della inefficacia del medicinale. Vogliamo verificare tale ipotesi al livello di significatività del 5%. H0: µ=0 H1: µ>0 In questo caso, dato che il campione è piccolo (<30), si adopera non la distribuzione gaussiana ma un’altra (la t di Student) che l’approssima.

  39. Agli inizi della probabilità Nel 1654 il cavalier Antonio de Méré si rivolse a Blaise Pascal per sapere perché mai puntando sull’uscita del 6 nel gioco del dado, in 4 lanci la pratica del gioco rendeva evidente che fosse più facile vincere che perdere mentre puntando sull’uscita del doppio 6 su 24 lanci di due dadi fosse viceversa più facile perdere che vincere. Secondo i calcoli che faceva Antonio de Méré avrebbe dovuto succedere il contrario. La risposta che diede Pascal fu molto semplice: fai bene i calcoli e vedrai che la teoria conferma la pratica. Infatti nel primo caso si perde se nei 4 lanci esce sempre un numero diverso da 6. La probabilità di perdere è quindi 5/6*5/6*5/6*5/6= (5/6)4 = 0,483 che è minore della probabilità di vincere che è 1-(5/6)4=0,517. Nel caso di 24 lanci di due dadi si perde se in ogni lancio non esce il doppio 6. La probabilità che nei 24 lanci non esca mai il doppio 6 è: (35/36)24=0,508 per cui la probabilità di vincere è 1-0,508=0,492 che è minore della probabilità di perdere.

  40. E’ con Pierre-Simon Laplace che la probabilità cessa di essere una curiosità matematica. I lavori che Laplace pubblicò a partire dal 1794, in particolare la Théorie analitique des probabilités del 1812 trasformarono una serie di problemi legati principalmente ai giochi d’azzardo e alle rendite vitalizie delle assicurazioni nella teoria classica della probabilità che divenne una disciplina scientifica d’avanguardia. E’ interessante illustrare le motivazioni che spingono Laplace a questa fatica. Laplace era un convinto sostenitore di una visione meccanicistica e deterministica del mondo, che secondo lui era regolato da ferree leggi esprimibili in termini matematici.

  41. Scrive nel celeberrimo Essai philosophique sur les probabilités pubblicato nel 1814 e a partire dalla seconda edizione, premesso come introduzione alla Théorie: “Dobbiamo dunque considerare lo stato presente dell’universo come l’effetto del suo stato anteriore e come la causa del suo stato futuro. Un’Intelligenza che, per un dato istante, conoscesse tutte le forze da cui è animata la natura e la situazione rispettiva degli esseri che la compongono, se per di più fosse abbastanza profonda da sottomettere questi dati all’analisi, abbraccerebbe nella stessa formula i movimenti dei più grandi corpi dell’universo e dell’atomo più leggero: nulla sarebbe incerto per essa, e l’avvenire come il passato sarebbe presente ai suoi occhi. Lo spirito umano offre, nella perfezione che ha saputo dare all’astronomia, un pallido esempio di quest’intelligenza. Le sue scoperte in meccanica e in geometria, unite a quelle della gravitazione universale, l’hanno messo in grado di abbracciare nelle stesse espressioni analitiche gli stati passati e quelli futuri del sistema del mondo.”

  42. Ma il punto è che l’uomo è ben lontano dalle capacità dell’Intelligenza da lui immaginata. Infatti poco oltre Laplace afferma: “La regolarità che l’astronomia ci presenta nel movimento delle comete, ha luogo senza dubbio in tutti i fenomeni. La curva descritta da una semplice molecola di aria o di vapore è regolata con la stessa certezza delle orbite planetarie: non v’è tra esse nessuna differenza, se non quella che vi pone la nostra ignoranza. La probabilità è relativa in parte a questa ignoranza, in parte alle nostre conoscenze”. Secondo Laplace l’uomo non è l’Intelligenza che lui si è figurato e pertanto molte volte non è in grado né di conoscere tutte le forze di cui la natura è animata, né le posizioni delle particelle che la compongono, né infine, conoscendo tanto le une quanto le altre, di sottoporre all’analisi matematica i dati in suo possesso. In questi casi si deve ricorrere alla probabilità. Quindi alla base della probabilità troviamo la nostra ignoranza.

  43. Definizione classica o laplaciana di Probabilità Sia E un evento, siano n i casi possibili e m quelli favorevoli ad esso, allora P(E) = m/n. La definizione è valida nell’ipotesi che tutti i casi possibili siano ritenuti egualmente possibili. Esempio: Probabilità che lanciando un dado non truccato esca il numero 6 è 1/6 in quanto i casi possibili sono 6 e quelli favorevoli all’evento sono 1. Per tutto l’Ottocento la definizione di probabilità fu quella classica di Laplace, tuttavia a partire dagli ultimi anni dell’Ottocento specie in fisica e in Biologia gli esempi di eventi per i quali si doveva ricorrere alle osservazioni per determinare le probabilità si andavano moltiplicandosi.

  44. Definizione frequentista o statistica di probabilità Frequenza assoluta: numero delle volte che un evento si verifica. Es: lancio il dado 10 volte, il numero 6 si verifica 3 volte. 3 è la frequenza assoluta di 6 Frequenza relativa: èil rapporto fra la frequenza assoluta e il numero delle prove fatte. Nell’esempio precedente: la frequenza relativa di uscita di 6 è 3/10 = 0,3 La probabilità di un evento in senso frequentista è il limite al quale tende la frequenza relativa quando il numero delle prove tende all’infinito oppure la probabilità di un attributo in una certa popolazione è il limite al quale tende la frequenza relativa dell’attributo quando la frequenza è calcolata su campioni estratti dalla popolazione di grandezza via via crescente e tendente all’infinito.

  45. Tuttavia perché la definizione sia valida occorre che l’evento sia ripetibile e le singole prove sia indipendenti o che i campioni via via usati siano casuali cioè tali che i componenti abbiano tutti la stessa probabilità di essere estratti. Esempio: supponiamo di lanciare un dado un gran numero di volte, diciamo mille, e di constatare che il 2 si è presentato 173 volte, per cui 173/1000=0,173 è la frequenza relativa dell’uscita del numero 2. Proseguendo nei lanci la frequenza relativa assumerà valori diversi ma tenderà a stabilizzarsi attorno ad un certo valore che viene assunto come valore della probabilità dell’evento. L’esperienza ci mostra che in tutti i fenomeni di massa la frequenza relativa di un certo attributo si stabilizza al crescere del numero delle osservazioni ed è proprio questo fatto che in qualche modo giustifica la definizione frequentista di probabilità.

  46. Un ponte fra le definizione di probabilità in senso classico e in senso frequentista fu gettato agli inizi del Novecento da Guido Castelnuovo che nel suo Calcolo delle probabilità del 1919 introdusse la famosa legge empirica del caso che dice: “In una serie di prove ripetute un gran numero di volte e nelle stesse condizioni, ciascuno degli eventi possibili si manifesta con una frequenza relativa che è presso a poco uguale alla sua probabilità. L’approssimazione cresce ordinariamente col crescere del numero delle prove”.

  47. Esempio di simulazione al computer del lancio di un dado. Frequenza con cui si presenta il numero 3 al crescere del numero dei lanci. Probabilità classica di uscita di 3 = 1/6 = 0,166667 Un contributo determinante alla formulazione di questa definizione fu data da Richard von Mises tedesco che pubblicò un trattato sulla probabilità dal titolo impronunciabile nel 1928.

  48. MATEMATICA ATTUARIALE Le aziende per testare la vita media dei loro prodotti, per esempio lampadine e frigoriferi, eseguono dei test di durata; vale a dire che scelgono un campione casuale della loro produzione e li fanno funzionare finché non si guastano. In questo modo se 100 lampadine scelte a caso da una produzione sono accese in media 60 ore (si registra la vita di ogni lampadina e poi si fa la media) possiamo dire che la vita media di una lampadina di quel tipo è di 60 ore (in realtà si fa una stima per intervalli). In matematica attuariale e per le molte applicazioni nel campo delle assicurazioni ha molta importanza stabilire quale sia la vita media di un individuo di età x oppure sapere quale è la probabilità che un individuo che oggi ha 40 anni possa vivere ancora 20 anni. E’ chiaro che per calcolare la vita media delle persone non si può seguire il metodo delle lampadine cioè scegliere 100 individui e poi seguirli finché non muoiono tutti. Sarebbe troppo lungo. Queste valutazioni si fanno ricorrendo alle tavole demografiche o tavole di sopravvivenza.

  49. La prima rudimentale ma interessante tavola di sopravvivenza risale alla prima metà del XVII secolo e fu composta dall’inglese J. Graunt che reperì i dati dai registri parrocchiali. Un tretennio più tardi l’astronomo inglese Edmund Halley (1656-1742) compilò una tavola simile sempre basandosi sui registri parrocchiali. Da allora applicando i metodi della statistica e del calcolo delle probabilità si sono potute costruire tavole demografiche sempre più precise ed affidabili basandosi essenzialmente su due tipi di osservazioni, diverse ma complementari: i dati dei censimenti e quelli dei decessi. In Italia si occupa della compilazione delle tavole l’Istituto di Statistica (Istat). Dai censimenti che nel nostro paese vengono fatti ogni 10 anni, si possono estrarre i dati relativi ai viventi suddivisi per età e sesso. Rilevando invece per un certo numero di anni i dati sui decessi dai registri dello stato civile, si possono ricavare informazioni sul numero medio dei morti, suddivisi per fasce di età. Si costruiscono quindi delle tavole che anno per anno indicano quante persone sono sopravvissute rispetto ad un nucleo iniziale e quante quindi sono decedute. E’ importante avvalersi di tavole aggiornate perché al cambiare delle condizioni di vita cambiano le probabilità di vita e di morte.

More Related