1 / 66

PROBABILITE

QSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSS

kalamon
Download Presentation

PROBABILITE

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Extrait de la publication

  2. Mario Lefebvre Probabilités statistique et applications Presses internationales P o l y t e c h n i q u e Extrait de la publication

  3. Probabilités, statistique et applications Mario Lefebvre Couverture : Cyclone Design Pour connaître nos distributeurs et nos points de vente, veuillez consulter notre site Web à l’adresse suivante : www.polymtl.ca/pub Courriel des Presses internationales Polytechnique : pip@polymtl.ca Nous reconnaissons l’aide financière du gouvernement du Canada par l’entremise du Fonds du livre du Canada pour nos activités d’édition. Gouvernement du Québec – Programme de crédit d’impôt pour l’édition de livres – Gestion SODEC. Tous droits réservés © Presses internationales Polytechnique, 2011 On ne peut reproduire ni diffuser aucune partie du présent ouvrage, sous quelque forme ou par quelque procédé que ce soit, sans avoir obtenu au préalable l’autorisation écrite de l’éditeur. Dépôt légal : 1er trimestre 2011 Bibliothèque et Archives nationales du Québec Bibliothèque et Archives Canada ISBN 978-2-553-01554-0 (version imprimée) ISBN 978-2-553-01564-9 (version PDF) Imprimé au Canada

  4. Dieu ne joue pas aux d´ es. Albert Einstein Ils tir` erent au sort, et le sort tomba sur Matthias, qui fut associ´ e aux onze apˆ otres. Actes 1: 26

  5. Avant-propos Ce livre s’adresse aux ´ etudiants de premier cycle en sciences pures et ap- pliqu´ ees, et particuli` erement ceux en g´ enie. Les chapitres 2 ` a 4 pr´ esentent la th´ eorie des probabilit´ es dont ces ´ etudiants ont g´ en´ eralement besoin dans le cadre de leur formation. Quoique le niveau math´ ematique de l’expos´ e soit suffisam- ment ´ elev´ e pour des non-math´ ematiciens, j’ai intentionnellement ´ evit´ e de trop entrer dans les d´ etails. Par exemple, des sujets tels que les variables al´ eatoires de type mixte et la fonction delta de Dirac ne sont que bri` evement mentionn´ es. Les cours de probabilit´ es sont souvent consid´ er´ es comme difficiles. Cependant, apr` es avoir enseign´ e cette mati` ere pendant plusieurs ann´ ees, j’en suis venu ` a la conclusion qu’un des principaux probl` emes auxquels certains ´ etudiants font face lorsqu’ils essaient d’apprendre la th´ eorie des probabilit´ es est leur faiblesse en calcul diff´ erentiel et int´ egral de base. Par exemple, les ´ etudiants qui suivent un cours de probabilit´ es ont souvent d´ ej` a oubli´ e la technique d’int´ egration par parties. Pour cette raison, j’ai d´ ecid´ e d’inclure dans cet ouvrage un chapitre qui pr´ esente les ´ el´ ements de base du calcul diff´ erentiel. Mˆ eme si celui-ci ne sera pro- bablement pas pr´ esent´ e en classe, les ´ etudiants pourront s’y r´ ef´ erer au besoin. Ce chapitre vise ` a donner au lecteur une bonne id´ ee de l’utilisation en probabilit´ es des concepts qu’il devrait d´ ej` a connaˆ ıtre. Le chapitre 2 pr´ esente les r´ esultats principaux de ce qu’on appelle les pro- babilit´ es ´ el´ ementaires, y compris la formule de Bayes et des ´ el´ ements d’analyse combinatoire. Quoique ces notions ne soient pas compliqu´ ees au point de vue math´ ematique, c’est souvent un contenu que les ´ etudiants ont de la difficult´ e ` a maˆ ıtriser. Il n’y a pas d’autre solution que de faire de tr` es nombreux exercices pour se sentir ` a l’aise avec cette partie de la mati` ere. Le chapitre 3 est consacr´ e au sujet plus technique des variables al´ eatoires. Tous les mod` eles importants pour les applications, comme les distributions bi- nomiale et normale, y sont pr´ esent´ es. En g´ en´ eral, les ´ etudiants r´ eussissent mieux les questions sur ce sujet dans les examens et ont l’impression que leur travail est plus r´ ecompens´ e que dans le cas de l’analyse combinatoire, en particulier. Les vecteurs al´ eatoires, y compris le tr` es important th´ eor` eme central limite, constituent le sujet du chapitre 4. Je me suis efforc´ e de pr´ esenter la mati` ere le plus simplement possible. Il reste qu’il est ´ evident que les int´ egrales doubles ne peuvent pas ˆ etre plus simples que les int´ egrales simples.

  6. VI La partie statistique du manuel commence au chapitre 5, dans lequel les principales quantit´ es qui permettent de caract´ eriser un ensemble de donn´ ees sont d´ efinies. Cette branche de la statistique est appel´ ee statistique descriptive; elle ne devrait pas causer de probl` emes aux ´ etudiants. Le chapitre 5 traite aussi de l’estimation des param` etres des variables al´ eatoires, soit l’estimation ponctuelle et la technique d’estimation par intervalle de confiance. La th´ eorie des tests d’hypoth` eses est d´ evelopp´ ee au chapitre 6. On pr´ esente les principaux tests d’ajustement de mod` eles th´ eoriques aux donn´ ees ainsi que de nombreux tests des param` etres des variables al´ eatoires, comme la moyenne et la variance d’une distribution gaussienne. Il s’agit d’un des principaux ´ el´ ements de la statistique math´ ematique. Des applications des chapitres 2 ` a 6 sont pr´ esent´ ees aux chapitres 7 ` a 9. D’abord, le chapitre 7 traite de la r´ egression lin´ eaire simple, qui est un sujet de premi` ere importance en sciences appliqu´ ees. Il y est aussi question de la r´ egression curviligne. La fiabilit´ e, qui intervient dans la plupart des disciplines du g´ enie, et particu- li` erement en g´ enie m´ ecanique, fait l’objet du chapitre 8. Les notions pr´ esent´ ees g´ en´ eralisent les notions de base de fiabilit´ e vues au chapitre 2. Enfin, les mod` eles de files d’attente de base sont ´ etudi´ es au chapitre 9. Les ´ etudiants en g´ enie informatique et en g´ enie industriel ont souvent besoin de connaissances sur ce sujet. On doit alors introduire le concept de processus stochastique, lequel est bri` evement mentionn´ e au chapitre 4 sur les vecteurs al´ eatoires. La th´ eorie des files d’attente pouvant ˆ etre relativement complexe, je m’en suis tenu aux mod` eles les plus simples. Ceux-ci sont tout de mˆ eme suffisants dans la plupart des applications. Peu importe le niveau et la formation des ´ etudiants qui suivent un cours de probabilit´ es et statistique, une chose est certaine: comme il est mentionn´ e ci-dessus, il est n´ ecessaire de r´ esoudre plusieurs exercices avant d’avoir le sen- timent d’avoir maˆ ıtris´ e la th´ eorie.`A cette fin, le manuel contient pr` es de 600 exercices, dont un grand nombre comportent plusieurs parties.`A la fin de chaque chapitre, le lecteur trouvera des exercices r´ esolus, suivis de nombreux exercices non r´ esolus. Les r´ eponses des exercices dont le num´ ero est pair sont fournies ` a l’appendice C. Il y a aussi plusieurs questions ` a choix multiple, dont les r´ eponses sont donn´ ees ` a l’appendice D.

  7. VII Les chapitres 2 ` a 7 du manuel sont tir´ es du livre Cours et exercices de statis- tique math´ ematique appliqu´ ee, publi´ e par les Presses internationales Polytech- nique. Cet ouvrage est surtout ax´ e sur la statistique, tandis que Probabilit´ es, statistique et applications comporte cinq chapitres sur les probabilit´ es (y com- pris les applications pr´ esent´ ees dans les chapitres 8 et 9) et trois chapitres sur la statistique. Il me fait plaisir de remercier toutes les personnes avec lesquelles j’ai travaill´ e au cours de ma carri` ere ` a l’´Ecole Polytechnique de Montr´ eal, et qui ont fourni des exercices int´ eressants que j’ai inclus dans ce manuel. Finalement, je remercie ´ egalement toute l’´ equipe de production des Presses internationales Polytechnique. Mario Lefebvre Montr´ eal, septembre 2010 Extrait de la publication

  8. Table des mati` eres Liste des tableaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .XIII Liste des figures . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . XV R´ evision du calcul diff´ erentiel et int´ egral . . . . . . . . . . . . . . . . . . . . . 1.1 Limites et continuit´ e. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 D´ eriv´ ees . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3 Int´ egrales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3.1 Techniques d’int´ egration particuli` eres . . . . . . . . . . . . . . . . . . . 10 1.3.2 Int´ egrales doubles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 1.4 S´ eries infinies . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 1.4.1 S´ eries g´ eom´ etriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 1.5 Exercices du chapitre 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 1 1 4 8 1 Probabilit´ es ´ el´ ementaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 2.1 Exp´ eriences al´ eatoires. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 2.2 ´Ev´ enements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 2.3 Probabilit´ e . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 2.4 Probabilit´ e conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 2.5 Probabilit´ e totale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 2.6 Analyse combinatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46 2.7 Exercices du chapitre 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 2 Variables al´ eatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 3.1.1 Cas discret . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72 3

  9. X Table des mati` eres 3.1.2 Cas continu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73 3.2 Variables al´ eatoires discr` etes importantes. . . . . . . . . . . . . . . . . . . . . . 77 3.2.1 Distribution binomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77 3.2.2 Distribution de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80 3.2.3 Distributions g´ eom´ etrique et binomiale n´ egative . . . . . . . . . . 80 3.2.4 Distribution hyperg´ eom´ etrique . . . . . . . . . . . . . . . . . . . . . . . . . 83 3.2.5 Distribution et processus de Poisson . . . . . . . . . . . . . . . . . . . . 84 3.3 Variables al´ eatoires continues importantes . . . . . . . . . . . . . . . . . . . . . 87 3.3.1 Distribution normale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87 3.3.2 Distribution gamma. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92 3.3.3 Distribution de Weibull. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95 3.3.4 Distribution bˆ eta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95 3.3.5 Distribution lognormale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97 3.4 Fonctions de variables al´ eatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98 3.4.1 Cas discret . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98 3.4.2 Cas continu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99 3.5 Caract´ eristiques des variables al´ eatoires . . . . . . . . . . . . . . . . . . . . . . . 100 3.6 Exercices du chapitre 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114 Vecteurs al´ eatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143 4.1 Vecteurs al´ eatoires discrets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143 4.2 Vecteurs al´ eatoires continus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147 4.3 Fonctions de vecteurs al´ eatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153 4.3.1 Cas discret . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154 4.3.2 Cas continu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157 4.3.3 Convolutions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158 4.4 Covariance et coefficient de corr´ elation . . . . . . . . . . . . . . . . . . . . . . . . 161 4.5 Th´ eor` emes limites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166 4.6 Exercices du chapitre 4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169 4 Statistique descriptive et estimation . . . . . . . . . . . . . . . . . . . . . . . . . 205 5.1 Statistique descriptive . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205 5.1.1 Tableaux d’effectifs ou de fr´ equences . . . . . . . . . . . . . . . . . . . . 206 5.1.2 Repr´ esentations graphiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207 5.1.3 Quantit´ es calcul´ ees en utilisant les donn´ ees . . . . . . . . . . . . . . 209 5.2 Estimation ponctuelle. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212 5.2.1 Propri´ et´ es des estimateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 214 5.2.2 La m´ ethode du maximum de vraisemblance . . . . . . . . . . . . . . 221 5

  10. Table des mati` eres XI 5.3 Distributions d’´ echantillonnage. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225 5.4 Estimation par intervalles de confiance . . . . . . . . . . . . . . . . . . . . . . . . 232 5.4.1 Intervalle de confiance pour µ; σ connu . . . . . . . . . . . . . . . . . . 233 5.4.2 Intervalle de confiance pour µ; σ inconnu . . . . . . . . . . . . . . . . 235 5.4.3 Intervalles de confiance pour µX− µY . . . . . . . . . . . . . . . . . . . 237 5.4.4 Intervalles de confiance pour σ2. . . . . . . . . . . . . . . . . . . . . . . . 238 5.4.5 Intervalle de confiance pour σ2 5.4.6 Intervalle de confiance pour p . . . . . . . . . . . . . . . . . . . . . . . . . . 243 5.4.7 Intervalle de confiance pour pX− pY . . . . . . . . . . . . . . . . . . . . 245 5.4.8 Intervalle de confiance bas´ e sur θV M . . . . . . . . . . . . . . . . . . . . 245 5.5 Exercices du chapitre 5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 246 Y. . . . . . . . . . . . . . . . . . . . . 242 X/σ2 Tests d’hypoth` eses . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 285 6.1 Introduction et terminologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 286 6.1.1 Les esp` eces d’erreurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 287 6.2 Tests d’ajustement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 289 6.2.1 Test d’ajustement du khi-deux de Pearson . . . . . . . . . . . . . . . 289 6.2.2 Test de Shapiro-Wilk. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 292 6.2.3 Test de Kolmogorov-Smirnov. . . . . . . . . . . . . . . . . . . . . . . . . . . 294 6.3 Test d’ind´ ependance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 297 6.4 Tests au sujet des param` etres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 299 6.4.1 Test d’une moyenne th´ eorique µ; σ connu . . . . . . . . . . . . . . . . 299 6.4.2 Test d’une moyenne th´ eorique µ; σ inconnu . . . . . . . . . . . . . . 305 6.4.3 Test d’une variance th´ eorique σ2. . . . . . . . . . . . . . . . . . . . . . . . 307 6.4.4 Test d’une proportion th´ eorique p. . . . . . . . . . . . . . . . . . . . . . . 310 6.4.5 Test de l’´ egalit´ e de deux moyennes; variances connues . . . . . 312 6.4.6 Test de l’´ egalit´ e de deux moyennes; variances inconnues . . . 315 6.4.7 Test de deux moyennes avec observations appari´ ees . . . . . . . 318 6.4.8 Test de l’´ egalit´ e de deux variances . . . . . . . . . . . . . . . . . . . . . . 319 6.4.9 Test de l’´ egalit´ e de deux proportions . . . . . . . . . . . . . . . . . . . . 321 6.4.10 Test de l’´ egalit´ e de plusieurs proportions. . . . . . . . . . . . . . . . . 322 6.4.11 Test de l’´ egalit´ e de plusieurs moyennes; analyse de la variance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 324 6.5 Exercices du chapitre 6 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 328 6 R´ egression lin´ eaire simple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 381 7.1 Le mod` ele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 381 7.2 Tests d’hypoth` eses . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 385 7

  11. XII Table des mati` eres 7.3 Intervalles et ellipses de confiance . . . . . . . . . . . . . . . . . . . . . . . . . . . . 389 7.4 Le coefficient de d´ etermination . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 391 7.5 L’analyse des r´ esidus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 392 7.6 R´ egression curviligne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 395 7.7 Corr´ elation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 398 7.8 Exercices du chapitre 7 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 401 Fiabilit´ e . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 423 8.1 Notions de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 423 8.2 Fiabilit´ e des syst` emes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 433 8.2.1 Syst` emes en s´ erie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 434 8.2.2 Syst` emes en parall` ele. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 436 8.2.3 Autres cas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 441 8.3 Liens et coupes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 444 8.4 Exercices du chapitre 8 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 450 8 Files d’attente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 463 9.1 Chaˆ ınes de Markov ` a temps continu . . . . . . . . . . . . . . . . . . . . . . . . . . 463 9.2 Syst` emes de files d’attente avec un seul serveur . . . . . . . . . . . . . . . . 471 9.2.1 Mod` ele M/M/1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 473 9.2.2 Mod` ele M/M/1 ` a capacit´ e finie . . . . . . . . . . . . . . . . . . . . . . . . 482 9.3 Syst` emes de files d’attente avec deux ou plusieurs serveurs. . . . . . . 489 9.3.1 Mod` ele M/M/s . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 489 9.3.2 Mod` ele M/M/s/c . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 495 9.4 Exercices du chapitre 9 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 498 9 Tableaux statistiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 513 A Quantiles. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 517 B R´ eponses - Exercices ` a num´ eros pairs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 521 C R´ eponses - Questions ` a choix multiple . . . . . . . . . . . . . . . . . . . . . . . . . . . . 533 D Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 535 Index . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 537

  12. Liste des tableaux 3.1 Moyennes et variances des distributions de probabilit´ e des sections 3.2 et 3.3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107 5.1 5.2 5.3 5.4 Valeurs de zα. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234 Valeurs de tα,n. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 236 Valeurs de χ2 Valeurs de Fα,n1,n2. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243 α,n. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 240 6.1 Valeurs critiques de la statistique Dn . . . . . . . . . . . . . . . . . . . . . . . . . 295 A.1 Fonction de r´ epartition de la distribution binomiale . . . . . . . . . . . . . 514 A.2 Fonction de r´ epartition de la distribution de Poisson . . . . . . . . . . . . 515 A.3 Valeurs de la fonction Φ(z) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 516 A.4 Valeurs de la fonction Q−1(p) pour quelques valeurs de p . . . . . . . . 516

  13. Liste des figures 1.1 1.2 1.3 Fonction de densit´ e conjointe dans l’exemple 1.3.5 . . . . . . . . . . . . . . 15 R´ egion d’int´ egration dans l’exemple 1.3.5 . . . . . . . . . . . . . . . . . . . . . . 16 R´ egion A dans l’exercice r´ esolu no8 . . . . . . . . . . . . . . . . . . . . . . . . . . 25 2.1 2.2 2.3 2.4 2.5 2.6 2.7 2.8 2.9 2.10 Exemple d’arbre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46 2.11 Arbre dans l’exemple 2.6.1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 2.12 Figure pour l’exercice no1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 2.13 Figure pour l’exercice no8. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60 2.14 Figure pour l’exercice no13. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 2.15 Figure pour l’exercice no15. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62 2.16 Figure pour l’exercice no22. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64 Diagramme de Venn pour l’exemple 2.2.1 . . . . . . . . . . . . . . . . . . . . . . 37 Diagramme de Venn pour trois ´ ev´ enements quelconques . . . . . . . . . 37 Probabilit´ e de l’union de deux ´ ev´ enements quelconques. . . . . . . . . . 39 Diagramme de Venn pour l’exemple 2.3.1 . . . . . . . . . . . . . . . . . . . . . . 41 Notion de probabilit´ e conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . 42 Syst` eme pour la partie (a) de l’exemple 2.4.1 . . . . . . . . . . . . . . . . . . 43 Diagramme de Venn pour la partie (a) de l’exemple 2.4.1 . . . . . . . . 43 Syst` eme pour la partie (b) de l’exemple 2.4.1 . . . . . . . . . . . . . . . . . . 44 Exemple de la r` egle de la probabilit´ e totale avec n = 3 . . . . . . . . . . 45 3.1 Fonction de r´ epartition de la variable al´ eatoire dans l’exemple 3.1.1 (ii) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73 Fonction de densit´ e de la variable al´ eatoire dans l’exemple 3.1.3 . . 76 Fonction de r´ epartition de la variable al´ eatoire dans l’exemple 3.1.3 77 Fonctions de probabilit´ e de variables al´ eatoires binomiales . . . . . . . 79 3.2 3.3 3.4 Extrait de la publication

  14. XVI Liste des figures 3.5 3.6 3.7 Fonction de probabilit´ e d’une variable al´ eatoire g´ eom´ etrique . . . . . 81 Fonction de densit´ e d’une variable al´ eatoire normale . . . . . . . . . . . . 88 Fonctions de densit´ e de diverses variables al´ eatoires qui pr´ esentent une distribution gamma avec λ = 1 . . . . . . . . . . . . . . . . . 93 Fonction de densit´ e de probabilit´ e d’une variable al´ eatoire uniforme sur l’intervalle (a,b) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96 Coefficient d’asym´ etrie des distributions exponentielles . . . . . . . . . . 110 3.10 Coefficient d’asym´ etrie des distributions uniformes. . . . . . . . . . . . . . 111 3.8 3.9 4.1 4.2 4.3 4.4 4.5 4.6 Fonction de r´ epartition conjointe dans l’exemple 4.2.2 . . . . . . . . . . . 153 Fonction de densit´ e dans l’exemple 4.3.4. . . . . . . . . . . . . . . . . . . . . . . 158 Figure pour l’exercice r´ esolu no12 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173 Figure pour l’exercice r´ esolu no27 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183 Figure pour l’exercice no5. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187 Figure pour l’exercice no6. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189 5.1 Polygone d’effectifs construit en se servant des donn´ ees de l’exemple 5.1.1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208 Histogramme obtenu avec les donn´ ees de l’exemple 5.1.1. . . . . . . . . 208 Exemples de distributions de Student . . . . . . . . . . . . . . . . . . . . . . . . . 227 Fonction de densit´ e de la distribution de Fisher avec m = 4 et n = 8 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228 D´ efinition de la quantit´ e zα/2pour une variable al´ eatoire Z qui pr´ esente une distribution normale centr´ ee r´ eduite . . . . . . . . . . . . . . . 233 D´ efinition de la quantit´ e tα/2,n−1pour une variable al´ eatoire T qui pr´ esente une distribution tn−1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 236 D´ efinition des quantit´ es χ2 al´ eatoire X qui pr´ esente une distribution χ2 D´ efinition des quantit´ es Fα/2,n1,n2et F1−α/2,n1,n2pour une variable al´ eatoire X qui pr´ esente une distribution Fn1,n2. . . . . . . . . 242 5.2 5.3 5.4 5.5 5.6 5.7 α/2,n−1et χ2 1−α/2,n−1pour une variable n−1. . . . . . . . . . . . . . . . . 239 5.8 6.1 Erreur de premi` ere et de deuxi` eme esp` ece dans le cas du test unilat´ eral ` a droite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 303 7.1 7.2 7.3 Graphique dans l’exemple 7.1.1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 384 R´ esidus formant une bande uniforme. . . . . . . . . . . . . . . . . . . . . . . . . . 393 R´ esidus indiquant au moins une hypoth` ese non v´ erifi´ ee . . . . . . . . . . 394 8.1 Taux de panne ayant la forme d’une baignoire . . . . . . . . . . . . . . . . . 431

  15. Liste des figures XVII 8.2 8.3 Un syst` eme en pont . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 443 Un syst` eme en pont repr´ esent´ e comme un syst` eme en parall` ele form´ e de ses liens minimaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 448 Un syst` eme en pont repr´ esent´ e comme un syst` eme en s´ erie form´ e de ses coupes minimales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 448 Figure pour l’exercice no16. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 458 Figure pour la question ` a choix multiple no9 . . . . . . . . . . . . . . . . . . 461 8.4 8.5 8.6 9.1 9.2 Diagramme de transitions pour le mod` ele M/M/1 . . . . . . . . . . . . . . 475 Diagramme de transitions pour le mod` ele de file d’attente de l’exemple 9.2.2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 480 Diagramme de transitions pour le mod` ele de file d’attente de l’exemple 9.2.4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 488 Diagramme de transitions pour le mod` ele M/M/2 . . . . . . . . . . . . . . 490 Figure pour l’exemple 9.3.1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 493 9.3 9.4 9.5

  16. 1 R´ evision du calcul diff´ erentiel et int´ egral Ce chapitre pr´ esente les principaux r´ esultats du calcul diff´ erentiel et int´ egral utilis´ es en probabilit´ es. Souvent, les ´ etudiants qui suivent un cours sur la th´ eorie des probabilit´ es ´ eprouvent de la difficult´ e ` a saisir des concepts comme les int´ egrales et les s´ eries infinies. Nous rappelons en particulier la technique d’int´ egration par parties. 1.1 Limites et continuit´ e La limite d’une fonction est d´ efinie formellement comme suit. D´ efinition 1.1.1. Soit f une fonction ` a valeurs r´ eelles. On dit que f(x) tend vers f0(∈ R) lorsque x tend vers x0si, pour n’importe quel nombre positif ?, il existe un nombre positif δ tel que 0 < |x − x0| < δ =⇒ |f(x) − f0| < ? On ´ ecrit: limx→x0f(x) = f0. C’est-` a-dire que f0 est la limite de la fonction f(x) lorsque x tend vers x0. Remarques. (i) La limite peut exister mˆ eme si la fonction f(x) n’est pas d´ efinie au point x0. (ii) Il est possible que f(x0) existe, mais que f(x0) 6= f0. (iii) On ´ ecrit que limx→x0f(x) = ∞ si, pour n’importe quel M > 0 (aussi grand que l’on veut), il existe un δ > 0 tel que 0 < |x − x0| < δ =⇒ f(x) > M Extrait de la publication

  17. 2 1 R´ evision du calcul diff´ erentiel et int´ egral De fa¸ con similaire, on peut avoir limx→x0f(x) = −∞. (iv) Dans la d´ efinition, on suppose que x0est un nombre r´ eel. Cependant, on peut g´ en´ eraliser cette d´ efinition au cas o` u x0= ±∞. Parfois, on s’int´ eresse ` a la limite de la fonction f(x) lorsque x d´ ecroˆ ıt ou croˆ ıt vers un nombre r´ eel donn´ e x0. La limite ` a droite (respectivement limite ` a gauche) de la fonction f(x) lorsque x d´ ecroˆ ıt (respectivement croˆ ıt) vers x0 est not´ ee limx↓x0f(x) (respectivement limx↑x0f(x)). Certains auteurs ´ ecrivent limx→x+ vers x0existe, alors 0f(x) (respectivement limx→x− 0f(x)). Si la limite de f(x) lorsque x tend x↓x0f(x) = lim lim x↑x0f(x) = lim x→x0f(x) D´ efinition 1.1.2. On dit que la fonction ` a valeurs r´ eelles f(x) est continue au point x0∈ R si (i) elle est d´ efinie en ce point, (ii) la limite lorsque x tend vers x0 existe, et (iii) limx→x0f(x) = f(x0). Si f est continue en tout point x0∈ [a,b] (ou (a,b), etc.), alors on dit que f est continue dans cet intervalle. Remarques. (i) Dans ce livre, un intervalle ferm´ e est not´ e [a,b], tandis que (a,b) est un intervalle ouvert. On a aussi, bien sˆ ur, les intervalles [a,b) et (a,b]. (ii) Si l’on ´ ecrit plutˆ ot, dans la d´ efinition, que la limite limx↓x0f(x) (respecti- vement limx↑x0f(x)) existe et est ´ egale ` a f(x0), alors on dit que la fonction est continue ` a droite (respectivement continue ` a gauche) en x0. Une fonction qui est continue en un certain point x0tel que a < x0< b est ` a la fois continue ` a droite et continue ` a gauche en ce point. (iii) On dit qu’une fonction f est continue par morceaux dans un intervalle [a,b] si cet intervalle peut ˆ etre divis´ e en un nombre fini de sous-intervalles dans lesquels f est continue et poss` ede des limites ` a gauche et ` a droite. (iv) Soit f(x) et g(x) deux fonctions ` a valeurs r´ eelles. La composition des deux fonctions est not´ ee g ◦ f et est d´ efinie par (g ◦ f)(x) = g[f(x)] Au chapitre 3, nous utiliserons le r´ esultat suivant: la composition de deux fonc- tions continues est aussi une fonction continue.

  18. 1.1 Limites et continuit´ e 3 Exemple 1.1.1. Consid´ erons la fonction ?0 si x < 0 u(x) = (1.1) 1 si x ≥ 0 laquelle est connue sous le nom de fonction de Heaviside ou fonction ´ echelon unitaire. En probabilit´ es, cette fonction correspond ` a la fonction de r´ epartition de la constante 1. Elle est aussi utilis´ ee pour indiquer que les valeurs possibles d’une certaine variable al´ eatoire sont l’ensemble des nombres r´ eels non n´ egatifs. Par exemple, ´ ecrire que fX(x) = e−xu(x) pour tout x ∈ R est ´ equivalent ` a ´ ecrire que ? 0 si x < 0 e−xsi x ≥ 0 fX(x) = o` u fX(x) est appel´ ee fonction de densit´ e de la variable al´ eatoire X. La fonction u(x) est d´ efinie pour tout x ∈ R. Dans d’autres contextes, la valeur de u(0) est choisie autrement que ci-dessus. Par exemple, dans certaines applications, u(0) = 1/2. De toute fa¸ con, la fonction ´ echelon unitaire est continue partout, except´ e ` a l’origine, parce que (dans le cas pr´ esent) lim x↓0u(x) = 1 et lim x↑0u(x) = 0 Cependant, avec le choix u(0) = 1, on peut affirmer que u(x) est continue ` a droite en x = 0. ♦ Les d´ efinitions pr´ ec´ edentes peuvent ˆ etre ´ etendues au cas des fonctions ` a valeurs r´ eelles de deux (ou plusieurs) variables. En particulier, la fonction f(x,y) est continue au point (x0,y0) si lim x → x0 y → y0 f(x,y) = f( lim x→x0x, lim y→y0y) Cette formule implique que la fonction f(x,y) est d´ efinie en (x0,y0) et que la limite de f(x,y) lorsque (x,y) tend vers (x0,y0) existe et est ´ egale ` a f(x0,y0).

  19. 4 1 R´ evision du calcul diff´ erentiel et int´ egral 1.2 D´ eriv´ ees D´ efinition 1.2.1. Supposons que la fonction f(x) est d´ efinie en x0∈ (a,b). Si f(x) − f(x0) x − x0 existe, on dit que la fonction f(x) est d´ erivable au point x0et que f0(x0) est la d´ eriv´ ee de f(x) (par rapport ` a x) en x0. f(x0+ ∆x) − f(x0) ∆x f0(x0) := lim ≡ lim ∆x→0 x→x0 Remarques. (i) Pour que la fonction f(x) soit d´ erivable en x0, elle doit au moins ˆ etre continue en ce point. Cependant, cette condition n’est pas suffisante, comme on peut s’en rendre compte dans l’exemple 1.2.1. (ii) Si la limite est prise lorsque x ↓ x0(respectivement x ↑ x0) dans la d´ efinition pr´ ec´ edente, le r´ esultat (si la limite existe) est appel´ e d´ eriv´ ee ` a droite (respecti- vement d´ eriv´ ee ` a gauche) de f(x) en x0, laquelle est parfois not´ ee f0(x+ pectivement f0(x− (iii) La d´ eriv´ ee de f en un point arbitraire x est aussi not´ ee Si l’on pose y = f(x), alors 0) (res- 0) = f0(x− 0)). Si f0(x0) existe, alors f0(x+ 0). dxf(x), ou Df(x). d ????x=x0 f0(x0) ≡dy dx (iv) Si on d´ erive f0(x), on obtient la d´ eriv´ ee seconde de la fonction f, not´ ee f00(x) ou d´ eriv´ ee troisi` eme de f, et ainsi de suite. (v) Une fa¸ con de trouver les valeurs de x qui maximisent ou minimisent la fonction f(x) est de calculer la d´ eriv´ ee premi` ere f0(x) et de r´ esoudre l’´ equation f0(x) = 0. Si f0(x0) = 0 et f00(x0) < 0 (respectivement f00(x0) > 0), alors f poss` ede un maximum (respectivement un minimum) relatif en x = x0. Si f0(x) 6= 0 pour tout x ∈ R, on peut v´ erifier si la fonction f(x) est toujours croissante ou d´ ecroissante dans l’intervalle d’int´ erˆ et. d2 dx2f(x). De fa¸ con similaire, f000(x) (ou f(3)(x), ou d3 dx3f(x)) est la Exemple 1.2.1. La fonction f(x) = |x| est continue partout, mais n’est pas d´ erivable ` a l’origine, car on trouve que f0(x− f0(x+ 0) = 1 et 0) = −1 ♦

  20. 1.2 D´ eriv´ ees 5 Exemple 1.2.2. La fonction u(x) d´ efinie dans l’exemple 1.1.1 n’est ´ evidemment pas d´ erivable en x = 0, parce qu’elle n’est pas continue en ce point. ♦ Exemple 1.2.3. La fonction   X(x) de FX(x), laquelle est not´ ee fX(x) en 0 si x < 0 x si 0 ≤ x ≤ 1 1 si x > 1  FX(x) = est d´ efinie et continue partout. Elle est aussi d´ erivable partout, except´ e en x = 0 et x = 1. On trouve que la d´ eriv´ ee F0 probabilit´ es, est donn´ ee par ?1 si 0 ≤ x ≤ 1 Notons que fX(x) est discontinue en x = 0 et x = 1. Plus pr´ ecis´ ement, 1 = F0(0+) = F0(1−) (tandis que F0(0−) = F0(1+) = 0). La fonction FX(x) est un exemple de fonction de r´ epartition en probabilit´ es. Remarque. En utilisant la th´ eorie des distributions, on peut ´ ecrire que la d´ eriv´ ee de la fonction de Heaviside u(x) est la fonction delta de Dirac δ(x) d´ efinie par ?0 si x 6= 0 La fonction delta de Dirac est en fait une fonction g´ en´ eralis´ ee. Elle est, par d´ efinition, telle que Z∞ On a aussi, si f(x) est continue en x = x0, que Z∞ Nous ne rappellerons pas les r` egles de d´ erivation de base, sauf celle qui s’applique ` a la d´ eriv´ ee d’un quotient: fX(x) = 0 ailleurs ♦ δ(x) = (1.2) ∞ si x = 0 δ(x)dx = 1 −∞ f(x)δ(x − x0)dx = f(x0) −∞ f(x) g(x)=g(x)f0(x) − f(x)g0(x) d si g(x) 6= 0 g2(x) dx Remarque. Notons que cette formule peut aussi ˆ etre obtenue en d´ erivant le pro- duit f(x)h(x), o` u h(x) := 1/g(x).

  21. 2 Probabilit´ es ´ el´ ementaires Ce premier chapitre consacr´ e aux probabilit´ es contient les d´ efinitions et concepts de base, tels qu’ils peuvent ˆ etre enseign´ es dans un cours de niveau coll´ egial, c’est-` a-dire pr´ euniversitaire, sur ce sujet. Cependant, la gamme de probl` emes qui peuvent ˆ etre compos´ es en utilisant les formules des probabilit´ es ´ el´ ementaires est tr` es ´ etendue, particuli` erement en analyse combinatoire, et il est n´ ecessaire de faire beaucoup d’exercices pour bien assimiler ces notions de base. 2.1 Exp´ eriences al´ eatoires Une exp´ erience al´ eatoire est une exp´ erience qui, au moins th´ eoriquement, peut ˆ etre r´ ep´ et´ ee aussi souvent que l’on veut et dont on ne peut pas pr´ edire le r´ esultat; par exemple, le jet d’un d´ e ` a jouer. Chaque fois que l’exp´ erience est r´ ep´ et´ ee, un r´ esultat ´ el´ ementaire est obtenu. L’ensemble des r´ esultats ´ el´ ementaires d’une exp´ erience al´ eatoire est appel´ e espace ´ echantillon; on le notera Ω. Les espaces ´ echantillons peuvent ˆ etre discrets ou continus. (a) Espaces ´ echantillons discrets: (i) si le nombre de r´ esultats possibles est fini. Par exemple, on lance un d´ e et l’on observe le nombre qui apparaˆ ıt; alors Ω = {1,2,...,6}. (ii) Si le nombre de r´ esultats possibles est infini d´ enombrable; cela signifie qu’il y a un nombre infini de r´ esultats possibles mais qu’on peut associer un nombre naturel ` a chaque r´ esultat. Par exemple, on lance un d´ e jusqu’` a ce qu’on obtienne le chiffre “6” et on compte le nombre de lancers effectu´ es avant d’obtenir ce premier “6”; alors on a: Ω = {0,1,2,...}. Cet ensemble est ´ equivalent ` a

  22. 36 2 Probabilit´ es ´ el´ ementaires l’ensemble des entiers naturels {1,2,...} puisque l’on peut associer le nombre naturel k + 1 ` a tout ´ el´ ement k = 0,1,... de Ω. (b) Espaces ´ echantillons continus: si l’espace ´ echantillon contient un ou plusieurs intervalles; l’espace ´ echantillon est alors infini non d´ enombrable. Par exemple, on lance un d´ e jusqu’` a ce que l’on obtienne un “6” et l’on calcule le temps que cela a pris pour obtenir ce premier “6”. Dans ce cas, on a: Ω = {t ∈ R : t > 0} (ou Ω = (0,∞)). 2.2´Ev´ enements D´ efinition 2.2.1. Un ´ ev´ enement est un ensemble de r´ esultats ´ el´ ementaires. C’est-` a-dire que c’est un sous-ensemble de l’espace ´ echantillon Ω. En particulier, chaque r´ esultat ´ el´ ementaire est un ´ ev´ enement, de mˆ eme que l’espace ´ echantillon lui-mˆ eme. Remarques. (i) Un r´ esultat ´ el´ ementaire est parfois appel´ e ´ ev´ enement simple, tandis qu’un ´ ev´ enement compos´ e est constitu´ e d’au moins deux r´ esultats ´ el´ ementaires. (ii) On d´ esignera les ´ ev´ enements par A, B, C, etc. D´ efinition 2.2.2. On dit que deux ´ ev´ enements, A et B, sont incompatibles (ou mutuellement exclusifs) si leur intersection est vide. On ´ ecrit alors: A ∩ B = ∅. Exemple 2.2.1. Consid´ erons l’exp´ erience qui consiste ` a lancer un d´ e ` a jouer et ` a observer le nombre qui apparaˆ ıt. On a: Ω = {1,2,3,4,5,6}. Soit les ´ ev´ enements A = {1,2,4}, On a: A ∪ B = {1,2,4,6}, Donc, A et C sont des ´ ev´ enements incompatibles. De plus, on peut ´ ecrire que A0= {3,5,6}, o` u le symbole0d´ esigne le compl´ ement de l’´ ev´ enement. Pour repr´ esenter un espace ´ echantillon et des ´ ev´ enements, on utilise souvent un diagramme de Venn comme dans la figure 2.1. En g´ en´ eral, pour trois ´ ev´ enements on a le diagramme de la figure 2.2, ` a la page 37. B = {2,4,6} et C = {3,5} A ∩ B = {2,4} et A ∩ C = ∅ ♦ Extrait de la publication

  23. 2.3 Probabilit´ e 37 Ω A C B 2 4 3 5 1 6 Fig. 2.1. Diagramme de Venn pour l’exemple 2.2.1 Ω B A ω = A B C 1 ω = A B' C' 5 U U U U U U ω ω ω ω = A' B C' ω = A' B' C 7 U ω = A B C' 2 U ω U U 5 2 6 6 1 U U ω = A B' C 3 U ω ω 4 3 ω = A' B C 4 ω = A' B' C' 8 U U U ω ω 8 7 C Fig. 2.2. Diagramme de Venn pour trois ´ ev´ enements quelconques 2.3 Probabilit´ e D´ efinition 2.3.1. La probabilit´ e d’un ´ ev´ enement A ⊆ Ω, not´ ee P[A], est un nombre r´ eel obtenu en appliquant ` a A la fonction P qui poss` ede les propri´ et´ es suivantes: (i) 0 ≤ P[A] ≤ 1; (ii) si A = Ω, alors P[A] = 1; (iii) si A = A1∪A2∪...∪An, o` u A1,...,Ansont des ´ ev´ enements incompatibles, alors on peut ´ ecrire que n X P[A] = P[Ai] pour n = 2,3,...,∞ (2.1) i=1 Remarques. (i) En fait, il suffit de poser que P[A] ≥ 0 dans la d´ efinition, car on peut montrer que

  24. 38 2 Probabilit´ es ´ el´ ementaires P[A] + P[A0] = 1 (2.2) ce qui implique que P[A] = 1 − P[A0] ≤ 1. (ii) On a aussi les r´ esultats suivants: P[∅] = 0 et P[A] ≤ P[B] si A ⊂ B (2.3) (iii) La d´ efinition de la probabilit´ e d’un ´ ev´ enement est motiv´ ee par la notion de fr´ equence relative. Par exemple, supposons que l’on effectue un grand nombre de fois l’exp´ erience al´ eatoire qui consiste ` a lancer un d´ e, et que l’on d´ esire obtenir la probabilit´ e d’un des r´ esultats possibles de cette exp´ erience, soit les entiers 1,2,...,6. La fr´ equence relative du r´ esultat k est la quantit´ e fk(n) d´ efinie par fk(n) =Nk(n) (2.4) n o` u Nk(n) est le nombre de fois que le r´ esultat possible k s’est produit au cours de n lancers du d´ e. On peut ´ ecrire que 0 ≤ fk(n) ≤ 1 pour k = 1,2,...,6 (2.5) et que 6 X fk(n) = 1 (2.6) k=1 En effet, on a ´ evidemment: Nk(n) ∈ {0,1,...,n}, de sorte que fk(n) ∈ [0,1], et 6 X De plus, si A est un ´ ev´ enement qui contient deux r´ esultats possibles, par exemple “1” et “2”, alors fA(n) = f1(n) + f2(n) car les r´ esultats 1 et 2 ne peuvent pas se produire lors du mˆ eme lancer du d´ e. Finalement, la probabilit´ e du r´ esultat k peut th´ eoriquement ˆ etre obtenue en prenant la limite de fk(n) lorsque le nombre n de lancers tend vers l’infini: fk(n) =N1(n) + ... + N6(n) =n n= 1 (2.7) n k=1 (2.8) P[{k}] = lim n→∞fk(n) (2.9) Puisque la probabilit´ e d’un ´ ev´ enement peut ˆ etre exprim´ ee en fonction de la fr´ equence relative de cet ´ ev´ enement, il est naturel que les propri´ et´ es que les Extrait de la publication

  25. 3 Variables al´ eatoires Les ´ el´ ements d’un espace ´ echantillon peuvent prendre diverses formes: nombres r´ eels, mais aussi marque d’un objet, couleur, “bon” ou “d´ efectueux”, etc. Comme il est plus facile de travailler avec des nombres r´ eels, dans ce chapitre nous allons transformer tous les r´ esultats ´ el´ ementaires en valeurs num´ eriques, ` a l’aide de variables al´ eatoires. Nous allons voir les cas particuliers les plus importants et d´ efinir les principales fonctions qui caract´ erisent les variables al´ eatoires. 3.1 Introduction D´ efinition 3.1.1. Une variable al´ eatoire est une fonction ` a valeurs num´ eri- ques (r´ eelles) d´ efinie sur un espace ´ echantillon. Exemple 3.1.1. (i) Supposons qu’on lance une pi` ece de monnaie; la fonction X qui associe le nombre 1 au r´ esultat “face” et le nombre 0 au r´ esultat “pile” est une variable al´ eatoire. (ii) Supposons maintenant qu’on lance un d´ e; la fonction X qui associe ` a chaque r´ esultat ´ el´ ementaire le nombre obtenu (de sorte que X est la fonction identit´ e dans ce cas) est aussi une variable al´ eatoire. ♦ Exemple 3.1.2. Consid´ erons l’exp´ erience al´ eatoire qui consiste ` a observer le temps T qu’une personne doit attendre ` a un guichet automatique avant de pou- voir s’en servir; la fonction T est une variable al´ eatoire. ♦

  26. 72 3 Variables al´ eatoires 3.1.1 Cas discret D´ efinition 3.1.2. Une variable al´ eatoire est dite de type discret si le nombre de valeurs diff´ erentes qu’elle peut prendre est fini ou infini d´ enombrable. D´ efinition 3.1.3. La fonction pX qui associe ` a chaque valeur possible de la variable al´ eatoire (discr` ete) X la probabilit´ e de cette valeur est appel´ ee fonction de probabilit´ e ou masse de probabilit´ e de X. Soit {x1,x2,...} l’ensemble des valeurs possibles de la variable al´ eatoire discr` ete X; la fonction pXposs` ede les propri´ et´ es suivantes: (i) pX(xk) ≥ 0 pour tout k; (ii)P∞ Exemple 3.1.1 (suite). (i) Si la pi` ece de monnaie est bien ´ equilibr´ ee (non truqu´ ee), on peut ´ ecrire que k=1pX(xk) = 1. 0 1 x pX(x) 1/2 1/2 (ii) De mˆ eme, si le d´ e est bien ´ equilibr´ e, alors on a le tableau suivant: 1 2 3 4 5 6 x pX(x) 1/6 1/6 1/6 1/6 1/6 1/6 ♦ D´ efinition 3.1.4. La fonction FXqui associe ` a chaque nombre r´ eel x la proba- bilit´ e P[X ≤ x] que la variable al´ eatoire X prenne une valeur inf´ erieure ou ´ egale ` a ce nombre est appel´ ee fonction de r´ epartition de X. On a: X Remarque. La fonction FXest non d´ ecroissante et continue ` a droite. FX(x) = pX(xk) (3.1) xk≤x Exemple 3.1.1 (suite). (i) Dans le cas de la pi` ece de monnaie, on trouve facilement (si P[{face}] = 1/2) que x FX(x) 1/2 1 0 1

  27. 3.1 Introduction 73 Remarque. De fa¸ con plus compl` ete, on peut ´ ecrire que   0 si x < 0 1/2 si 0 ≤ x < 1 1 si x ≥ 1  FX(x) = o` u x est un nombre r´ eel quelconque. (ii) Si le d´ e est bien ´ equilibr´ e, alors on d´ eduit de la fonction pX(x) le tableau suivant: x 1 2 FX(x) 1/6 1/3 1/2 2/3 5/6 1 (voir la figure 3.1). 3 4 5 6 ♦ 1 0.8 0.6 0.4 0.2 0 5 7 1 2 3 4 6 x Fig. 3.1. Fonction de r´ epartition de la variable al´ eatoire dans l’exemple 3.1.1 (ii) 3.1.2 Cas continu D´ efinition 3.1.5. Une variable al´ eatoire qui peut prendre un nombre infini non d´ enombrable de valeurs est dite variable al´ eatoire de type continu. Exemple 3.1.2 (suite). Puisque l’ensemble des valeurs possibles de la variable al´ eatoire T de l’exemple 3.1.2 est l’intervalle (0,∞), T est une variable al´ eatoire continue. Remarque. On suppose dans l’exemple ci-dessus que la personne ne peut pas arriver et commencer imm´ ediatement ` a se servir du guichet, sinon T serait une variable al´ eatoire de type mixte, qui est une variable ` a la fois discr` ete et continue. Nous n’insisterons pas sur ce type de variable al´ eatoire dans ce manuel. ♦ Extrait de la publication

  28. 74 3 Variables al´ eatoires D´ efinition 3.1.6. La fonction de densit´ e (de probabilit´ e) d’une variable al´ eatoire continue X est une fonction fXqui poss` ede les propri´ et´ es suivantes: (i) fX(x) ≥ 0 pour tout nombre r´ eel x; (ii)R∞ La fonction de densit´ e est diff´ erente de la fonction de probabilit´ e pXd’une va- riable al´ eatoire discr` ete. En effet, fX(x) ne donne pas la probabilit´ e que la varia- ble al´ eatoire X prenne la valeur x. De plus, on peut avoir l’in´ egalit´ e fX(x) > 1. En fait, on peut ´ ecrire que h o` u ? > 0 est petit. Ainsi, fX(x)? ´ egale environ la probabilit´ e que X prenne une valeur dans un intervalle de longueur ? autour de x. −∞fX(x)dx = 1. i x −? 2≤ X ≤ x +? fX(x)? ’ P 2 D´ efinition 3.1.7. La fonction de r´ epartition FX d’une variable al´ eatoire continue X est d´ efinie par Zx FX(x) = P[X ≤ x] = fX(u)du (3.2) −∞ On d´ eduit de cette d´ efinition que P[X = x] = P[x ≤ X ≤ x] = P[X ≤ x] − P[X < x] = −∞ pour tout nombre r´ eel x, o` u x−signifie que le point x n’est pas inclus dans l’int´ egrale. C’est-` a-dire que, avant d’effectuer l’exp´ erience al´ eatoire, la proba- bilit´ e que l’on obtienne une valeur particuli` ere d’une variable al´ eatoire continue est nulle. Ainsi, si l’on prend un point au hasard dans l’intervalle [0,1], on peut affirmer que le point que l’on obtiendra n’avait, a priori, aucune chance d’ˆ etre choisi! On d´ eduit aussi de la d´ efinition que Zx Zx− fX(u)du − fX(u)du = 0 −∞ d dxFX(x) = fX(x) (3.3) pour tout x o` u FX(x) est d´ erivable. Extrait de la publication

  29. 3.1 Introduction 75 Remarques. (i) Si X est une variable al´ eatoire continue, alors sa fonction de r´ epartition FX est aussi continue. Cependant, une fonction continue n’est pas n´ ecessaire- ment d´ erivable en tout point. De plus, la fonction de densit´ e de X peut ˆ etre une fonction discontinue, comme dans l’exemple suivant. En fait, fXest une fonction continue par morceaux, c’est-` a-dire une fonction ayant au plus une nombre fini de points de saut (voir la page 2). On dit que fXposs` ede une point de saut en x0 si les deux limites limx↓x0fX(x) et limx↑x0fX(x) existent, mais sont diff´ erentes. (ii) Toute variable al´ eatoire X poss` ede une fonction de r´ epartition FX. Pour simplifier la pr´ esentation, nous pourrions th´ eoriquement d´ efinir la fonction de densit´ e fX comme ´ etant la d´ eriv´ ee de FX, que X soit une variable al´ eatoire de type discret, continu, ou mixte. Nous avons mentionn´ e dans la remarque pr´ ec´ edente que lorsque FXest une fonction continue, sa d´ eriv´ ee est une fonction continue par morceaux. Cependant, dans le cas d’une variable al´ eatoire discr` ete, la fonction de r´ epartition FX est une fonction en escalier, comme dans la fi- gure 3.1. La d´ eriv´ ee d’une fonction en escalier est ´ egale ` a z´ ero partout, sauf aux points de saut xk, k = 1,2,... On peut ´ ecrire que ∞ X d dxFX(x) = P[X = xk]δ(x − xk) k=1 o` u P[X = xk] = limx↓xkFX(x) − limx↑xxFX(x), et δ(·) est la fonction delta de Dirac (voir la page 5). De fa¸ con similaire, la fonction de densit´ e d’une variable al´ eatoire de type mixte fait intervenir la fonction delta de Dirac. Pour ´ eviter d’utiliser cette fonction g´ en´ eralis´ ee, la grande majorit´ e des auteurs pr´ ef` ere con- sid´ erer les variables (et vecteurs) al´ eatoires discr` etes et continues s´ epar´ ement. Dans le cas discret, on d´ efinit la fonction de probabilit´ e pX(xk) = P[X = xk], comme nous l’avons fait ci-dessus, plutˆ ot que la fonction de densit´ e. Exemple 3.1.3. Supposons que le temps d’attente (en minutes) pour ˆ etre servi ` a un guichet dans une banque est une variable al´ eatoire continue X qui poss` ede la fonction de densit´ e (voir la figure 3.2)   Notons que la fonction fXest bien une fonction de densit´ e, car 0 si x < 0 si 0 ≤ x < 1  1/2 fX(x) = 3/(2x4) si x ≥ 1

  30. 4 Vecteurs al´ eatoires On peut g´ en´ eraliser la notion de variable al´ eatoire au cas de deux (ou plusieurs) dimensions. Dans ce manuel, nous n’allons consid´ erer en d´ etail que les vecteurs al´ eatoires de dimension 2. Cependant, l’extension des d´ efinitions au cas multi- dimensionnel est imm´ ediate. Nous allons aussi voir dans ce chapitre le th´ eor` eme le plus important de la th´ eorie des probabilit´ es, soit le th´ eor` eme central limite. Ce chapitre compl` ete la partie du manuel consacr´ ee au calcul des probabilit´ es. 4.1 Vecteurs al´ eatoires discrets La fonction de probabilit´ e conjointe pX,Y(xj,yk) := P [{X = xj} ∩ {Y = yk}] ≡ P[X = xj,Y = yk] du couple de variables al´ eatoires discr` etes (X,Y ), dont les valeurs possibles sont un ensemble (fini ou infini d´ enombrable) de couples (xj,yk) dans le plan, poss` ede les propri´ et´ es suivantes: (i) pX,Y(xj,yk) ≥ 0 ∀(xj,yk); (ii)P∞ P∞ k=1pX,Y(xj,yk) = 1. j=1 La fonction de r´ epartition conjointe FX,Y est d´ efinie par X X FX,Y(x,y) = P[{X ≤ x} ∩ {Y ≤ y}] = pX,Y(xj,yk) (4.1) xj≤x yk≤y Exemple 4.1.1. Consid´ erons la fonction de probabilit´ e conjointe pX,Y qui est donn´ ee par le tableau suivant: Extrait de la publication

  31. 144 4 Vecteurs al´ eatoires y\ x −1 0 1 2 0 1 1/16 1/16 1/16 1/16 1/16 2/16 2/16 1/16 6/16 On peut v´ erifier que la fonction pX,Y poss` ede les deux propri´ et´ es des fonctions de probabilit´ e conjointes ´ enonc´ ees ci-dessus. De plus, ´ etant donn´ e que seuls les couples (−1,0) et (0,0) sont tels que xj≤ 0 et yk≤1 ?0,1 2, on peut ´ ecrire que ?= pX,Y(−1,0) + pX,Y(0,0) =1 FX,Y 8 2 ♦ Lorsqu’on fait la somme de la fonction pX,Y sur toutes les valeurs possibles de Y (respectivement X), on obtient ce que l’on appelle fonction de probabilit´ e marginale de X (respectivement Y ). C’est-` a-dire que ∞ X ∞ X pX(xj) = pX,Y(xj,yk) et pY(yk) = pX,Y(xj,yk) (4.2) j=1 k=1 Exemple 4.1.1 (suite). On trouve que −1 0 1 x Σ pX(x) 1/4 3/16 9/16 1 et 0 1 2 y Σ pY(y) 3/16 1/4 9/16 1 ♦ D´ efinition 4.1.1. Deux variables al´ eatoires discr` etes, X et Y , sont dites ind´ e- pendantes si et seulement si pX,Y(xj,yk) = pX(xj)pY(yk) pour tout couple (xj,yk) (4.3) Exemple 4.1.1 (suite). On a: pX,Y(−1,0) = 1/16, pX(−1) = 1/4 et pY(0) = 3/16. Puisque 1/16 6= (1/4)(3/16), X et Y ne sont pas des variables al´ eatoires ind´ ependantes. ♦

  32. 4.1 Vecteurs al´ eatoires discrets 145 Finalement, soit AXun ´ ev´ enement d´ efini en fonction de la variable al´ eatoire X; par exemple, AX= {X ≥ 0}. On d´ efinit la fonction de probabilit´ e con- ditionnelle de Y , ´ etant donn´ e l’´ ev´ enement AX, par pY(y | AX) ≡ P[Y = y | AX] =P[{Y = y} ∩ AX] si P[AX] > 0 (4.4) P[AX] De mˆ eme, on d´ efinit pX(x | AY) ≡ P[X = x | AY] =P[{X = x} ∩ AY] si P[AY] > 0 (4.5) P[AY] Remarque. Si X et Y sont des variables al´ eatoires discr` etes ind´ ependantes, alors on peut ´ ecrire que pY(y | AX) ≡ pY(y) et pX(x | AY) ≡ pX(x) (4.6) Exemple 4.1.1 (suite). Soit AX= {X = 1}; on a: pY(y | X = 1) =P[{Y = y} ∩ {X = 1}] =pX,Y(1,y) pX(1) 1/9 si y = 0 2/9 si y = 1 2/3 si y = 2 P[X = 1]    =16 9pX,Y(1,y) = ♦ Exemple 4.1.2. Une boˆ ıte contient six transistors, dont un de marque A, deux de marque B et trois de marque C. Deux transistors sont pris au hasard et avec remise. Soit X (respectivement Y ) le nombre de transistors de marque A (respectivement B) parmi les deux tir´ es au hasard. (a) Calculer la fonction de probabilit´ e conjointe pX,Y(x,y). (b) Calculer les fonctions de probabilit´ e marginales. (c) Les variables al´ eatoires X et Y sont-elles ind´ ependantes? Justifier. (d) Calculer la probabilit´ e P[X = Y ]. Solution. (a) Les valeurs possibles du couple (X,Y ) sont: (0,0), (0,1), (1,0), (1,1), (0,2) et (2,0). Puisque les transistors sont pris avec remise, de sorte que les tirages sont ind´ ependants, on obtient le tableau suivant:

  33. 146 4 Vecteurs al´ eatoires y\ x 0 0 1 2 1 2 1/4 1/6 1/36 1/3 1/9 1/9 0 0 0 Par exemple, on a: pX,Y(0,0) = (1/2)(1/2) = 1/4 (par ind´ ependance des tirages) et ind.,sym. = pX,Y(1,0)inc. = P[A1∩ C2] + P[C1∩ A2] 2(1/6)(1/2) = 1/6 o` u Ak: un transistor de marque A est obtenu lors du ketirage, etc. On peut v´ erifier que la somme de toutes les fractions dans le tableau ´ egale 1. Remarque. En fait, les variables al´ eatoires X et Y pr´ esentent des distributions binomiales de param` etres n = 2 et p = 1/6, et de param` etres n = 2 et p = 1/3, respectivement. (b)`A partir du tableau en (a), on trouve que 0 1 2 x Σ pX(x) 25/36 5/18 1/36 1 et 0 1 2 Σ y pY(y) 4/9 4/9 1/9 1 (c) Les variables al´ eatoires X et Y ne sont pas ind´ ependantes, car, par exemple, pX,Y(2,2) = 0 6= pX(2)pY(2) = (1/36)(1/9) Remarque. Les variables al´ eatoires X et Y ne pouvaient pas ˆ etre ind´ ependantes, car la relation 0 ≤ X + Y ≤ 2 doit ˆ etre v´ erifi´ ee. (d) On calcule P[X = Y ] = pX,Y(0,0) + pX,Y(1,1) + pX,Y(2,2) =1 4+1 9+ 0 =13 36 ♦

  34. 4.2 Vecteurs al´ eatoires continus 147 4.2 Vecteurs al´ eatoires continus Soit X et Y deux variables al´ eatoires continues; la g´ en´ eralisation de la notion de fonction de densit´ e au cas de dimension 2 est la fonction de densit´ e conjointe fX,Y du couple (X,Y ) qui poss` ede les propri´ et´ es suivantes: (i) fX,Y(x,y) ≥ 0 pour tout couple (x,y); (ii)R∞ Remarque. En n dimensions, un vecteur al´ eatoire continu poss` ede une fonction de densit´ e conjointe d´ efinie sur Rn(ou un sous-ensemble infini non d´ enombrable de Rn). Cette fonction doit ˆ etre non n´ egative et son int´ egrale sur Rndoit ´ egaler 1. La fonction de r´ epartition conjointe est d´ efinie par R∞ −∞fX,Y(x,y)dxdy = 1. −∞ Zy Zx FX,Y(x,y) = P[X ≤ x,Y ≤ y] = fX,Y(u,v)dudv (4.7) −∞ −∞ Exemple 4.2.1. Consid´ erons la fonction fX,Y d´ efinie par fX,Y(x,y) = cxye−x2−y2 pour x ≥ 0,y ≥ 0 o` u c > 0 est une constante. On a: (i) fX,Y(x,y) ≥ 0 pour tout couple (x,y) avec x ≥ 0 et y ≥ 0 (fX,Y(x,y) = 0 ailleurs) et (ii) Z∞ = c 2 0 0 Z∞ −e−x2 Z∞ Z∞ cxye−x2−y2dxdy = c ????? xe−x2dx ye−y2dy 0 " 0 0 0 ????? #" # ∞ ∞ −e−y2 = c(1/2)(1/2) = c/4 2 Donc, cette fonction est une fonction de densit´ e conjointe valable si et seulement si la constante c ´ egale 4. La fonction de r´ epartition conjointe du couple (X,Y ) est donn´ ee par Zy = 0 0 = 0 Zx 2ue−u2du −e−u2??? 4uve−u2−v2dudv Zy x ih FX,Y(x,y) = 0 0 Zx h 2ve−v2dv i −e−v2??? y = (1 − e−x2)(1 − e−y2) 0

  35. 5 Statistique descriptive et estimation Avec ce chapitre, nous commen¸ cons l’´ etude de la statistique ` a proprement parler. D’abord, nous allons voir les principaux concepts de ce que l’on appelle statis- tique descriptive. Cette mati` ere se trouve souvent avant la partie probabilit´ es dans les manuels de probabilit´ es et statistique pour scientifiques et ing´ enieurs, car elle ne fait pas appel aux notions de probabilit´ es. Toutefois, il nous semble pr´ ef´ erable de pr´ esenter la statistique descriptive imm´ ediatement avant le d´ ebut de la statistique math´ ematique de base. Ainsi, il est plus facile de bien faire la distinction entre des quantit´ es calcul´ ees en utilisant des donn´ ees que l’on a recueillies et les quantit´ es th´ eoriques correspondantes. Dans ce chapitre, nous verrons comment estimer les param` etres incon- nus qui apparaissent dans les fonctions de probabilit´ e ou les fonctions de densit´ e des variables al´ eatoires, en particulier les param` etres des diff´ erents mod` eles que nous avons ´ etudi´ es au chapitre 3, par exemple les distributions de Poisson, exponentielle, normale, etc. Nous allons aussi pr´ esenter les distri- butions d’´ echantillonnage les plus importantes, lesquelles sont des distributions particuli` eres tr` es utilis´ ees en statistique. Enfin, nous terminerons ce chapitre par la notion d’intervalles de confiance pour les param` etres inconnus. 5.1 Statistique descriptive D´ efinition 5.1.1. Un ´ echantillon al´ eatoire de taille n d’une variable al´ ea- toire X est un ensemble X1,...,Xnde variables al´ eatoires ind´ ependantes et dont la distribution est identique ` a celle de X. C’est-` a-dire que Xkposs` ede la mˆ eme fonction de r´ epartition que X, pour k = 1,...,n. La variable al´ eatoire X est aussi appel´ ee population et chaque Xkest une observation de X.

  36. 206 5 Statistique descriptive et estimation Remarque. Une valeur prise par une observation Xkest un nombre r´ eel xk, appel´ e donn´ ee ou observation particuli` ere de X. Dans cette section, nous allons pr´ esenter quelques outils qui permettent de visualiser un ensemble de donn´ ees x1,...,xn qui ont ´ et´ e recueillies. Nous ap- pellerons cet ensemble de donn´ ees ´ echantillon ou bien ´ echantillon al´ eatoire particulier de X. Nous allons aussi d´ efinir des quantit´ es qui peuvent ˆ etre cal- cul´ ees avec ces donn´ ees. Toutes ces quantit´ es ont leur ´ equivalent dans le cas d’observations X1,...,Xnde la variable al´ eatoire X. 5.1.1 Tableaux d’effectifs ou de fr´ equences Supposons que l’on s’int´ eresse ` a la dur´ ee de vie (en heures) des ampoules ´ electriques d’une certaine marque. On prend 20 ampoules au hasard et on mesure leur dur´ ee de vie; on obtient: 115 2456 534 3915 1046 1916 1117 1303 865 340 575 3563 4413 500 2096 149 1511 2244 695 1021 En se servant de ces 20 donn´ ees, on peut construire un tableau d’effectifs de la fa¸ con suivante: on prend un intervalle [a,b] qui couvre l’ensemble des donn´ ees et on le divise en k (5 ≤ k ≤ 20, en g´ en´ eral) sous-intervalles, appel´ es classes, de mˆ eme longueur, disjoints et exhaustifs. On associe ` a chaque classe le nombre de donn´ ees qu’elle compte, appel´ e son effectif. Remarques. (i) Parfois, au lieu d’indiquer la classe, on donne uniquement son point milieu, ou bien la limite inf´ erieure des classes. (ii) On peut aussi construire un tableau d’effectifs cumulatifs, de pour- centages (en divisant chaque effectif par le nombre total de donn´ ees) et de pourcentages cumulatifs. (iii) Les limites des classes devraient avoir le mˆ eme nombre de chiffres significatifs que les donn´ ees elles-mˆ emes. Exemple 5.1.1. La plus petite valeur parmi les 20 donn´ ees ci-dessus est 115, et la plus grande 4413. Alors, si l’on divise l’intervalle [0,5000] en cinq classes de longueur 1000, on obtient le tableau suivant:

  37. 5.1 Statistique descriptive 207 Classe Effectif Effec. cumulatif Pourcentage Pourc. cumulatif [0,1000) [1000,2000) [2000,3000) [3000,4000) [4000,5000) 8 6 3 2 1 8 40 30 15 10 5 40 70 85 95 100 14 17 19 20 ♦ Remarque. Le choix de la limite inf´ erieure, a, et du nombre de classes a beaucoup d’importance, surtout si le nombre total de donn´ ees est petit. Une autre fa¸ con de repr´ esenter les donn´ ees est au moyen d’un diagramme de points obtenu en pla¸ cant chaque valeur diff´ erente recueillie sur l’axe des x et, au-dessus de celle-ci, un point chaque fois que l’on a obtenu cette valeur. Notons que, dans le cas des donn´ ees ci-dessus, aucune valeur n’a ´ et´ e obtenue plus d’une fois. Finalement, un tableau “tige-et-feuille”, aussi appel´ e histogramme de Tukey, est construit en divisant chaque donn´ ee en deux parties; par exemple, le premier ou les deux premiers chiffres constituent la tige et le reste (ou le chiffre suivant) la feuille. Exemple 5.1.1 (suite). Si l’on prend le premier chiffre (et en ´ ecrivant que 115 = 0115) comme tige, on obtient: 0 || 115,149,340,500,534,575,695,865 1 || 021,046,117,303,511,916 2 || 096,244,456 3 || 563,915 4 || 413 0 || 11355568 1 || 001359 2 || 024 3 || 59 4 || 4 ou ♦ Remarque. En regardant (de cˆ ot´ e) un tableau tige-et-feuille, on peut avoir une id´ ee de la distribution de la variable al´ eatoire qui a g´ en´ er´ e les donn´ ees. 5.1.2 Repr´ esentations graphiques D´ efinition 5.1.2. Un polygone d’effectifs est obtenu en faisant le graphique des effectifs en fonction des points milieux des classes et en reliant les points du graphique par des segments de droite. Extrait de la publication

  38. 208 5 Statistique descriptive et estimation Remarques. (i) On rajoute deux classes (vides) aux extr´ emit´ es pour fermer le polygone. (ii) On a aussi des polygones d’effectifs cumulatifs, de pourcentages et de pourcentages cumulatifs. Exemple 5.1.1 (suite). En utilisant les donn´ ees de l’exemple 5.1.1, on construit le polygone d’effectifs de la figure 5.1. ♦ Effectif 2 Point milieu 0 1000 Fig. 5.1. Polygone d’effectifs construit en se servant des donn´ ees de l’exemple 5.1.1 D´ efinition 5.1.3. Un histogramme, aussi appel´ e diagramme en barres, est obtenu en pla¸ cant un rectangle au-dessus de chaque classe; la hauteur du rec- tangle est ´ egale ` a l’effectif de la classe. Exemple 5.1.1 (suite). Avec les donn´ ees de l’exemple 5.1.1, on obtient l’histogramme de la figure 5.2. ♦ Effectif 2 Classe 0 1000 Fig. 5.2. Histogramme obtenu avec les donn´ ees de l’exemple 5.1.1

  39. 5.1 Statistique descriptive 209 5.1.3 Quantit´ es calcul´ ees en utilisant les donn´ ees D´ efinition 5.1.4. Supposons que l’on dispose de n donn´ ees: x1,x2,...,xn. La moyenne de l’´ echantillon est d´ efinie par n X ¯ x =x1+ x2+ ... + xn xi n = (5.1) n i=1 Remarques. (i) La quantit´ e ¯ x est la moyenne arithm´ etique des donn´ ees. Dans le cas d’un ´ echantillon al´ eatoire de X, la quantit´ e ´ equivalente¯ X sert ` a estimer la moyenne de la variable al´ eatoire X qui a g´ en´ er´ e les observations X1,X2,...,Xn. (ii) On peut associer un poids pi ` a chaque donn´ ee, de fa¸ con que pi ≥ 0 pour tout i et quePn (iii) Lorsqu’on ne dispose que d’un tableau d’effectifs, on peut approcher la moyenne de l’´ echantillon en supposant que toutes les donn´ ees dans une classe quelconque sont ´ egales au point milieu de cette classe. i=1pi = 1; alors l’expressionPn i=1pixi est appel´ ee moyenne pond´ er´ ee des xi. La moyenne d’un ´ echantillon est une mesure de position centrale. On d´ efinit maintenant une mesure de dispersion des donn´ ees autour de leur moyenne. D´ efinition 5.1.5. La variance de l’´ echantillon est donn´ ee par n X (xi− ¯ x)2 n − 1 s2= (5.2) i=1 √s2. De plus, l’´ ecart-type de l’´ echantillon est s = Remarques. (i) Certains auteurs d´ efinissent la variance de l’´ echantillon parPn que par n est qu’en utilisant¯ X, dans la d´ efinition ´ equivalente pour le cas d’un ´ echantillon al´ eatoire de X, on perd un degr´ e de libert´ e. En effet, soit X1,...,Xn n observations ind´ ependantes de X; si l’on nous donne n − 1 observations et la moyenne (ou la somme) des n observations, alors on peut en d´ eduire la valeur de la neobservation. i=1(xi−¯ x)2/n. La raison pour laquelle on divise, en g´ en´ eral, la somme des carr´ es par n−1 plutˆ ot Extrait de la publication

  40. 6 Tests d’hypoth` eses La th´ eorie des tests d’hypoth` eses est l’un des sujets les plus importants en statis- tique math´ ematique. D’abord, les tests d’ajustement permettent d’affirmer si les donn´ ees que l’on a recueillies semblent provenir d’une distribution donn´ ee, par exemple d’une distribution normale. Ensuite, si la distribution normale est ef- fectivement un mod` ele qui semble r´ ealiste pour les donn´ ees, on peut vouloir tester des hypoth` eses au sujet des param` etres de cette distribution. Nous allons aussi voir, en particulier, comment tester si la probabilit´ e de succ` es dans une s´ erie d’essais de Bernoulli est ´ egale ` a une constante donn´ ee ou non, et si deux variables sont ind´ ependantes. Notons que l’on ne peut pas prouver qu’une hypoth` ese particuli` ere est vraie en se servant d’un test d’hypoth` eses. Il y a toujours un risque de prendre la mauvaise d´ ecision en se basant sur les donn´ ees. Par contre, lorsque le risque de commettre une erreur est inf´ erieur ` a 1 % en rejetant une certaine hypoth` ese, par exemple, on peut raisonnablement conclure que cette hypoth` ese est fausse. De toute fa¸ con, lorsqu’on cherche un mod` ele pour des donn´ ees, il est en pratique impossible de trouver le mod` ele exact si celui-ci est une distribution continue. Ainsi, en recueillant suffisamment d’observations d’une variable al´ eatoire con- tinue, on peut arriver ` a conclure que n’importe quelle distribution que l’on pro- pose pour cette variable n’est pas la bonne. De mˆ eme, il est impossible que la moyenne d’une distribution normale quelconque soit exactement ´ egale ` a une con- stante donn´ ee, car la moyenne est un param` etre qui peut th´ eoriquement prendre n’importe quelle valeur r´ eelle.

  41. 286 6 Tests d’hypoth` eses 6.1 Introduction et terminologie Soit x1,x2,...,xnun ´ echantillon al´ eatoire particulier d’une variable al´ eatoire X qui poss` ede une fonction de densit´ e (ou une fonction de probabilit´ e) fX. On a deux hypoth` eses concernant la fonction fX. Ces hypoth` eses peuvent ˆ etre au sujet de fXelle-mˆ eme ou encore ` a propos d’un param` etre qui apparaˆ ıt dans la fonction fX. Apr` es avoir calcul´ e une statistique T, c’est-` a-dire une fonction des donn´ ees, on accepte une hypoth` ese et on rejette l’autre. Pour tester l’hypoth` ese nulle H0 contre la contre-hypoth` ese H1 (aussi appel´ ee hypoth` ese alternative par certains auteurs), on d´ efinit un test ` a l’aide d’une r´ egion de rejet C: ainsi, si T(x1,...,xn) ∈ C, alors on rejette H0(et on accepte H1), tandis que si T(x1,...,xn) / ∈ C, alors on ne rejette pas (donc, on accepte) H0. Le compl´ ement de C est appel´ e r´ egion d’acceptation du test. Soit θ un param` etre inconnu qui apparaˆ ıt dans la fonction fX. Une hypoth` ese de la forme H0: θ = θ0 (6.1) est une hypoth` ese simple, tandis que H1: θ 6= θ0 (6.2) est une hypoth` ese multiple ou composite. Dans le cadre de ce livre (sauf dans l’exemple suivant), l’hypoth` ese H0sera toujours une hypoth` ese simple, tandis que H1sera toujours une hypoth` ese multiple. Exemple 6.1.1. (i) Supposons qu’on poss` ede une pi` ece de monnaie truqu´ ee, pour laquelle P[{face}] = 0,7 ou bien P[{pile}] = 0,7. Dans ce cas, on a deux hypoth` eses alternatives simples: H0: p = 0,7 et H1: p = 0,3 o` u p est la probabilit´ e de l’´ ev´ enement {face}. En lan¸ cant la pi` ece de monnaie un assez grand nombre de fois, nous pourrons d´ ecider quelle hypoth` ese est vraie (ou, en fait, laquelle semble vraie). (ii) Si l’on croit qu’une pi` ece de monnaie est truqu´ ee, alors on peut tester les hypoth` eses suivantes: H0: p =1 contre H1: p 6=1 2 2

  42. 6.1 Introduction et terminologie 287 (iii) Supposons qu’une certaine machine produit, en moyenne, c articles par jour et que la production journali` ere X d’une nouvelle machine, qui pourrait rem- placer la premi` ere, est une variable al´ eatoire qui pr´ esente (approximativement) une distribution N(µ,σ2). On peut vouloir tester H0: µ ≤ c contre H1: µ > c ♦ Remarque. Dans le cas des tests au sujet des param` etres d’une variable al´ eatoire, l’hypoth` ese nulle est g´ en´ eralement celle que l’on croit fausse (particuli` erement dans le cas d’un test unilat´ eral, comme ci-dessus). Par cons´ equent, on essaie de la rejeter. C’est pourquoi on pr´ ef` ere souvent dire que l’on ne peut pas rejeter H0, plutˆ ot que de dire que l’on accepte H0. 6.1.1 Les esp` eces d’erreurs Il y a deux esp` eces d’erreurs que l’on peut commettre: (a) erreur de premi` ere esp` ece: accepter H1lorsque H0est vraie; c’est-` a-dire rejet erron´ e de H0; (b) erreur de seconde esp` ece: accepter H0lorsque H1est vraie; c’est-` a-dire acceptation erron´ ee de H0. On d´ efinit les param` etres α et β comme suit: α = P[Erreur de premi` ere esp` ece] = P[Rejeter H0| H0est vraie] (6.3) et β = P[Erreur de deuxi` eme esp` ece] = P[Accepter H0| H0est fausse] On appelle α seuil (de signification) ou niveau du test. De plus, la quantit´ e 1−β est appel´ ee puissance du test. Finalement, le graphique de β(θ) en fonction de θ est appel´ e courbe ou abaque caract´ eristique du test de H0: θ = θ0contre H1: θ 6= θ0(ou H1: θ > θ0, etc.). Notons que β(θ0) = 1 − α. Remarques. (i) La quantit´ e β d´ epend de la taille n de l’´ echantillon al´ eatoire: plus n augmente et plus β diminue. De plus, contrairement ` a α, la valeur de β n’est pas unique dans un probl` eme donn´ e mais d´ epend de l’hypoth` ese particuli` ere H1que l’on suppose vraie. Il y a en fait une infinit´ e d’hypoth` eses particuli` eres H1, tandis que H0est unique (dans le cas o` u H0est une hypoth` ese simple). (6.4)

  43. 288 6 Tests d’hypoth` eses (ii) La notation des probabilit´ es conditionnelles du chapitre 2 a ´ et´ e utilis´ ee dans la d´ efinition des param` etres α et β; cependant, nous n’aurons jamais ` a calculer la probabilit´ e de l’´ ev´ enement {H0est vraie}. Il s’agit simplement d’une proposition que l’on suppose vraie dans le calcul du risque de premi` ere esp` ece. Il en est de mˆ eme pour β. (iii) Avec le choix que nous avons fait au sujet de la formulation des hypoth` eses, commettre une erreur de premi` ere esp` ece est g´ en´ eralement plus grave que com- mettre une erreur de seconde esp` ece. Ainsi, dans l’exemple 6.1.1 (iii), si l’on rejette H0de fa¸ con erron´ ee, alors on recommandera d’acheter une nouvelle ma- chine, laquelle aura une production inf´ erieure (en moyenne) ` a celle de l’ancienne. Dans le cas contraire, on peut affirmer qu’il n’y a pas suffisamment d’indication (ou de preuve) statistique pour conclure que la nouvelle machine aura une pro- duction sup´ erieure, et l’on pr´ ef` ere s’en tenir au statu quo. Une erreur a certes ´ et´ e commise, mais elle est moins coˆ uteuse que la pr´ ec´ edente. En pratique, il faudrait aussi tenir compte du coˆ ut d’achat de la nouvelle machine pour pouvoir d´ ecider si son acquisition est justifi´ ee ou non. Un autre exemple qui illustre bien l’importance de ne pas commettre une erreur de premi` ere esp` ece est celui d’un proc` es pour meurtre. Supposons que vous faites partie du jury qui doit d´ ecider si une personne accus´ ee de meurtre est coupable ou non. Supposons aussi que vous croyez que la personne accus´ ee est en fait coupable, et posons: H0: la personne est innocente et H1: la personne est coupable Dans ce cas, commettre une erreur de premi` ere esp` ece signifie condamner une personne innocente, tandis que commettre une erreur de seconde esp` ece se traduit par innocenter une personne qui ´ etait en fait coupable de meurtre. La plupart des gens reconnaˆ ıtront qu’il n’y a rien de pire que de condamner un innocent (surtout si la peine de mort est en vigueur...). Notons que, dans cet exemple, si l’on croit que la personne accus´ ee est innocente, alors on pourrait poser: H0: la personne est coupable et H1: la personne est innocente mais choisir une valeur de β presque ´ egale ` a 0. (iii) Compte tenu de la remarque pr´ ec´ edente, on choisit g´ en´ eralement le para- m` etre α dans l’intervalle [0,01;0,10]. Ensuite, si l’´ echantillon al´ eatoire n’a pas encore ´ et´ e pr´ elev´ e, on peut fixer une valeur du param` etre β; pour ce faire, il faut choisir un cas particulier de l’hypoth` ese H1pour lequel on voudrait que,

  44. 6.2 Tests d’ajustement 289 par exemple, il n’y ait pas plus de 15 % de risque d’accepter H0dans ce cas. La valeur de β que l’on fixe d´ eterminera la taille de l’´ echantillon ` a pr´ elever. Par exemple, on pourrait poser que β(µ = 1,5c) = 0,10 dans l’exemple 6.1.1 (iii); c’est-` a-dire que, si la production moyenne de la nouvelle machine est sup´ erieure de 50 % ` a celle de l’ancienne machine, alors on voudrait que le test utilis´ e n’ait pas plus de 10 % de risque de conclure que l’ancienne machine est au moins aussi bonne que la nouvelle. 6.2 Tests d’ajustement 6.2.1 Test d’ajustement du khi-deux de Pearson Soit X une variable al´ eatoire dont la fonction de densit´ e (ou la fonction de probabilit´ e) fX(x;θ) est inconnue. On veut faire le test de l’hypoth` ese nulle H0: fX= f0 (6.5) contre la contre-hypoth` ese H1: fX6= f0 (6.6) o` u f0est une fonction donn´ ee. La marche ` a suivre est la suivante: (i) on divise l’ensemble des valeurs possibles de X en k classes (ou intervalles) disjointes et exhaustives; (ii) on pr´ el` eve un ´ echantillon al´ eatoire de taille n de X; (iii) on calcule k X o` u nj est le nombre d’observations dans la jeclasse (l’effectif observ´ e) et mj d´ esigne l’effectif sous H0, c’est-` a-dire le nombre d’observations que devrait compter, en moyenne, la jeclasse si l’hypoth` ese H0est vraie; (iv) on peut montrer que si H0est vraie, alors D2≈ χ2 pr´ esente (approximativement) une distribution du khi-deux ` a k − r − 1 degr´ es de libert´ e, o` u r est le nombre de param` etres inconnus de la fonction f0qu’il faut estimer. Le test consiste ` a rejeter H0au seuil de signification (ou niveau) α si et seulement si D2> χ2 (nj− mj)2 mj D2:= (6.7) j=1 k−r−1; c’est-` a-dire que D2 (6.8) α,k−r−1

  45. 7 R´ egression lin´ eaire simple On a vu au chapitre pr´ ec´ edent comment tester l’hypoth` ese que les donn´ ees que l’on a recueillies proviennent d’une distribution particuli` ere, comme la distribu- tion normale. Pour ce faire, on peut se servir des tests d’ajustement de Pearson, de Shapiro et Wilk (pour la normalit´ e) et de Kolmogorov et Smirnov. Lorsque la variable al´ eatoire qui nous int´ eresse est une fonction d’une variable d´ eterministe (que l’on peut contrˆ oler), la r´ egression peut nous aider ` a trouver la forme de la relation entre les variables al´ eatoire et d´ eterministe. Compte tenu du fait que, dans tous les domaines du g´ enie et des sciences naturelles, les ´ etudiants et les chercheurs effectuent des exp´ eriences scientifiques au cours desquelles des donn´ ees sont recueillies, le sujet de la r´ egression est tr` es important. Dans ce chapitre, nous allons traiter en d´ etail le probl` eme de base, soit celui de trouver la meilleure relation lin´ eaire entre la variable al´ eatoire et la variable d´ eterministe. Nous allons aussi consid´ erer bri` evement le cas o` u la relation entre les deux variables est suppos´ ee non lin´ eaire. Nous ne traiterons pas ici le cas o` u l’on cherche une relation entre une varia- ble al´ eatoire et deux ou plusieurs variables d´ eterministes. La r´ egression multi- ple exige l’utilisation de logiciels statistiques lors de la r´ esolution de probl` emes pratiques, pour l’inversion de matrices, par exemple. Cependant, une fois la r´ egression lin´ eaire simple bien comprise, il est possible de g´ en´ eraliser la th´ eorie sans trop de difficult´ es. 7.1 Le mod` ele Soit Y une variable al´ eatoire et x une variable d´ eterministe (c’est-` a-dire non al´ eatoire). On dispose d’un ´ echantillon al´ eatoire (x1,Y1),...,(xn,Yn) et on d´ esire Extrait de la publication

More Related