Professional Documents
Culture Documents
erentielles
Poly de Cours - S3
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
6
. 6
. 6
. 6
. 6
. 7
. 7
. 7
. 8
. 8
. 8
. 8
. 8
. 9
. 9
. 9
. 10
. 12
2 Probabilit
es pour un Univers Discret
2.1 Ensembles, Univers, evenements . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
14
14
15
15
16
18
19
.
.
.
.
.
.
24
24
24
24
25
25
25
3 Variable al
eatoire discr`
ete
3.1 Variable aleatoire . . . . . . . . . . .
3.1.1 Definition generale . . . . . .
3.1.2 Variables aleatoires discr`etes
3.1.3 Variables aleatoires continues
3.2 Loi dune variable aleatoire discr`ete .
3.2.1 Definition . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
`
TABLE DES MATIERES
3.3
3.4
3.5
3.6
4
Variables al
eatoires continues, loi normale
4.1 Loi dune variable aleatoire continue . . . . .
4.1.1 Definitions . . . . . . . . . . . . . . .
4.1.2 Problematique de la notion de loi dans
4.1.3 Fonction de repartition et loi `a densite
4.2 Lois `
a densite classiques . . . . . . . . . . . .
4.2.1 Loi uniforme . . . . . . . . . . . . . .
4.2.2 Lois exponentielles . . . . . . . . . . .
4.3 La loi normale . . . . . . . . . . . . . . . . .
4.3.1 Loi normale centree reduite N (0, 1) .
4.3.2 Loi normale generale N (, ) . . . . .
4.4 La Loi normale comme limite en loi . . . . . .
4.5 Lois derivees de la loi Normale . . . . . . . .
4.5.1 Loi du Khi-deux . . . . . . . . . . . .
4.5.2 Loi de Student . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
26
27
27
28
29
29
29
30
31
31
31
32
32
34
34
36
37
. . . . . . . .
. . . . . . . .
le cas continu
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
40
40
40
40
40
41
41
42
42
42
43
45
47
47
47
.
.
.
.
.
.
.
.
48
48
48
49
49
51
51
51
52
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
`
TABLE DES MATIERES
6 Annexe
59
6.1 Tables Loi Normale N (0; 1) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
6.2 Table loi du Chi 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
Introduction
Tandis que la statistique peut etre assimilee `a une analyse, parfois tr`es precise, de donnees et
est basee sur des valeurs connues, le but de la theorie des probabilites est de modeliser au mieux
les issues eventuelles dexperiences futures (en ne se basant en general sur les resultats detudes
statistiques). Contrairement `
a la plupart des autres branches des mathematiques, elle repose fortement sur la notion dincertitude et est ainsi consacree `a letude de phenom`enes aleatoires. Les
probabilites permettent devaluer les degres de prevision devenements possibles mais non certains,
et introduisent une notion intermediaire entre s
ur et impossible. Cette theorie ne permet pas
de predire ce quil peut se passer sur une experience aleatoire isolee, parcontre si lon repete
cette experience de mani`ere independante et un grand nombre de fois, la theorie permet de cerner certaines quantites. Les probabilites permettent ainsi letablissement de crit`eres objectifs de
mesure de lincertitude qui conduisent parfois `a des paradoxes cel`ebres saluant les defaillances de
notre intuition cartesienne dans ce domaine. Un autre avantage de cette theorie est quelle offre
un cadre naturel danalyse pour des syst`emes trop complexes pour que lon puisse en saisir tous
les elements (grandes populations, syst`emes de particules, ordinateurs, comportements collectifs,
marches boursiers etc.). Ainsi, la connaissance, meme parfaite, dun echantillon de population ne
peut conduire `
a une certitude totale, mais seulement `a une incertitude qui peut etre estimee et
quantifiee en terme de probabilites.
Ces notes de cours restant bien evidemment perfectibles, je remercie toute personne me rapportant des coquilles, erreurs ou commentaires.
Chapitre 1
D
efinitions de base D
enombrements
Le formalisme probabiliste, tel quil est etabli aujourdhui, decrit les issues possibles de tout
phenom`ene, aleatoire ou non, en termes ensemblistes, dont nous rappelons bri`evement ici la signification.
1.1
1.1.1
Op
erations ensemblistes
G
en
eralit
es
Les ensembles seront principalement notes `a laide de lettres majuscules A, B, C, D etc., tandis que les objets qui les composent, ses
el
ements, seront designes par des lettres minuscules
i, j, k, l, x, y etc. Pour signifier lappartenance dun element i `a un ensemble A, on dit parfois que
i est dans A, on le note i A. Si au contraire un element i nappartient pas `a A, on note i
/ A.
1.1.2
R
eunion densembles
La r
eunion de deux ensembles A et B, notee A B, est lensemble constitue des elements de
A et des elements de B. On a toujours A = A = A.
Propri
et
e 1 (Commutativit
e)
AB =BA
Propri
et
e 2 (Associativit
e)
A (B C) = (A B) C := A B C
1.1.3
Intersection densembles
CHAPITRE 1. DEFINITIONS
DE BASE - DENOMBREMENTS
Lorsque A et B nont aucun element en commun, on dit quils sont disjoints et on note AB =
.
Propri
et
e 3 (Commutativit
e)
AB =BA
Propri
et
e 4 (Associativit
e)
A (B C) = (A B) C := A B C
Propri
et
e 5 (Distributivit
e)
A (B C) = (A B) (A C)
A (B C) = (A B) (A C)
1.1.4
Compl
ementaire dun ensemble
1.1.5
AB =AB
(1.1)
AB =AB
(1.2)
Inclusion
Si tous les elements dun ensemble A sont aussi elements dun autre ensemble B, on dit que A
est inclus dans B et on le note A B. On dit aussi que A est un sous-ensemble de B.
On a toujours
A A B; A B A; A B A B; A.
1.1.6
Op
erations ensemblistes et Op
erations logiques
On peut d`es `
a present noter le lien entre ces operations et les operations (ou connecteurs)
logiques OU, ET et NON :
Un element de A B est un element qui appartient `a A OU `a B.
Un element de A B est un element qui appartient `a A ET `a B.
Un element de A est un element qui nappartient PAS `a A.
Attention 1 Le connecteur logique OU mentionne correspond `
a un ou inclusif : A B est
lensemble des elements qui sont dans A, ou dans B mais qui peuvent etre dans les 2.
CHAPITRE 1. DEFINITIONS
DE BASE - DENOMBREMENTS
1.2
1.2.1
Ensemble fini
D
efinitions
D
efinition 1 On appelle ensemble fini un ensemble ayant un nombre fini delements distincts.
D
efinition 2 Le nombre delements dun ensemble fini A est appele cardinal de A, note card [A].
Exemple 1 E = {a, b, c} et card [E] = 3.
1.2.2
Cardinal
Propri
et
e 7 Soient A et B deux ensembles finis quelconques,
card [A B] = card [A] + card [B] card [A B] .
Si A et B sont disjoints, cest-`
a-dire que A B = alors,
card [A B] = card [A] + card [B] .
Corollaire 1 Soit A est un sous ensemble de E.
card A = card [E] card [A]
1.2.3
D
efinition 3 Soient E et F deux ensembles, le produit cart
esien note E F est lensemble de
tous les couples (x; y) o`
u x est element de E et y element de F .
Attention 2 E F est different de F E.
Th
eor`
eme 1 Si E et F sont finis, on a :
card [E F ] = card [E] card [F ]
1.3
D
enombrements
CHAPITRE 1. DEFINITIONS
DE BASE - DENOMBREMENTS
1.3.1
Propri
et
e 8 Soit En un ensemble contenant n elements. Il y a 2n parties disctincts de E.
Demonstration :
Il existe diverses demonstrations de cette proprietes. On peut par exemple utiliser un arbre et faire
une correspondance entre une feuille et une partie. On peut egalement utiliser la formule du binome
de Nenwton...
J
1.3.2
La notion de p-listes
D
efinition 6 Soit En un ensemble contenant n elements. Une p-liste delements de En , est une
liste ordonnee de p elements de En avec repetitions possible.
Propri
et
e 9 (Expression du nombre de p-listes) Le nombre de p-liste distinctes est egal `
a np .
Exemple 2 Considerons lensemble E = {1, 2, 3, A, B} correspondant aux differentes touches dun
clavier de digicode dont le code est une succession de 3 caract`eres issus de E. Combien y-a-t-il de
code differents ?
Ce sont les 3-listes de E il y en a 53 soit 125.
1.3.3
Les arrangements
CHAPITRE 1. DEFINITIONS
DE BASE - DENOMBREMENTS
10
D
efinition 8 On appelle factorielle n le produit des n premiers entier :
n! = n (n 1) (n 2) 1
avec la convention 0! = 1.
Propri
et
e 11
Apn =
n!
(n p)!
Demonstration :
n (n 1) (n p + 1) (n p) 1
,
(n p) 1
n!
=
.
(n p)!
n (n 1) (n 2) (n p + 1) =
J
Remarque 2 n! est une touche de la plupart des calculatrices.
Exemple 3 Un joueur se demande combien il peut ecrire de grilles differentes de tierce pour une
course de 16 chevaux. Il y a 16 possibilites pour le premier, 15 pour le second et 14 pour le troisi`eme.
On naccepte pas les repetitions et on tient compte de lodre, il sagit darrangements et on a donc
A316 = 16 15 14 = 3360 possibilites.
D
efinition 9 (Les permutations) Une permutation de En est un echantillon ordonne sans
remise des n elements differents pris dans En . Cest donc le cas particulier dun arrrangement de
n elements de En .
Propri
et
e 12 Le nombre de permutations de En est donc egal `
a:
Pn = n!
Exemple 4 Si le joueur de tierce a precedemment choisi les 3 chevaux quil va jouer mais ne sait
pas dans quel ordre il va les placer, il a 3 ! choix possibles cest `
a dire 3 2 1 = 6 possibilites de
tierce.
1.3.4
Les combinaisons
Soit En un ensemble fini contenant n elements differents et p un entier naturel inferieur ou egal
` n.
a
D
efinition 10 Une combinaison `
a p elements de En est un echantillon non ordonne sans remise
de p elements differents de En . Cest un sous ensemble `
a p elements de En . Dans une combinaison
de p elements, les p elements sont distincts et non ordonnes.
Propri
et
e 13 (Expression du nombre de combinaisons) Le nombre de combinaisons `
a p elements
de En note Cnp est egal `
a:
n!
Cnp =
p! (n p)!
CHAPITRE 1. DEFINITIONS
DE BASE - DENOMBREMENTS
11
Demonstration :
On consid`ere les p premiers elements de En . Avec ces p elements on peut former p! arrangements
et ces p! arrangements donnent une seule combinaison or on peut former Apn arrangements avec les
Ap
n elements de En . on a donc p!n combinaisons differentes de En .
J
Remarque 3
Si p = 0 alors on a une seule combinaison `
a zero element : la partie vide.
Si p = n alors on a une seule combinaison `
a n elements de En : la partie En .
Si p = 1 alors on a n combinaisons `
a un element de En , les n sous-ensembles `
a un element
deEn .
Exemple 5 Nous avons vu ci-dessus avec lexemple du joueur de tierce que quand on a choisi sans
ordre une partie de 3 elements parmi 16, il reste 3 ! = 6 mani`eres dordonner cette partie. Par
exemple si on choisit la partie (2,7,9) on peut lui associer les 6 permutations : (2,7,9), (2,9,7),
(7,2,9), (7,9,2), (9,2,7) et (9,7,2). En dautres termes il est possible de regrouper les arrangements
par paquets de 6 correspondant `
a la meme partie. Le nombre darrangements (ordonnes) de 3
elements parmi 16 est donc egal `
a 6 fois le nombre de combinaisons (non ordonnees) de 3 elements
parmi 16. On a donc une application du Principe des bergers :
3
C16
=
A316
.
3!
Propri
et
e 14 (Formules de calcul)
Cnp = Cnnp
p1
p
Cnp = Cn1
+ Cn1
Demonstration :
1. Choisir les p elements que lon veut dans un ensemble de n elements revient exactement `a
choisir les n p elements que lon ne veut pas, do`
u le resultat. Mathematiquement, on a :
n!
,
(n p)![n (n p)]!
n!
,
=
p!(n p)!
Cnnp =
= Cnp .
2. Soit E une ensemble de n element. Soit A lun de ces elements. Pour choisir p elements de
p1
E, je peux soit prendre A et en choisir p-1 autres parmi les n-1 restants (jai alors Cn1
p
possibilites), soit laisser A et en prendre p autres parmi les n 1 restants (jai alors Cn1
possibilites). Do`
u le resultat. Mathematiquement, on a
(n 1)!
(n 1)!
+
,
(p 1)!(n p)! (p)!(n p 1)!
p(n 1)!
(n p)(n 1)!
=
+
,
p!(n p)!
p!(n p)!
(p + n p)(n 1)!
=
,
p!(n p)!
p1
p
Cn1
+ Cn1
=
= Cnp .
CHAPITRE 1. DEFINITIONS
DE BASE - DENOMBREMENTS
12
J
p
2
Triangle de Pascal
Les formules de calcul ci-dessus nous donne une methode de calcul des combinatoire par recurrence
appele triangle de pascal :
1.3.5
Formule du bin
ome de Newton
Th
eor`
eme 2 Soient a et b deux reels :
(a + b)n =
n
X
Cnk ak bnk .
k=0
Demonstration :
Par recurrence sur n.
Pour n = 0 la propriete est immediate puisque 1 = 1.
Supposons la propriete vraie pour n et regardons si elle est vraie pour n + 1.
CHAPITRE 1. DEFINITIONS
DE BASE - DENOMBREMENTS
13
(a + b)n+1 = (a + b)n (a + b)
= a(a + b)n + b(a + b)n
=
=
n
X
k=0
n
X
Cnk ak bnk + b
n
X
Cnk ak bnk
k=0
n
X
k=0
Cnk ak bnk+1
k=0
On consid`ere maintenant k 0 = k + 1, on a :
(a + b)n+1 =
n+1
X
Cnk 1 ak bnk +1 +
k0 =1
n
X
Cnk ak bnk+1
k=0
= an+1 +
= an+1 +
= an+1 +
n
X
k0 =1
n
X
k=1
n
X
Cnk 1 ak bnk +1 +
n
X
k=1
k
k=1
n+1
X
k
Cn+1
ak bnk+1 .
k=0
La propriete est donc vraie pour n + 1. Par le principe de raisonnement par recurrence, la propriete
est vraie pour tout entier n.
Remarque 5 On peut egalement demontrer cette propriete de mani`ere ensembliste, en developpant et en sinteressant au nombre de terme en ak bnk ...
J
Chapitre 2
Probabilit
es pour un Univers
Discret
2.1
Ensembles, Univers,
ev
enements
Le formalisme probabiliste est une branche relativement nouvelle des mathematiques qui se
base donc sur la theorie des ensembles. Dans cette theorie, les issues des experiences dont on
veut evaluer les chances relatives sont formalisees en termes devenements dont la realisation est
laboutissement dun ensemble de causes anterieures. Le hasard est parfois vu comme lensemble de
ces causes que lon ne peut pas matriser, qui sont alors dites aleatoires. Dans le cas de syst`emes
physiques complexes, elles sont souvent le reflet de notre ignorance.
D
efinition 11 Les
ev
enements sont des ensembles que lon manipule a
` laide doperations ensemblistes elementaires et qui representent les issues possibles de lexperience aleatoire consideree.
D
efinition 12 On parle d
ev
enement
el
ementaire lorsquil sagit du resultat dune experience
aleatoire menant `
a une solution unique, et lensemble des evenements elementaires forment ce que
lon nomme lunivers des possibles, ou tout simplement lunivers note .
Les evenements non-elementaires dont on peut vouloir evaluer les chances ou probabilites sont
exprimes en termes doperations ensemblistes de reunions, dintersections, ou de complementaires.
Ces operations correspondent egalement aux operations logiques OU, ET et NON. Ainsi, si lon
consid`ere deux evenements (elementaires ou non) representes par les ensembles A et B, levenement
consistant `
a obtenir A OU B est represente par lensemble A B, qui est la reunion de A et de B.
De meme, levenement consistant `
a obtenir A ET B sera represente par lintersection A B, tandis
que la negation de levenement A sera son complementaire Ac ou A. Cette negation est levenement
qui consiste `
a ne pas obtenir A.
15
Tous les evenements dont on calculera la probabilite peuvent etre obtenus par manipulations ensemblistes des evenements elementaires precedents. Par exemple, levenement obtenir un resultat
pair consiste `
a obtenir un 2, un 4 ou un 6 et sera note au choix
{2, 4, 6} = {2} {4} {6}.
Lecriture en termes devenements elementaires sera primordiale pour les calculs de probabilites et
permet de representer un tr`es grands nombre devenements. On notera par exemple
obtenir un resultat 3 = {1, 2, 3} = {1} {2} {3}.
De meme, levenement obtenir un resultat pair, (et) inferieur ou egal `
a 3 sera note
{2, 4, 6} {1, 2, 3} = {2}.
Le contraire dun evenement A correspond a
` son evenement complementaire note
Ac ou A.
Pour lexemple precedent, ne pas obtenir un nombre pair sera note
{2, 4, 6} = {2, 4, 6}c = \ {2, 4, 6} = {1, 2, 3}.
Tout evenement impossible est represente par lensemble vide et deux evenements A et B
sont dits incompatibles ou disjoints si A B = , tandis que lensemble lui-meme est qualifie
d
evenement certain. Lorsque cet univers est fini ou infini denombrable, on parle de probabilites
discr`etes et de probabilites continues dans le cas contraire.
2.2
2.2.1
Probabilit
es d
ev
enements Equiprobabilit
e
Probabilit
es
D
efinition 13 La probabilit
e associee `
a une experience aleatoire est une fonction qui `
a un evenement
associe un nombre reel compris entre 0 et 1, sa probabilite :
P : P() [0, 1]
A
7 P[A]
o`
u P() est lensemble de toutes les parties possibles de lunivers (i.e. lensemble de tous les
evenements possibles de lexperience aleatoire concernee).
Une probabilite est dabord construite par une evaluation des probabilites des evenements
elementaires. Lorsquil y en a un nombre fini x1 , . . . , xn , et donc pour un univers = {x1 , . . . , xn }
de cardinal n, on obtient `
a laide des statistiques ou parfois `a laide dhypoth`eses realistes, une
famille de nombres (pi )i=1..n compris entre 0 et 1 et tels que pour chaque evenement elementaire
Ai =obtenir i,
pi = P[Ai ] [0, 1].
On etend ensuite cette probabilite sur tous les evenements possibles en respectant les r`egles
intuitives elementaires suivantes erigees en axiomes :
16
D
efinition 14 (Axiomes des probabilit
es)
Evenement certain : P[] = 1.
Evenement impossible : P[] = 0
Additivite : Si A et B sont des evenements incompatibles, i.e. A B = ,
P[A B] = P[A] + P[B].
La somme des probabilites des evenements elementaires doit ainsi etre egale `a 1 :
X
pi = 1.
i
Propri
et
e 15 Pour des evenements non disjoints, ladditivite devient
P[A B] = P[A] + P[B] P[A B].
En revanche, on na pas en general dexpression pour la probabilite de lintersection. En particulier, on na pas de factorisation du type P[A B] = P[A] P[B]. Lorsque cela sera le cas, on dira
que les evenements A et B sont independants.
2.2.2
Equiprobabilit
es
D
efinition 15 Les evenements elementaires sont dits
equiprobables, si toutes les probabilites
elementaires pi sont identiques. Cette hypoth`ese est en general emise `
a partir detudes statistiques
lindiquant, souvent par simple soucis de bon sens, et parfois seulement gr
ace au calculs des probabilites elementaires `
a laide de calculs combinatoires (dits de denombrements).
En cas dequiprobabilite, et seulement dans ce cas, on pourra evaluer la probabilite dun evenement
A par
Card(A)
P[A] =
Card()
cest `
a dire le rapport du nombre de cas favorables sur le nombre de cas possibles.
Attention 3 Cest loin detre le cas en general.
Exemple 7 Revenons a
` lexemple de lexperience du jet dun de `
a six faces, les evenements elementaires
sont notes Ai pour i = 1, . . . , 6 et lhypoth`ese dequiprobabilite, emise lorsque le de nest ni truque,
ni fausse, conduit aux memes probabilites elementaires
pi = P[Ai ] = P[obtenir i] =
1
6
puisque la taille de lunivers des evenements elementaires est de 6 et que chaque evenement elementaire
Ai est un singleton (i.e. un ensemble restreint `
a un element).
D
efinition 16 On dit quune famille devenements (Ai )iI forme une partition de lunivers lorsquils sont disjoints (Ai Aj = , i 6= j I) et quils recouvrent (iI Ai = ).
Propri
et
e 16 Lensemble des evenements elementaires forment une partition particuli`ere de lunivers .
17
Demonstration :
Comme iI Ai = , on a iI (B Ai ) = B et les evenements Ai B et Aj B sont disjoints pour
j 6= i. Par consequent, on a :
P[B] = P[iI (B Ai )],
X
=
P[B Ai ].
iI
J
Exemple 8 Dans le cas dun jet de de, la partition elementaire de lunivers en
= 6i=1 {i} = {1} {2} {3} {4} {5} {6}
donne par exemple
p1 + p2 + p3 + p4 + p5 + p6 =
1
1 1
+ + + = 1.
6 6
6
Exemple 9 Un autre exemple de partition est donne par la paire {A, B} et les evenements A =obtenir
un resultat pair et B=obtenir un resultat impair. On a en effet A B = et A B = , et on
peut verifier la formule des probabilites totales
P[A] + P[B] = 1
puisque P[A] = p2 + p4 + p6 =
3
6
1
2
et P[B] = p1 + p2 + p3 =
3
6
= 12 .
Cette propriete est egalement generale et permet dobtenir que pour toute probabilite P, la
probabilite du complementaire dun evenement A.
Propri
et
e 17
P[A] = 1 P[A]
Demonstration :
{A, A} est une partition de .
J
Exemple 10
18
Probabilite de tirer au moins une fois pile en lancant n fois une piece.
A = { 1 fois pile ou 2 fois pile ou ... n fois pile },
A = {0 fois pile } = {n fois face}
P[A] = 1 P[A] = 1
1
2n
Avec de telles proprietes, on verifie aisement quune probabilite poss`ede une propriete de monotonie par inclusion :
Propri
et
e 18
A B = P[A] P[B].
Si A est inclus dans B, on dit parfois que A implique B, et il est alors intuitif que la probabilite
de A est inferieure `
a celle de B (B sera toujours realise lorsque A le sera, et sa probabilite ne pourra
etre que superieure ou egale).
2.3
Ind
ependance
Une hypoth`ese primordiale en theorie des probabilites est lhypoth`ese dindependance. Elle est
parfois realiste ou simplificatrice selon les experiences.
D
efinition 17 On dit que deux evenements A et B sont ind
ependants lorsque
P[A B] = P[A] P[B].
(2.2)
La seule mani`ere de prouver lindependance est de prouver cette formule dune mani`ere ou dune
autre, le plus souvent en calculant les diverses probabilites impliquees dans (2.2).
1 1
1
=
6 6
36
de sorte que, sous lhypoth`ese dindependance des deux jets, la probabilite dobtenir un double six
1
est evaluee `
a 36
0.00278, soit environ 2.78%.
On peut egalement decouvrir que deux evenements issus de la meme experience aleatoire sont
independants. Pour lexperience dun seul jet de de, on constate pour les evenements A=obtenir
un jet 4 et B=obtenir un jet pair, on a P[A] = 23 , P[B] = 12 ,
P[A B] = P[{2, 4}] =
1
3
19
et
2 1
1
= .
3 2
3
Ces evenements sont donc independants, puisque lon constate legalite P[A B] = P[A] P[B],
refletant ainsi lidee que savoir que lon a un resultat impair ninfluence pas les chances dobtenir
un resultat inferieur ou egal `
a 4. Si par contre on consid`ere C=obtenir un jet 3, les evenements
B et C ne sont pas independants car
P[A] P[B] =
P[B C] = P[{2}] =
1
6
et
1 1
1
= .
2 2
4
Intuitivement, cela se justifie par un lien entre C et B : il y a moins delements pairs (donc de
B) en dessous de 3 (donc dans C) que dans lunivers.
P[B] P[C] =
Exemple 12 Une autre situation usuelle dapplication de lhypoth`ese dindependance est fourni
par des tirages au sort successifs avec ou sans remise. Lorsque le tirage est effectue avec remise
du premier element tire au sort, on se retrouve dans une situation identique lors du second tirage
au sort et le resultat du premier ninfluence en rien celui du second. On consid`ere donc que deux
tirages successifs avec remise sont independants. Lorsque le tirage est au contraire effectue sans
remise, lelement tire lors du premier tirage ne peut plus etre tire lors du second, diminuant par
exemple les probabilites dobtenir un element partageant avec lui certaines proprietes. Les resultats
des deux tirages sont lies et on consid`ere donc que deux tirages successifs sans remise ne sont pas
independants.
2.4
Probabilit
es conditionnelles
Lorsque les evenements ne sont pas independants, la probabilite de lun nest pas la meme selon
que lautre est realise ou non.
Exemple 13 On pourra prendre lexemple de la pluie et du vent. Il y a plus de chances quil pleuve
sil y a du vent plut
ot quen absence de vent.
D
efinition 18 Si P[B] 6= 0 alors on appelle probabilit
e conditionnelle de A sachant B :
P[A|B] =
P[A B]
.
P[B]
20
chances que A soit realise sachant que B est realise. Lorsque B est fixe, cela determine une nouvelle
probabilite
PB
: P()
A
[0, 1]
7 PB [A] := P[A|B].
Il sagit dune probabilite car elle verifie les axiomes des probabilites. Les deux notations P[A|B]
et PB [A] sont equivalentes et seront utilisees en fonction des circonstances. En particulier, lorsquil
sagit dutiliser les axiomes des probabilites (pour par exemple utiliser ladditivite), on pref`erera la
notation PB .
La connaissance des probabilites conditionnelles permet dobtenir une expression pour la probabilite de lintersection :
Propri
et
e 19 Pour tous evenements A et B on a :
P[A B] = P[A|B]P[B]
= P[B|A]P[A].
Exemple 14
est :
P[4|pair] =
Dans un jeu de 32 carte, la probabilite de tirer un roi sachant que lon a tirer un coeur est
de :
1
8
1/32
1
=
8/32
8
P[roi|coeur] =
Exemple 15
P[4 ET pair] = P[4] =
1
6
1 1
1
=
3 2
6
1
1
P[pair|4] P[4] = 1 =
6
6
P[4|pair] P[pair] =
Propri
et
e 20 (Formule de Bayes) Si P[A] 6= 0, alors on a :
P[B|A] =
P[A|B]P[B]
.
P[A]
(2.3)
Exemple 16 On consi`ere la population dun pays. Cette population est composee de 47% dhommes
et de 53% de femmes. Parmi les femmes, 40% sont blondes. Parmi les hommes, 30% sont blonds.
On prend une personne au hasard. Quelle est la probabilite des evenements suivants :
21
homme
0, 47 0, 3 = 0, 141
0, 47 0, 7 = 0, 329
0,47
femme
0, 53 0, 4 = 0, 212
0, 53 0, 6 = 0, 318
0,53
0,353
0,647
1
(2.4)
22
6. Quelle est la probabilite que ce soit une blonde, sachant que cette personne est une femme ?
2120
= 0, 4.
Il y a 2 120 femmes blondes sur 5 300 femmes, soit une probabilite de 5300
On pouvait aussi le calculer en utilisant la formule :
P[f emme/blonde] =
(2.5)
Propri
et
e 21 (Formule des probabilit
es totales (II)) Pour toute partition (Ai )iI , et tout
evenement B, on a :
X
P[B] =
P[B|Ai ] P[Ai ].
(2.7)
iI
P[A|B]P[B]
.
P[A|B]P[B] + P[A|B]P[B]
(2.8)
La formule de Bayes est tr`es importante et utile en probabilites car elle permet de tromper de
mauvaises intuitions dues `
a une vision trop equiprobable du monde.
Remarque 8 On peut voir quil sagit de comprendre la formule de Bayes comme une moyenne
ponderee et que nos intuitions sont souvent mises `
a mal lorsque lun des evenement du conditionnement (B ou A) est relativement rare.
Exemple 17 On estime quune personne ayant correctement revise ses cours pour cet examen a
une probabilite de 20% dechouer `
a lexamen. En revanche, on estime quune personne nayant pas
revise ses cours a une probabilite de 60% dechouer `
a cet examen.
On sait aussi que 50% des personnes ont correctement revise leurs cours et 50% nont pas correctement revise leurs cours.
Une personne passe deux fois de suite cet examen et echoue par deux fois mais affirme pourtant
avoir parfaitement reviser. Est-ce plausible ?
Appelons E levenement echouer 2 fois , A levenement la personne a revise ses cours .
est
La probabilite de E sachant A est P[E|A] = (0, 20)2 = 0, 04. La probabilite de E sachant A
2
= (0, 60) = 0, 36.
P[E|A]
23
P[B|A]P[A]
A]
P[B|A]P[A] + P[B|A]P[
Probabilite davoir reviser sachant que lon a echoue 2 fois = 0,10. Probabilite de ne pas avoir
reviser sachant que lon a echoue 2 fois = 0,90. Il y a donc une probabilite de 0,90 que la personne
na pas revise. Ce quelle dit est peu plausible !
Chapitre 3
Variable al
eatoire discr`
ete
3.1
Variable al
eatoire
3.1.1
D
efinition g
en
erale
D
efinition 19 On appelle variable al
eatoire le resultat dune epreuve aleatoire lorsque lissue
de celle-ci peut etre representee par un nombre.
Une variable aleatoire est generalement designee par une lettre majuscule X, Y, etc. et peut
egalement etre definie en tant quapplication depuis lunivers dans R
X
R
7 X()
3.1.2
Variables al
eatoires discr`
etes
D
efinition 20 On appelle variable al
eatoire discr`
ete une variable aleatoire qui ne prend que
des valeurs ponctuelles (isolees).
Exemple 18
`
a valeur dans X() = {1, 2, 3, 4, 5, 6}
Lancer de 2 pi`eces de monnaies identiques dont lissue est P (pour pile) et F (pour face).
Lunivers
= {P P, P F, F P, F F }
nest pas compose de grandeur numeriques mais on peut par exemple sinteresser au nombre
de fois o`
u face (F) est apparu, definissant ainsi une variable aleatoire X : {0, 1, 2} R
definie par le tableau
24
`
CHAPITRE 3. VARIABLE ALEATOIRE
DISCRETE
PP
0
PF
1
25
FP
1
FF
2
Cette application ne prenant quun nombre fini de valeurs, la variable aleatoire X est discr`ete
avec X() = {0, 1, 2}.
Les ev`enements {X = xi } (xi etant une valeur possible de X), engendres par les differentes valeurs prises par une variable aleatoire constituent les ev`enements elementaires de X. Les ev`enements
elementaires de lexemple precedent seront ainsi notes {X = 0} (Aucun face na ete tire), {X = 1}
(Un face a ete tire) et {X = 2} (Deux faces ont ete tires).
On definit donc naturellement des variables aleatoires en associant un nombre `a chaque ev`enement
elementaire. Comme on le verra, letude systematique des variables aleatoires fournit un cadre
theorique detude des phenom`enes aleatoires.
3.1.3
Variables al
eatoires continues
D
efinition 21 On appelle variable al
eatoire continue une variable aleatoire dont lensemble
des valeurs est R ou une reunion dintervalles de R.
Exemple 19
Duree de vie dune ampoule electrique : Bien que netant pas eternelle, on
consid`ere souvent quune ampoule electrique peut avoir nimporte quelle duree de vie et quelle
peut tomber en panne ou ne pas tomber en panne `
a tout moment. Aucune duree nest exclue et
la variable X qui la represente est une variable aleatoire continue dont lensemble des valeurs
est R+ = [0, +[. Dune mani`ere plus realiste, les ampoules ont une duree de vie maximale
D et X est une variable aleatoire continue `
a valeurs dans lintervalle X() = [0, D], mais la
duree maximale etant souvent inconnue, on consid`ere generalement X() = R+ .
Etude
de la taille dans une population donnee : Si on consid`ere sur une population de taille
N dont on note ti la taille de chaque individu i (i = 1, . . . , N ), la variable X qui denote la
taille dun individu de la population pris au hasard, lensemble des valeurs prises par X est
lensemble discret X() = {t1 , t2 , . . . , tN }. Neanmoins, la taille dun individu pouvant a priori
prendre toute valeur reelle positive, on consid`ere pour etudier des populations en general que
X peut egalement prendre toutes les valeurs reelles et est donc une variable continue `
a valeurs
dans R+ (ou dans un sous-intervalle si on veut considerer une taille maximale).
Dans la suite de ce chapitre, on ne considerera que des variables aleatoires discr`etes.
3.2
3.2.1
D
efinition 22 La loi dune variable al
eatoire discr`
ete X est une probabilite PX definie sur
ses ev`enements elementaires par lapplication
PX
: X() [0, 1]
x 7 PX (x) := P[{X = x}].
`
CHAPITRE 3. VARIABLE ALEATOIRE
DISCRETE
26
On note invariablement P[{X = x}], P[X = x], PX (x) ou p(x) la probabilite que X prenne
la valeur x. On verifie aisement que cette application est bien une probabilite dont lunivers est
lensemble X() des valeurs prises par X.
Exemple 20 Si on reprend lexemple dun de `
a six faces equilibrees, et que X represente le resultat
dun jet, on a X() = {1, 2, 3, 4, 5, 6} et directement
PX [X()] = PX [{1, 2, 3, 4, 5, 6}] = P[X {1, 2, 3, 4, 5, 6}] = 1.
De meme, laxiome de lev`enement impossible (PX [] = 0) et de ladditivite pour des ev`enements
disjoints sont verifies. Donner la loi dune variable aleatoire revient alors `a donner les probabilites
des ev`enements elementaires quelle induit, et on presente souvent ces donnees sous forme dun
tableau, en notant dune mani`ere generale X() = (xi )i=1,...,N = (x1 , x2 , . . . , xN ) pour une variable
aleatoires `
a N valeurs possibles (qui ne sont pas forcement 1, 2, . . . , N ),
X
PX
x1
p1
x2
p2
...
...
xN
pN
o`
u lon note respectivement p1 = PX (1) = P[X = 1], p2 = PX (2) = P[X = 2], . . . , pN = PX (N ) =
P[X = N ]. Ce tableau peut se representer graphiquement par un diagramme en b
atons.
3.2.2
0
1/4
1
1/2
2
1/4
Fonction de r
epartition
D
efinition 23 Une loi de probabilite est souvent definie `
a partir de sa fonction de r
epartition
F :
F
: R [0, 1]
x 7 F (x) = P[X x]
parfois egalement appelee fonction cumulative car on cumule les probabilites de toutes les valeurs
inferieures ou egales `
a x.
`
CHAPITRE 3. VARIABLE ALEATOIRE
DISCRETE
27
3.3
3.3.1
Param`
etres dune loi
Esp
erance math
ematique
D
efinition 24 Lesp
erance math
ematique E[X] dune variable aleatoire X joue le r
ole devolu
`
a la moyenne en statistiques : elle correspond a
` la valeur moyenne esperee par un observateur lors
dune realisation de la variable aleatoire X. Les valeurs prises par cette variable sont ponderees par
les probabilites des ev`enements elementaires de sorte que lon definit
E[X] =
N
X
i=1
p i xi =
N
X
xi P[X = xi ]
i=1
`
CHAPITRE 3. VARIABLE ALEATOIRE
DISCRETE
28
1
1
1
0+ 1+ 2=1
4
2
4
Propri
et
e 23 Si X est une variable aleatoire discr`ete et f une fonction `
a valeurs reelles definie
sur X(), alors Y = f (X) est aussi une variable aleatoire definie sur le meme espace de probabilite
. Connaissant la loi de X, on peut alors determiner la loi de Y .
Exemple 24 Par exemple, si Y = X 2 , on a PY (y) = P[Y = y] = 0 pour y < 0, et pour y 0,
PY (y)
= P[Y = y] = P[|X| = y]
= P[{X = y} {X = y}]
= PX ( y) + PX ( y)
Remarque 9 Lesperance E[X] nest quun indicateur moyen et ne peut caracteriser la loi une
variable aleatoire `
a lui tout seul.
3.3.2
Variance
Pour decrire plus precisement le comportement de X, sans pour autant caracteriser compl`etement
la loi de X, on peut sinteresser aux ecarts de X par rapport `a cette moyenne. Cependant, si on
consid`ere simplement la difference X E[X], on obtient un ecart moyen E[X E[X]] = 0 (par
linearite de lesperance, voir 3.3). On pourrait considerer la valeur moyenne de |X E[X]| mais on
pref`ere considerer la moyen de (X E[X])2 , plus pertinente mathematiquement.
D
efinition 25 La variance mesure ainsi la deviation moyenne autour de la moyenne esperee
E[X], et est definie par
N
2 X
2
V[X] = E X E[X]
=
pi xi E[X] .
i=1
Propri
et
e 24 (formule de Koenig) Elle est toujours positive puisquil sagit de lesperance dun
carre.
On a lexpression suivante :
V[X] = E[X 2 ] (E[X])2 .
(3.1)
D
efinition 26 Pour mesurer la dispersion dune variable aleatoire X, on consid`ere souvent en
statistiques l
ecart-type, lie `
a la variance par :
X =
V(X).
(3.2)
`
CHAPITRE 3. VARIABLE ALEATOIRE
DISCRETE
29
Exemple 25 Lorsque X est le nombre de face obtenu lors du lancer de 2 pi`eces equilibrees, la
variance est
1
1
1
1
V[X] = (0 1)2 + (1 1)2 + (2 1)2 = .
4
2
4
2
Le lien entre la variance et le dispersion moyenne autour de la moyenne peut etre explicite grace
a linegalite de Bienayme-Tchebychev (cf (3.5)).
`
3.3.3
Propri
et
es de lesp
erance et de la variance
Propri
et
e 25 (Lin
earit
e de lesp
erance) Si X et Y sont deux variables aleatoires definies sur
le meme univers et a, b deux reels,
E[aX + bY ] = aE[X] + bE[Y ].
(3.3)
3.4
3.4.1
1
V(X).
a2
(3.5)
Couple de variables al
eatoires discretes
D
efinition
D
efinition 27 Un couple al
eatoire discret est un couple (X, Y ) de variables aleatoires definies
sur le meme univers et `
a valeurs dans
X() Y () = {(x, y) : x X(), y Y ()}.
Par la suite, on notera {X = x, Y = y} pour designer lev`enement elementaire {X = x} {Y =
y}.
D
efinition 28 On appelle loi de probabilit
e ou loi jointe de (X, Y ), lapplication PXY de
X() Y () dans [0, 1] qui a
` chaque couple dev`enements elementaires (x, y) associe la probabilite
PXY (x, y) = P[X = x, Y = y].
Dans la pratique, ces probabilites jointes sont donnees `a laide dun tableau `a double entree
dont les lignes correspondent au valeurs possibles xi X() prises par X, les colonnes `a celles
yi Y () prises par Y , et lel`ement de la ligne i et colonne j `a la probabilite jointe PXY (xi , yj ) :
`
CHAPITRE 3. VARIABLE ALEATOIRE
DISCRETE
X|Y
x1
x2
...
xi
...
xn
y1
PXY (x1 , y1 )
PXY (x2 , y1 )
y2
PXY (x1 , y2 )
PXY (x2 , y2 )
...
30
yj
PXY (x1 , yj )
PXY (x2 , yj )
...
yN
PXY (x1 , yN )
PXY (x2 , yN )
PXY (xi , y1 )
PXY (xi , yj )
PXY (xi , yN )
PXY (xn , y1 )
PXY (xn , yj )
PXY (xn , yN )
Exemple 26 Une urne contient 3 boules numerotees {1, 2, 3}. On tire successivement, sans remise
et equiprobablement deux boules de lurne. Soit X et Y les numeros obtenus aux 1er et 2nd tirages.
Les resultats du 2nd dependent trivialement de ceux du 1er. Pour determiner la loi du couple, on
utilise les probabilites conditionnelles pour ecrire
PXY (x, y) = P[X = x, Y = y] = P[Y = y | X = x] P[X = x].
La loi du couple est alors donnee par le tableau suivant
x|y
1
2
3
1
0
1/6
1/6
2
1/6
0
1/6
3
1/6
1/6
0
Dune mani`ere generale, on peut calculer lesperance dune fonction f des deux variables X et
Y gr
ace `
a la loi du couple en ecrivant
X
E[f (X, Y )] =
f (x, y) PXY (x, y).
(x,y)X()Y ()
3.4.2
Lois marginales
Il se peut que connaissant la loi du couple on ne veuille sinteresser qu`a une seule de ses
coordonnees : on parlera alors de loi marginale.
D
efinition 29 Soit (X, Y ) un couple aleatoire discret. On appelle loi marginale de X lapplication PX de X() dans [0, 1] definie pour tout x X() par
X
PXY (x, y).
PX (x) = P[X = x] =
yY ()
Exemple 27 Dans lexemple precedent, la loi marginale de X est ainsi obtenue en sommant les
lignes du tableau de la loi jointe, et est donnee par le tableau
x
PX (x)
1
1/3
2
1/3
3
1/3
1
1/3
2
1/3
3
1/3
`
CHAPITRE 3. VARIABLE ALEATOIRE
DISCRETE
3.4.3
31
Covariance
D
efinition 30 Soit (X, Y ) un couple aleatoire discret. On appelle covariance de (X, Y ), notee
Cov(X, Y ), le nombre reel
Cov(X, Y) = E[(X E(X)) (Y E(Y)].
(3.6)
Cov(X, Y)
.
X Y
(3.7)
Ce coefficient de correlation est tr`es utile pour determiner le lien entre deux caract`eres en
statistiques descriptives.
3.4.4
Ind
ependance
Les lois marginales se calculent simplement `a partir de la loi du couple. Par contre, il est en
general impossible de calculer la loi du couple `a partir de ses lois marginales. Le cas simple de
variables aleatoires reelles independantes permet cependant de retrouver la loi du couple mais cest
loin detre le cas en general.
D
efinition 31 Soit (X, Y ) un couple aleatoire discret. On dit que les variables aleatoires X et Y
sont ind
ependantes lorsque tous leurs ev`enements elementaires le sont deux `
a deux, i.e.
(x, y) X() Y (), PXY (x, y) = PX (x) PY (y).
Dans ce cas, les variables sont egalement non correlees, cest `a dire que XY = Cov(X, Y ) = 0.
La reciproque est fausse en general.
Propri
et
e 29 Si X et Y sont deux variables aleatoires independantes, alors
E[XY ] = E[X] E[Y ],
V[X + Y ] = V[X] + V[Y ] = V[X Y ].
La reciproque est fausse : deux variables aleatoires verifiant une des relatione precedentes,
peuvent ne pas etre independantes. (exo : fabriquer un contre ex)
3.4.5
Lois conditionnelles
D
efinition 32 Soit (X, Y ) un couple aleatoire discret. On appelle loi conditionnelle de X sachant Y , lapplication pX|Y de X() dans [0, 1] definie pour tout (x, y) X() Y () par
pX|Y [x | y] = P[X = x | Y = y] =
PXY (x, y)
.
PY (y)
`
CHAPITRE 3. VARIABLE ALEATOIRE
DISCRETE
32
Exemple 28 Dans lexemple precedent, la loi conditionnelle de Y sachant que le chiffre 1 a ete
tire au premier tirage est donnee par le tableau suivant :
y
PY |X [y | 1]
1
0
2
1/2
3
1/2
On peut egalement calculer la loi du couple (la loi jointe) `a partir des lois conditionnelles en
toutes circonstances, et en particulier quil y ait independance ou non, grace au theor`eme suivant.
Th
eor`
eme 5 Soit (X, Y ) un couple aleatoire discret. La formule des probabilites composees permet
decrire
PXY (x, y)
= PX (x) PY |X (y | x) si PX (x) 6= 0
PXY (x, y)
sinon.
3.5
Lois discr`
etes usuelles
On consid`ere une variable aleatoire discr`ete X sur un univers quelconque . Lorsque X prend n
valeurs, lensemble X() des valeurs prises par X est designe par (xi )i=1...n , i.e. (x1 , x2 , . . . , xi , . . . , xn ),
, et (xi )iN lorsque X en prend une infinite. Le comportement aleatoire de X peut etre tr`es different
selon les phenom`enes etudies, et toute forme de loi est a priori envisageable. Cependant, certains
param`etres objectifs de caracterisation (moyenne, dispersion, etc.) permettent de degager des comportements recurrents et des familles de lois qui permettent une modelisation approchee raisonnable
de la plupart des phenom`enes aletoires courants. Nous decrivons ici les lois discr`etes les plus importantes, `
a travers certains exemples de mod`elisations.
3.5.1
1
.
n
On note egalement ces probabilites pk , p(k) ou PX (k). Ces probabilites elementaires sont en particulier independantes de la modalite k.
Propri
et
e 30 (Esp
erance et variance) On calcule aisement
n+1
,
2
2
n 1
V[X] =
.
12
E[X] =
`
CHAPITRE 3. VARIABLE ALEATOIRE
DISCRETE
33
Demonstration :
1
1
1
1
+ 2. + 3. + + +n. ,
n
n
n
n
n
1 X
= .
k,
n
E[X] = 1.
k=1
1 n(n + 1)
,
= .
n
2
n+1
=
.
2
Pn
1
1
1
1
+ 22 . + 32 . + + +n2 . ,
n
n
n
n
n
1 X 2
k ,
= .
n
E[X 2 ] = 12 .
k=1
1 n(n + 1)(2n + 1)
= .
,
n
6
(n + 1)(2n + 1)
=
.
6
Pn
k=1
k2 =
n(n+1)(2n+1)
6
(n + 1)(2n + 1) (n + 1)2
,
6
4
2n + 1 n + 1
(n + 1)
,
6
4
4n + 2 3n 3
(n + 1)
,
12
n1
(n + 1)
,
12
n2 1
.
12
J
35
12 .
1
6
`
CHAPITRE 3. VARIABLE ALEATOIRE
DISCRETE
3.5.2
34
Loi de Bernoulli
D
efinition 34 Cette loi est celle de toute variable aleatoire X modelisant une experience dont
lissue ne poss`ede que deux alternatives de type succ`es ou echec, vrai ou faux, marche ou
arret, pile ou face, etc. Un succ`es est represente par lev`enement {X = 1} tandis que X = 0
correspond `
a un echec X() = {0; 1}. Puisque lon a P[X = 0] = 1 P[X = 1], la loi de X
ne depend que dun param`etre (la probabilite de succ`es) ; on parle alors de la loi de Bernoulli de
param`etre p caracterisee par
P[X = 1] = p,
P[X = 0] = 1 p.
Propri
et
e 31 (Esp
erance et variance)
E[X] = p,
V[X] = p(1 p).
3.5.3
D
efinition 35 La loi binomiale est la loi de probabilite dune variable aleatoire representant une
serie depreuves de Bernoulli possedant les proprietes suivantes :
Chaque epreuve donne lieu `
a deux eventualites exclusives de probabilites constantes p et q =
1 p.
Les epreuves repetees sont independantes les unes des autres.
La variable aleatoire X correspondante prend pour valeur le nombre de succ`es dans une suite
de n epreuves.
Deux param`etres, le nombre depreuves (identiques mais independantes) repetees n et la probabilite p de succ`es dans lepreuve de Bernoulli en question caracterisent cette loi. Lors dune telle
experience, on dit que X suit une binomiale B(n, p), `a valeurs dans X() = {1, 2, . . . , n}.
Exemple 30 Le nombre X de Pile obtenus au cours de n lancers independants dune pi`ece
equilibree est une variable aleatoire discr`ete, `
a valeurs dans {0, 1} et suivant une loi binomiale
B(n, p) avec p = 21 , puisque la probabilite de succ`es est celle dobtenir un pile, i.e. 12 .
Th
eor`
eme 6 On a par ailleurs
X = X1 + + Xk + + Xn
o`
u les Xk sont des variables aleatoires de Bernoulli independantes de param`etre p, correspondant
au succ`es dune seule epreuve de pile ou face.
Exemple 31 Le nombre de boules rouges extraites au cours de n tirages successifs avec remise
(pour assurer lindependance) dune boule dans une urne contenant des boules rouges et blanches
dans des proportions p et q = 1 p est une variable aleatoire suivant une loi binomiale B(n, p).
`
CHAPITRE 3. VARIABLE ALEATOIRE
DISCRETE
35
Pour determiner les probabilites des evenements elementaires dune variable aleatoire suivant
une loi binomiale, il nous faut tout dabord determiner le nombre de possibilites dobtenir k succ`es
au cours de n epreuves. Il sagit de determiner le nombre de combinaisons (non ordonnees) de k
objets pris parmi n, avec bien s
ur k n. Les combinaisons sont non ordonnees car seul importe
davoir k objets (succ`es pour nous) et non pas `a quel(s) tirage(s) ces succ`es ont eu lieu. On connat
le nombre de possibilites de k succ`es et n echec, (Cnk ) il suffit de les multiplier par les probabilites
de succ`es et dechec pour obtenir la loi binomiale. On a donc :
Propri
et
e 32 Les probabilites elementaires dune variable aleatoire X suivant une loi binomiale
B(n, p) sont donnees pour tout nombre de succ`es k = 1 . . . n par :
P[X = k] = Cnk pk (1 p)nk .
Remarque 10 On a bien, en utilisant la formule du binome,
n
X
P[X = k] =
k=0
n
X
Cnk pk (1 p)nk
k=0
=1
Propri
et
e 33 (Esp
erance et variance)
E[X] = np,
V[X] = np(1 p).
Demonstration :
On a lecriture X = X1 + X2 + + Xk + + Xn , ou les Xk sont n variables aleatoires de Bernoulli
independantes. On a en effet par linearite de lesperance
E[X] = E[X1 ] + E[X2 ] + + E[Xk ] + + E[Xn ] = n E[X1 ] = n p
et par independance des variables aleatoires (Xk )k=1...n
V[X] = V[X1 ] + V[X2 ] + + V[Xk ] + + V[Xn ] = n V[X1 ] = n p (1 p)
J
Exemple 32
1. Un atelier comporte 10 machines identiques. Chaque machine a une probabilite
p = 0.01 de tomber en panne `
a un moment dans la journee. Lorsque lon suppose que les
machines tombent en panne de mani`ere independantes, la variable aleatoire X designant le
nombre de machines en panne a
` un moment donne dans la journee suit une loi B(10, 0.01).
Le nombre moyen de pannes par jour est donc E[X] = 10 0.01 = 0.1, la variance etant
V[X] = 10 0.01 0.99 = 0.099.
2. Une machine qui a une probabilite p = 0.01 de tomber en panne dans la journee est amenee `
a
fonctionner pendant 20 jours consecutifs. Alors, en supposant lindependance des pannes, i.e.
si lon consid`ere quapr`es chaque panne la machine est restauree `
a lidentique, X suit une loi
B(20, 0.01).
`
CHAPITRE 3. VARIABLE ALEATOIRE
DISCRETE
3.5.4
36
Loi de Poisson
k
k!
Propri
et
e 34
P[X = k + 1] =
P[X = k]
k+1
On admettra que :
Propri
et
e 35 (Esp
erance et variance)
E[X] = ,
V[X] = .
Exemple 33 Si on sait quen general un standard telephonique recoit 20 appels dans la journee
et que lon peut modeliser le nombre aleatoire dappels par une loi de Poisson, on pourra calculer
la probabilite davoir k appels, pour tout k, `
a laide des formules donnees par une loi de Poisson
P(20).
Remarque 11 Dans la pratique, des tables donnant les probabilites elementaires pour differentes
valeurs du param`etre sont disponibles et utilisees.
Propri
et
e 36 Si X1 et X2 sont deux variables aleatoires independentes suivant respectivement des
lois de Poisson P(1 ) et P(2 ), alors X = X1 + X2 suit une loi de Poisson P(1 + 2 )
Demonstration :
k11
k1 !
k2
P[X2 = k2 ] = e2 2
k2 !
P[X1 = k1 ] = e1
`
CHAPITRE 3. VARIABLE ALEATOIRE
DISCRETE
P[X1 + X2 = k] =
k
X
37
i=0
k
X
i=0
k
X
e1
i=0
=e
i1 2 ki
2
e
i!
(k i)!
(1 +2 )
k
X
i
ki
2
i! (k i)!
1
i=0
= e(1 +2 )
1 X
k!
i ki
k! i=0 i!(k i)! 1 2
= e(1 +2 )
1 X i i ki
C
k! i=0 n 1 2
= e(1 +2 )
(1 + 2 )k
k!
3.6
La loi de Poisson est souvent utilisee comme approximation de certaines lois binomiales pour
de grands echantillons, i.e. des lois binomiales correspondant `a des grands nombres n depreuves
de Bernoulli. Il y a bien s
ur quelques restrictions dont nous tairons ici les justifications theoriques,
et le param`etre de la loi approximante doit etre choisi de sorte que lesperance soit celle de la loi
binomiale approximee.
D
efinition 37 On dit quune suite de variables aleatoires (Xn : n N) convergence en loi vers
la variable aleatoire X si et seulement si on a, pour tout evenement A :
P[Xn A] P[X A]
n
On notera Xn X.
n
Remarque 12 Si les variables (Xn : n N) et X sont discr`etes alors il suffit que pour tout x R,
P[Xn = x] P[X = x]
n
Th
eor`
eme 7 Soient Xn B(n, p), Y P(). Alors on a :
Xn
n, p0, np=
`
CHAPITRE 3. VARIABLE ALEATOIRE
DISCRETE
38
P[X = 5] = P[Y = 5]
Le premier terme de legalite est :
5
P[X = 5] = C100
0.195 0.95
= 0, 034
Le resultat a ete trouve par informatique la plupart des calculatrices etant incapable de le calculer
contrairement `
a lautre terme :
105
exp(10)
5!
= 0, 037
P[Y = 5] =
Exemple 36
Conparaison des fonctions de repartitions dune loi B(100, 0.5) et de celle dune loi P(50).
`
CHAPITRE 3. VARIABLE ALEATOIRE
DISCRETE
39
Chapitre 4
Variables al
eatoires continues, loi
normale
4.1
4.1.1
D
efinition 38 On appelle variable al
eatoire continue une variable aleatoire dont lensemble
des valeurs est R ou une reunion dintervalles de R.
4.1.2
Probl
ematique de la notion de loi dans le cas continu
Sa loi, cest `
a dire la description des valeurs probables de X (avec quantification de ces probabilites) est plus bri`evement qualifiee de loi continue. La description dune loi continue diff`ere de celles
des lois discr`etes puisque pour une variable aleatoire continue X, la probabilite que X prenne une
valeur bien precise x PX (x) = P[X = x] est nulle. Il y a en effet une infinite de valeurs dans R ou
dans un intervalle, et au regard de toutes ces valeurs precises, le poids de la valeur particuli`ere est
tellement insignifiant quil en est nul ! Il nest ainsi pas possible de definir la loi de X par la donnee
des probabilites des evenements elementaires. Par contre, il est possible de deduire les probabilites
que X prenne ses valeurs dans une partie de R `a partir de la fonction de repartition qui vaut dans
ce cas continu
F (x) = P[X x] = P[X < x].
4.1.3
Fonction de r
epartition et loi `
a densit
e
CHAPITRE 4.
VARIABLES ALEATOIRES
CONTINUES, LOI NORMALE
41
fX (t)dt,
a
et la probabilite de trouver X dans un intervalle [a, b] donne apparat comme laire dune partie du
graphique situee entre la courbe de la densite fX et laxe des abscisses.
Remarque 15 Dans les applications, il nest pas necessaire de calculer ces aires `
a laide de calculs
car des tables de lois recapitulant les valeurs principales existent.
Propri
et
e 39 La donnee dune densite f permet donc de decrire compl`etement notre variable
aleatoire en caracterisant sa loi gr
ace aux proprietes suivantes :
x R, f (x) 0.
Z
+
f (x)dx = 1.
Z
P[a < X b] = F (b) F (a) =
f (x)dx.
a
4.2
4.2.1
Lois `
a densit
e classiques
Loi uniforme
l([a; b] I)
,
l([a; b])
o`
u l(J) designe la longueur de lintervalle J (ex : l([a ;b])=b-a).
CHAPITRE 4.
4.2.2
VARIABLES ALEATOIRES
CONTINUES, LOI NORMALE
42
Lois exponentielles
D
efinition 41 Soit un reel strictement positif. La v.a X suit une loi exponentielle de param`etre
, notee E(), si elle admet pour densite :
f (x) = ex 1[0;+[ (x).
Son esperance est E(X) = 1/ et sa variance est var(X) = 1/2 . Les lois exponentielles sont
souvent utilisees pour modeliser des temps dattente ou des durees de vie. Par exemple, les temps
dattente `
a partir de maintenant du prochain tremblement de terre, de la prochaine panne dun
appareil, de la prochaine desintegration dans un reacteur nucleaire suivent des lois exponentielles.
Le param`etre designe alors linverse du temps dattente moyen.
4.3
4.3.1
La loi normale
Loi normale centr
ee r
eduite N (0, 1)
D
efinition
La loi normale, ou loi normale centree reduite est la loi la plus connue des probabilites, parfois
sous le vocable loi de Laplace-Gauss et caracterisee par une cel`ebre courbe en cloche.
D
efinition 42 La loi normale centr
ee r
eduite est une la loi continue, dune v.a. X `
a valeurs
dans X() = R tout entier, definie `
a partir de la densite
1 x2
f (x) = e 2
2
Il nexiste par contre pas dexpression simple de sa fonction de repartition autre que la formule
integrale
Z a
a R, F (a) =
f (t)dt
Il sagit de laire de la surface situee sous la courbe et `a gauche de laxe vertical x = a (Voir la
figure 4.1 page 43).
Remarque 16 Dans les pratiques, les probabilites devenements de v.a. suivant une loi normales
sont repertoriees dans des tables facilement manipulables.
Param`
etres
Un calcul integral plus elabore donne :
Propri
et
e 41 (Esp
erance et variance)
E[X] = 0,
V[X] = 1.
CHAPITRE 4.
VARIABLES ALEATOIRES
CONTINUES, LOI NORMALE
43
4.3.2
Loi normale g
en
erale N (, )
D
efinition
D
efinition 43 Il sagit dune modification spatiale de la Loi normale : la forme en cloche de la
densite est la propriete principale de la famille des lois normales, qui peuvent eventuellement etre
translatee pour devenir assymetrique desperance non nulle , ou dilatee ou contractee autour de
la moyenne en jouant sur la variance 2 (Voir la figure 4.2 page 44). La densite est modifiee en
f (x) =
(x)2
1
e 22
2
partir de la loi N (0, 1), ce qui nous permettra de consulter les tables existant pour la loi standard
precedente. On a le theor`eme suivant :
Th
eor`
eme 8 Soit X une variable aleatoire de loi normale N (, ) et Z la variable aleatoire definie
par
X
Z=
CHAPITRE 4.
VARIABLES ALEATOIRES
CONTINUES, LOI NORMALE
44
=P
2
2
1
=P Z
2
1
=
2
= 0.6915.
Les valeurs ne sont tabulees que pour des valeurs de a positives, mais on sen sort `a laide de la
propriete suivante de le fonction de repartition de la loi normale :
Propri
et
e 43 Soit Z une v.a. de loi N (0, 1) ; on a alors
(a) = 1 (a)
et en particulier (0) = 21 . On a par ailleurs
P[| Z | a] = 2 (a) 1
CHAPITRE 4.
Exemple 38
VARIABLES ALEATOIRES
CONTINUES, LOI NORMALE
45
X 6
1 6
P[X > 1] = P
>
2
2
5
=P Z>
2
5
=
2
= 0.9938.
P[4 X 8] = P 1 Z 1
= P | Z | 1
= 2(1) 1
= 0.6826.
Remarque 18 En utilisant les techniques precedentes, on constate tout dabord que la loi normale
N (m, ) est une loi symetrique autour de laxe median x = . On a ainsi 50% des individus au
dessus de la moyenne et 50% en dessous. Cest loin detre le cas en general bienque notre intuition
nous pousse souvent `
a le croire, participant a
` une intuition probabiliste erronee.
Exemple 39 Cette loi permet aussi de mieux apprehender le lien entre variance et dispersion :
dans un intervalle [m , m + ] de longueur 2 et centre autour de la moyenne, on peut calculer
quil y a 68% des individus, lorsque quune v.a. suit une loi N (m, ) :
P[m X m + ] = 0.68
On etablit aussi la r`egle des 3 : 95% dun echantillon representatif dune loi normale N (m, )
est approximativement situe entre m 2 et m + 2. Plus exactement,
P[m 1.96 X m + 1.96] = 0.95
et on a m`eme 99, 7% des individus entre m 3 et m + 3 :
P[m 3 X m + 3] = 0.997
Autrement dit, lorsque lon a une variable aleatoire qui suit une loi normale N (m, ), on est pratiquement s
ur que la valeur se situera entre m 3 et m + 3.
Sommes de v.a. normales ind
ependentes
Propri
et
e 44 Soit X1 et X2 deux v.a. independentes de lois respectives N (1 , 1 ) et N (2 , 2 ).
p
Alors X1 + X2 suit une loi normale N (1 + 2 , 12 + 22 ) et X1 X2 suit une loi N (1
p
2 , 12 + 22 ).
4.4
Limportance de la Lois Normale est due `a son apparition comme loi limite de nombreux
phenom`enes, `
a travers par exemple le cel`ebre Theor`eme de la limite centrale.
CHAPITRE 4.
VARIABLES ALEATOIRES
CONTINUES, LOI NORMALE
46
Th
eor`
eme 9 Soit X1 , X2 , . . . une suite de variables aleatoires definies sur le meme espace de probabilite, suivant la meme loi L et independantes. Supposons que lesperance et lecart-type de
L existent et soient finis ( 6= 0).
Zn =
n
converge vers la loi normale centree reduite N (0; 1) lorsque n tend vers linfini.
Corollaire 2 (Th
eor`
eme de laplace) Cest notamment le cas pour une loi de bernoulli b(p) et
dans ce cas, Sn nest autre que la loi binomiale B(n; p) qui verifie bien les hypoth`eses. On a :
Sn np
L
U
npq n
avec U N (0; 1).
Dans la pratique, on consid`ere que lapproximation est bonne lorsque
n 30, p 0.1 et n p > 15
Exemple 40 (Utilisation du Th
eor`
eme de la limite centrale) Considerons X B(100, 0.4)
et U N (0; 1). On cherche `
a evaluer
P[X 45].
CHAPITRE 4.
VARIABLES ALEATOIRES
CONTINUES, LOI NORMALE
47
]
100 0, 4 0, 6
100 0, 4 0, 6
X 40
1, 02]
= P[
100 0, 4 0, 6
P[X 45] = P[
il est facile de voir que les deux evenements sont identiques et donc que les deux probabilites sont
egales. Maintenant, il suffit de dire que nous sommes sous les hypoth`eses du theor`eme 2 (n = 100
30, p = 0.4, n p = 40 > 15) et que ce dernier nous assure que :
P[X 45] = P[
X 40
1, 02]
100 0, 4 0, 6
= P[U 1, 02]
Par informatique on trouve (la plupart des calculatrices etant incapable de le calculer et aucun
etudiant assez courageux pour calculer les 46 termes de la somme...) :
P[X = 5] =
45
X
i
C100
0.4i 0.6100i
i=0
= 0, 869
Une lecture dans la table nous permet daffirmer que
4.5
Lois d
eriv
ees de la loi Normale
Parfois dautres lois que la loi normale sont utiles dans les approximations (cf. les calculs dintervalle de confiance, de test). Ce sont les lois de Student et du 2 (lire khi-deux). Ces lois dependent
dun param`etre n entier, appele degre de liberte (d.d.l.). De meme que pour la loi normale N (0; 1),
on disposera de tables pour ces lois.
4.5.1
Loi du Khi-deux
P
D
efinition 44 Soient X1 , ..., Xn des v.a independantes de meme loi N (0; 1). Posons 2 = i=1...n Xi2 ,
par definition la v.a. 2 suit une loi du khi-deux `
a n degre de liberte (abreviation d.d.l.). On note
2
(n) cette loi.
Quelques Proprietes :
- 2 0, cette loi nest donc pas symetrique,
- 2 admet une densite,
- E(2 ) = n et var(2 ) = 2n
4.5.2
Loi de Student
D
efinition 45 Soient X N (0; 1) et Y 2 (n). Posons T = X . Alors T suit une loi de
Y /n
Student `
a n degre de liberte et on la note T (n).
Chapitre 5
5.1
La loi des grands nombres est la formulation rigoureuse des faits intuitifs suivants : si on lance
un grand nombre de fois une pi`ece en lair, il y aura en moyenne 50% de piles (et donc aussi
50% de face). Precisons cette remarque. On joue n fois au pile ou face, avec proba p de tomber sur
pile. Pour 1 i n on pose Xi = 1{pile} , alors :
P
nb de piles
i=1..n Xi
=
.
n
n
Et il semble assez naturel que lorsque n est grand le rapport nb de piles/n tende vers la proba de
tomber sur pile, cest `
a dire precisement p = E(X1 ). Ainsi dans ce cas particulier, il semble que
lorsque n grand,
P
i=1..n Xi
E(X1 ).
n
De meme, si on lance un grand nombre de fois un d`e `a 6 faces en lair, il y aura en moyenne
1/6 `eme des faces qui seront, par exemple, des 4 (si la pi`ece et le d`e sont equilibres). Il existe
deux versions de la LGN qui correspondent `a deux modes de convergence : la faible o`
u on enonce
la convergence en probabilite et la forte avec la convergence presque s
ure. (cf. paragraphes
suivant pour definition de ces modes de convergence)
5.1.1
Th
eor`
eme 10 Soit (Xn )nN? une suite de v.a. reelles deux `
a deux independantes et de meme loi
2
tel que E(X1 ) < . Alors,
> 0
lim P( |
n
1 X
Xi E(X1 )| > ) = 0
n i=1..n
48
5.1.2
Il existe une version de la loi des grands nombres pour la convergence presque s
ure, on parle de
la loi forte (car la convergence presque s
ure est plus forte que celle en probabilite.)
Th
eor`
eme 11 Soit (Xn )nN? une suite de v.a. reelles deux `
a deux independantes et de meme loi
tel que E(|X1 |) < . Alors,
1 X
Xi = E(X1 ).
pour presque tout ,
lim
n n
i=1..n
On parle de convergence presque s
ure (p.s en abrege). Cela signifie que pour presque chaque
realisation , la quantite moyenne arithmetique des Xi converge vers E(X1 ). Attention, la vitesse de convergence depend du . On admet ce Theor`eme (LGN) fondamental dont les preuves
sont beaucoup plus complexes que celles de sa version faible.
Exemple 41 Appliquer la loi des grands nombres au jeu du pile ou face. Pour i = 1..n, posez
Xi = 1{pile} .
Exemple 42 Application : estimation dune proportion inconnue. On se propose destimer le param`etre p inconnu dune loi de Bernoulli en observant un grand nombre de fois un phenomene
aleatoire de loi de Bernoulli(p), cest `
a dire en observant les valeurs dune suite de v.a. Xi
independantes et de loi de Bernoulli(p). Consid`erons une urne comportant des boules rouges en
proportion inconnue p et des boules vertes (en proportion 1 p). Dapres la LGN, un grand nombre
de tirages de boules dans lurne donnera une estimation de la proportion p en comptant (la frequence
du) nombre de boules rouges ainsi tirees.
Seulement, quel est le nombre raisonnable de boules `
a tirer pour avoir une reponse assez precise ?
Pour repondre `
a cette question, on peut fabriquer un intervalle dans lequel on est certain que le
param`etre p se trouve avec une certaine probabilite. On appelle un tel intervalle, un intervalle de
confiance. Linegalite de Bienayme Tchebychev (cf. feuille dexos) permet de donner un intervalle
(exo). [ le paragraphe suivant (avec le TCL) donne egalement un intervalle]
Exemple 43 (Sondage) : Avant le second tour dune election, opposant les candidats D et G,
un institut de sondage interroge au hasard 1000 personnes dans la rue. On note p la proportion
delecteurs decides `
a voter pour G dans la population totale et on suppose lechantillon de personnes
interrogees representatif. Dans lechantillon sonde, cette proportion est egale `
a 0, 54. A laide de
Bienayme Tchebychev, proposer un intervalle de confiance pour p avec un risque derreur de 5%.
Faut il augmenter la taille de lechantillon pour repondre a
` la question ?
5.2
Th
eor`
eme central limite
n = P Xi /n, de
On sait maintenant que sous certaines conditions, la moyenne arithmetique X
i
n E(X1 )
v.a. independantes ayant la meme lois converge vers lesperance. On sait donc que X
n m)
n(X
et
/2
dt,
Autrement dit les sommes renormalisees se comportent asymptotiquement comme la loi normale.
De facon generale, lecart entre les moyennes arithmetiques et lesperance (ecart qui tend vers 0
par la LGN) se comporte apres normalisation comme la loi normale (ou bien encore en notant que
n m = 1 P
X
ecarts (renormalisee) tend vers une Gaussienne.)
i=1..n (Xi m), la moyenne des
n
Connaissant la densite de la loi normale, on peut le lire intuitivement comme suit. Si n est
assez grand alors Zn est tr`es probablement compris entre -3 et 3 (la probabilite est 0.9973). Soit
encore :
X1 + ... + Xn
3 3
E(X1 ) [ ; ],
n
n
n
avec grosse probabilite.
Remarque 19
1. Quelque soit la loi des Xi (moment dordre 1 fini), les sommes renormalisees convergent vers
une meme loi limite, la loi Normale, ce qui explique le nom de cette loi et son caract`ere
universel.
5.3
5.3.1
Quelques applications
Marcheur dans Z
Soit un marcheur aleatoire (imaginez un bonhomme ivrogne) qui se deplace sur laxe Z en
sautant aleatoirement `
a chaque unite de temps (`a chaque seconde par exemple) sur un de ces 2
voisins (droite ou gauche). Notons Xi sa position `a linstant i. On suppose que le marcheur debute
a lorigine `
`
a t = 0, cest `
a dire X0 = 0.
5.3.2
Deux candidats A et B sont en course pour une election. Soit p la probabilite de gens votant
pour A. A lissue dun sondage sur n personnes, on se propose de donner un intervalle de confiance
dans lequel p doit se trouver avec un(certain pourcentage .
1
si la personne i vote pour A
Pour 1 i n, posons Xi = |x| =
0
sinon.
Les Xi sont independants et suivent des loi de Bernoulli de param`etre p inconnu. On a E(X1 ) = p
et V ar(X1 ) = p(1 p). Le TCL autorise lapproximation (en loi) suivante pour n grand :
P
r
Xi
n
( i
p) N (0; 1) .
p(1 p)
n
Do`
u, pour tout > 0, on a :
r
P(|
n
(
p(1 p)
Xi
p)| < ) P(|Y | < ),
n
p)
n
n + p(1 p) ]
p [X
;X
n
n
Si lon veut par exemple donner une fourchette pour p avec un taux = 0, 95, on choisit = 1, 96
( cf. table de la loi normale). Ainsi avec 95%, on peut affirmer que,
n + 1,96 ]
n 1,96 ; X
p [X
2 n
2 n
(On a utilise le fait que pour p [0; 1], p(1 p) 1/4 ) De cette derni`ere expression, on remarque
que si lon augmente la taille n de lechantillon, lintervalle (de confiance) se resserre, ce qui
n 1,96
n + 1,96
;X
].
permet de lever eventuellement un indetermination dans le cas o`
u 1/2 [X
2 n
2 n
5.3.3
Un :=
n
(Xn 0 ) N (0; 1) .
Vu lallure de la densite de la normale centree reduite, on definit une zone rejet R de la forme
R =] ; t [] t ; +[ o`
u le nombre t est donne par la table N (0; 1) de la v.a. U avec
P(|U | > t ) =
Si on choisit = 0, 05, on a t = 1, 96 dapres la table N (0; 1). Et si choisit = 0, 1, on a
t = 1, 645.
Il reste alors `
a calculer la valeur u de U `a partir de lechantillon et a` decider en fonction de
lappartenance de u `
a R ou non.
(
Le test du 2
Toujours selon le meme schema, sous une certaine hypoth`ese H0 , on construit une statistique
(fonction des observations) qui doit tendre vers une loi connue. Dans le test du 2 , la convergence
de la statistique trouvee nest pas une consequence immediate du TCL mais cest dans le meme
esprit que celle ci se prouve (do`
u la place de ce test dans cette section).
Le test du khi-deux concerne uniquement les lois discr`etes, mais on peut lutiliser aussi pour des
echantillons continus regroupes en classes. Le mod`ele de base est toujours un echantillon (X1 , ..., Xn )
dune loi inconnue. Les classes, notees c1 , ..., ck , sont une partition de lensemble des valeurs possibles. Lhypoth`ese `
a tester porte sur les probabilites des classes, pour lesquelles on se donne des
valeurs theoriques Ptheo (c1 )..., Ptheo (ck ).
H0 :
Sous lhypoth`ese H0 la distribution empirique de lechantillon sur les classes doit etre proche de
la distribution theorique. La distribution empirique (observee) Pobs est celle des frequences de
lechantillon dans les classes :
1 X
Nombre de Xi tombant dans la classe cj
Pobs (cj ) =
1{c } (Xi ) =
.
n i=1...n j
n
On mesure ladequation de la distribution empirique `a la distribution theorique par la distance du
khi-deux.
La distance du khi-deux est donc une moyenne ponderee decarts quadratiques entre les
valeurs de Ptheo et Pobs . Ce nest pas une distance au sens usuel du terme, puisquelle nest meme
pas symetrique. La loi de probabilite de D2 (Ptheo , Pobs ) na pas dexpression explicite en general.
On utilise le resultat suivant :
Propri
et
e 45 Sous lhypoth`ese H0 , la loi de la variable aleatoire nD2 (Ptheo , Pobs ) converge quand
n tend vers linfini, vers la loi du khi-deux de param`etre k-1.
Si lhypoth`ese H0 est fausse, alors la variable nD2 (Ptheo , Pobs ) tend vers linfini ( appliquer k fois
la loi des grands nombres, on obtient un terme lineaire en n). En pratique, la statistique du test
du khi-deux se calcule sous la forme suivante :
U = nD2 =
i=1...k
o`
u
ntheo (ci ) est leffectif theorique de la classe ci , `a savoir le produit nPtheo (ci ),
nobs (ci ) est leffectif observe de la classe ci .
Ces trois tests ont un principe commun qui est le suivant : on repartit les observations dans k
classes dont les effectifs sont notes n1,obs , ..., nk,obs . Lhypoth`ese H0 permet de calculer les effectifs
theoriques, notes n1,theo , ..., nk,theo (ni,theo represente leffectif theorique dans la classe i). On rejette
H0 si les effectifs observes sont trop differents des effectifs theoriques. Pour cela on donc utilise la
statistique de test decrite precedement :
P
(ni,obs ni,theo )2
U = i=1..k
.
ni,theo
Fait 1 : Le point central est que grace `a la propriete 45, on peut prouver que lorsque la taille de
lechantillon augmente, la statistique U tend vers la loi dun 2 (k 1 m) o`
u k est le nombre de
classes et m est le nombre de param`etres estimees necessaires au calcul des effectifs theoriques (les
Ni doivent etre superieur `
a 5).
Il faut donc sassurer que les effectifs theoriques sont plus grands que 5 et faire des regroupements de classes si besoin est. A partir de l`a, on calcule la zone de rejet unilaterale R = [t,+ ][
au risque en determinant t dans la table de la loi 2 (k 1 m) par P(U > t ) = . La r`egle
decision est la suivante :
P
si u = i=1..k (ni,obs ni,theo )2 appartient `a R , on rejette H
0
ni,theo
P
2
si u = i=1..k (ni,obs ni,theo ) nappartient pas `a R , on accepte H0
ni,theo
Remarque 20
1. Contrairement aux autres tests, les tests du 2 nexigent pas de formuler lhypoth`ese alternative
H1 , qui correspond `
a la negation de H0 .
2. Les effectifs theoriques doivent etre superieurs `
a 5. Si ce nest pas le cas, il faut regrouper des
classes.
3. Dans la statistique U = 2 (k 1 m), on manipule des effectifs et non des pourcentages.
Exemple A : Ad
equation `
a une loi
Exemple a
Un croisement entre roses rouges et blanches a donne en seconde generation des roses rouges, roses
et blanches. Sur un echantillon de taille 600, on a trouve les resultats suivants :
Couleur Effectif
rouges
141
roses
315
blanches
144
Peut on affirmer que les resultats sont conformes aux lois de Mendel ?
Il sagit de tester H0 : prouges = pblanches = 0.25, proses = 0.5 par exemple au risque = 0.05.
On dresse alors le tableau suivant :
couleur effectifs observes Ni effectifs theoriques ni,theo
rouges
141
0.25 600
roses
315
0.5 600
blanches
144
0.25 600
Ici, on a k = 3 classes et m = 0 (aucun param`etre `a estimer pour pouvoir calculer les effectifs
(141 150)2
(315 300)2
(144 150)2
+
+
= 1.53
/ R .
150
300
150
On propose le non rejet de lhypoth`ese : on ne peut pas dire que les observations contre- disent la
loi de Mendel.
Exemple b :
On observe le nombre X daccidents journaliers sur une periode de 50 jours dans une certaine ville.
On obtient :
Nombre daccidents Nombre de jours
0
21
1
18
2
7
3
3
4
1
= 0.9 et que var(X) = 0, 97. Peut on affirmer que X suit une loi de Poisson au
On constate que X
risque = 0.05 ?
Soit H0 : X suit une loi de Poisson de param`etre 0.9, on dresse donc le tableau suivant :
Nombre daccidents Nombre de jours
Nombre de jours theorique
0
21
50 e0.9 = 20.330
1
18
50 e0.9 0.9 = 18.295
au moins 2
11
50 (1 e0.9 (1 + 0.9)) = 11.376
On a regroupe les 3 derni`eres classes pour avoir un effectif theorique superieur `a 5 dans la derni`ere
classe. Dans cet exemple, on a k = 3 classes et m = 1 param`etre estime (`a savoir le param`etre
= 0.9 de la loi de Poisson) necessaire au calcul des effectifs theoriques. Donc k 1m = 1 est
=X
le nombre de d.d.l de U ; On calcule alors R = [t ; +[ `a laide de 2 (1) et on obtient t = 3.841.
Pour finir, on calcule
u = U () =
(18 18.295)2
(11 11.376)2
(21 20.33)2
+
+
= 0.039
/ R .
20.33
18.295
11.376
si Y et Z independantes,
sinon.
PP Cheveux
PP
blonds
PP
Yeux
P
bleus
25
gris
13
marrons
7
brun
roux
noir
9
17
13
7
7
5
3
10
8
PP
PP Cheveux
PP
blonds
PP
Yeux
P
bleus
44 45/124 ' 15, 97
gris
17, 05
marrons
11, 98
brun
roux
noir
13, 84
14, 78
10, 38
6, 74
7, 2
5, 06
7, 45
7, 96
5, 59
(2515,97)2
15,97
(913,84)2
13,84
+ ... +
(85,59)2
5,59
X X
Oi,j =
i=1..k j=1..l
Oi. =
i=1..k
O.j
j=1..l
Oi. represente leffectif observe de la valeur Ai parmi la reunion de tous les echantillons et Oj.
represente leffectif de lechantillon j.
On a la propriete similaire au fait 1 :
Propri
et
e 47 Avec les notations ci-dessus,
(
X X (Oi,j Oi. O.j )2
2 ((k 1)(l 1)) en loi
n
Un =
Oi. O.j
+ p.s
i=1..k j=1..l
n
si H0 vraie
sinon
PP
PP
Linge
PP
PP
Lessive
P
A
B
C
TS
LS
30
23
75
65
56
125
205
121
300
Chapitre 6
Annexe
59
CHAPITRE 6. ANNEXE
6.1
60
CHAPITRE 6. ANNEXE
61
CHAPITRE 6. ANNEXE
6.2
62