You are on page 1of 51

PROBABILITES

Les probabilites en maths sup ne concernent que des experiences dont la modelisation
utilise un ensemble (on dit souvent univers) ni (par exemple, le lancer de trois
des et on sinteresse au resultat obtenu : lensemble qui decrit bien lexperience
est N
3
6
, en notant N
p
lensemble des entiers compris entre 1 et lentier naturel
non nul p ; par exemple le jeu du lancer dune pi`ece de monnaie durant n parties
et on regarde `a chaque lancer si on obtient pile ou face : lensemble qui peut
decrire lexperience est lensemble { 0, 1 }
n
, avec 1 correspondant `a pile et 0
correspondant `a face).
I- LE CAS DES UNIVERS FINIS
On consid`ere un ensemble ni non vide, ayant n elements. On appelle P()
lensemble de toutes les parties de (chaque element de P() sappelle en
probabilite un evenement ).
Levenement certain est lensemble . levenement impossible est lensemble
vide. Deux evenements A et B sont impossibles sils sont disjoints.
On appelle probabilite P sur toute application denie sur P() `a valeurs
dans [0, 1] telle que P() est egal `a 1 et telle que, quel que soit le couple (A, B)
de parties de disjointes, on a :
P(A B) = P(A) +P(B) .
On dit que (, P) est un espace probabilise pour signier que P est une pro-
babilite sur .
Un evenement A est dit negligeable dans lespace (, P) si et seulement si P(A)
est nul.
1 ) Si on note (A
k
)
1kp
une famille de parties de deux `a deux disjointes,
on montre par recurrence sur p, que :
P(
_
1kp
A
k
) =

1kp
P(A
k
) .
2 ) Si A et B sont deux parties de (non necessairement disjointes), on a( en
ecrivant A B = A (B A B) et B = (B A B) A B) :
P(A B) = P(A) +P(B A B) = P(A) +P(B) P(A B) .
1
2
Par recurrence, on deduit que, si A
1
, ..., A
q
sont q evenements, on a linegalite :
P(
_
1 i q
A
i
)

1i q
P(A
i
)
3 ) Lapplication P est totalement determinee par la donnee des valeurs de
P({ }) quel que soit appartenant `a (puisqualors, pour toute partie non
vide A de , P(A) est egal `a

A
P({ })) .
Si on se donne reciproquement la collection de n nombres reels positifs dont la
somme fait 1, collection quon note (p

, on denit une probabilite (facile


`a verier) en posant :
A P() , P(A) =

A
p

(en convenant que la somme vide est egale `a 0).


Une telle fonction p (qui associe `a le reel p

) sappelle un germe de pro-


babilite sur lensemble .
Un cas courant est quand la probabilite de chaque singleton est la meme (pro-
babilite dite uniforme), `a savoir ( puisque la somme doit faire 1) :
, P({ }) =
1
Card()
et A P() , P(A) =
Card(A)
Card()
.
4 ) Si on note
c
A le complementaire (dans ) de toute partie A de , en ecrivant
que = A
c
A, on obtient que :
A P() , P(
c
A) = 1 P(A) et P() = 0 .
5 ) On peut generaliser la formule precedente obtenue dans lalinea 1 de cette
remarque pour une famille de parties de non necessairement disjointes ( cette
formule sappelle la formule de Poincare qui est a priori hors programme).
Si (A
i
)
1ir
est une famille de r evenements, alors :
P(
_
1ir
A
i
) =

JNr,J=
(1)
Card(J)+1
P(

iJ
A
i
) .
La preuve du cas r = 2 a ete faite ci-dessus.
En disant que
_
1i (r+1)
A
i
est lunion de
_
1ir
A
i
et de A
r+1
et en disant que
((
_
1ir
A
i
)

A
r+1
) est
_
1ir
(A
i

A
r+1
), on a alors :
P(
_
1i (r+1)
)A
i
) = (

JNr,J=
(1)
Card(J)+1
P(

iJ
A
i
)) +P(A
r+1
)
(

JNr,J=
(1)
Card(J)+1
P(

iJ
(A
i
_
A
r+1
)))
3
En regroupant les parties de N
r+1
comme etant celles de N
r
et celles de N
r
unie au singleton { (r + 1) }, on obtient bien la formule de Poincare au rang
(r + 1).
PREMIERE APPLICATION : Lindicatrice dEuler (ultraclassique).
Lindicatrice dEuler est la fonction denie sur N

par :
k N

, (k) = Card({ 1 d k, pgcd(d, k) = 1 } .


On va calculer (k) pour k superieur ou egal `a 2 (car (1) vaut 1).
Soit = N
k
probabilise uniformement et soit A le sous-ensemble de forme
des elements premiers avec k.
Soit k =

1st
p
ms
s
la decomposition de k en produit dentiers naturels premiers.
Soit A
s
le sous-ensemble de forme des entiers non divisibles par p
s
.
Notons dej`a que, si J est non vide , si J est inclus dans N
t
, lensemble

sJ
A
s
a
k

sJ
p
s
elements ( ce sont les entiers de la forme ((

sJ
p
s
)u) et inferieurs ou
egaux `a k)
Lensemble A est lensemble

1st
c
A
s
.
Donc :
kP(A) = k(1 P(
_
1st
A
s
)) = k(

JNt
(1)
Card(J)
P(

sJ
A
s
)
=

JNt
(1)
Card(J)
(k

sJ
1
p
s
) = k(

1st
(1
1
p
s
))
(en convenant que

s
A
s
est lensemble tout entier).
Donc :
(k) = kP(A) = k

1st
(1
1
p
s
) .
SECONDE APPLICATION Un amoureux distrait envoie n bouquets de
eurs marquees de n prenoms de femmes quil aime ( prenoms distincts), les-
quels bouquets ont ete presentes dans un papier qui cache le prenom et sur
lequel est mis ladresse de ces femmes, au hasard.
Quelle est la probabilite pour quau moins une de ces femmes re coive le bou-
quet qui lui etait destine ?
On modelise en considerant , lensemble des bijections de lensemble des n
bouquets (notes b
1
, ...b
n
) dans lensemble des n femmes (notees F
1
, ...F
n
, avec
b
i
qui porte le prenom de F
i
)
4
On consid`ere levenement A
i
qui correspond au fait que la i-`eme femme re coive
le bon bouquet (`a savoir le bouquet b
i
).
Levenement B
n
dont on veut calculer la probabilite est
_
1in
A
i
Or, si J est non vide et inclus dans N
n
, lensemble (

iJ
A
i
) a (n Card(J))!
elements (tous les elements b
j
se transforment en F
j
quel que soit j dans J, les
autres elements correspondant `a une bijection dun ensemble `a (n Card(J))
dans un ensemble `a (n Card(J)) elements).
Donc , avec la formule de Poincare, :
P(B
n
) =

1in
(1)
i+1
(

JNn,Card(J)=i
(n i)!
n!
)
=

1 in
(1)
i+1
_
n
i
_
(n i)!
n!
=

1in
(1)
i+1
i!
Si on sait que

iN
(1)
i
i!
est egal `a e
1
, alors Lim
n+
P(B
n
) vaut (1 e
1
)
dont une valeur approchee est 0, 63........si n est grand, il y a plus dune chance
sur deux que lamoureux transi envoie le bon bouquet `a au moins une des
femmes quil aime ( ne cherchons aucune morale `a cette application).
EXERCICES (non corrige)
1 ) Soient r et n dans N

.
On lance r balles dans n cases. calculer la probabilite quaucune case ne soit
vide.
2 ) (sans rapport avec la question precedente).
Soient n et r deux entiers naturels non nuls. Soient n urnes (reperables) et r
boules ( les urnes et les boules sont discernables).On repartit les r boules dans
les n urnes.
On se xe m urnes (evidemment m est inferieur ou egal `a n).Calculer la pro-
babilite pour quaucune de ces m urnes reperees `a lavance ne soit vide.
II- LES VARIABLES ALEATOIRES SUR UN UNIVERS FINI
Soit (, P) un espace probabilise ni ( de cardinal n).
Une variable aleatoire est une application denie sur , `a valeurs dans un
ensemble E (on dira que la variable aleatoire est reelle si E est inclus dans R).
Le nom de ces applications vient de ce quelles sont introduites pour donner le
resultat dune experience aleatoire ( exemple : on lance p fois un de (normal)
et la variable aleatoire est la somme des nombres obtenus apr`es ces p lancers.
La variable X est denie sur lensemble = N
p
6
et, si (x
1
, ..., x
p
) appartient
`a , alors X(x
1
, ..., x
p
) est egal `a

1jp
x
j
).
5
Soit X une variable aleatoire denie sur : ce qui est interessant est de savoir
la chance que X prenne certaines valeurs jugees interessantes relativement
`a lexperience faite.
Do` u la denition suivante :
Si A est un sous-ensemble de E (ensemble darrivee), on consid`ere levenement
X
1
< A > ( quon note en probabilites (X A)).
On appelle loi (de probabilite) de X lapplication P
X
denie sur lensemble
ni X < > par :
A P(E) , P
X
(A) = P(X A) ( qui est donc P(X
1
< A >) ).
Il est aise de verier que P
X
est une probabilite sur lensemble X < >.
Puisque tout sous-ensemble non vide de E est lunion disjointe de tous ses sin-
gletons, en notant pour x dans E lensemble X
1
< { x } > sous la forme
(X = x), il faut et il sut de connatre la collection (P(X = x))
xX<>
pour
pouvoir connatre la valeur de P
X
(A) (car P
X
(A) est la somme des P(X = x)
pour x decrivant A X < >).
Do` u la denition suivante :
On appelle loi de probabilite de la variable X ( ou plus simplement loi de
X) la donnee de (P(X = x))
xX<>
.
Rappelons que est ni (et X < > est donc lui aussi un ensemble ni).
Remarquons aussi :
1 ) Puisque

xX<>
P(X = x) est egal `a P(), cette somme est donc egale `a 1
Reciproquement, si on se donne une collection (p
x
)
xX<>
de nombres reels
positifs de somme egale `a 1, on denit une loi de probabilite sur X < > en
posant :
x X < >, P(X = x) = p
x
.
2 ) Si X est une variable aleatoire et si f est une fonction denie au moins sur
X < >, alors f(X) (id est f X) est une variable aleatoire dont la loi est
determinee par celle qui est donnee sur X car :
y f < X < >>, P(f(X) = y) =

xX<>,f(x)=y
P(X = x)
3 ) Il y a trois grandeurs attachees naturellement `a une variable aleatoire reelle
donnee ( et la troisi`eme englobe les deux precedentes) : comme premi`ere gran-
deur, lesperance (ou la moyenne) quon note E(X) et qui est :
E(X) =

xX<>
xP(X = x) .
Puisque levenement (X = x) est lunion disjointe
_
,X()=x
{ }, on en
deduit que :
E(X) =

X()P({ }) .
6
Lesperance est donc une fonction croissante au sens que, si X et Y sont deux
variables aleatoires telles que X() est inferieur ou egal `a Y () quel que soit
dans (on ecrira dorenavant X Y ), alors E(X) est inferieur ou egal `a E(Y ).
Il est aise de constater que lesperance est une application lineaire sur lespace
des variables aleatoires reelles denies sur .
Lesperance de la variable aleatoire constante egale `a a est egale `a a.
Si f est une fonction denie sur X < >, on a :
E(f(X)) =

f(X())P({ }) =

xX<>
(

,X()=x
f(x)P({ }))
=

xX<>
f(x)P(X = x)
Si A est inclus dans , si on consid`ere
A
la fonction caracteristique de A, alors
E(
A
) qui est egal `a P(
A
= 1) est egal `a P(A) (formule utile pour relier la
probabilite dun evenement `a lesperance dune variable aleatoire, comme on le
fait ci-dessous pour prouver linegalite de Markov).
Si X est une variable aleatoire reelle, on notera | X | la variable denie par :
, | X | ( ) =| X() |
On a ainsi une proposition qui precise par une majoration la probabilite quune
variable aleatoire ( en valeur absolue) soit superieure `a un nombre donne. Cette
proposition sappelle linegalite de Markov
Si Y est une variable aleatoire reelle, si a est un reel, on notera (Y a)
(resp. (Y a), resp. (Y A) pour a un sous-ensemble de R) lensemble
Y
1
<] , a] > (resp Y
1
< [a, +[, resp. Y
1
< A >).
Proposition 0.0.1 (inegalite de Markov)
Soit X une variable aleatoire reelle denie sur lespace probabilise (, P).
Soit a un reel strictement positif. Alors :
P(| X | a)
E(| X |)
a
Puisque la variable | X | est superieure `a (a
|X|a
), on deduit de la croissance
et de la linearite de lesperance que :
E(| X |) aE(
|X|a
)) = aP(| X | a) .
Comme deuxi`eme grandeur , il y a la variance V (X) qui est la quantite E((X
E(X))
2
) egale ( en utilisant la linearite de lesperance) `a (E(X
2
) E(X)
2
).
La racine carree de la variance V (X) est lecart type et se note (X).
7
On a la relation vraie pour toute variable aleatoire reelle X :
(a, b) R
2
, V (aX +b) = a
2
V (X)
VOCABULAIRE : une variable aleatoire desperance nulle est dite centree
et une variable de variance egale `a 1 est dite reduite.
Avec legalite precedente, on deduit que , si X est une variable aleatoire donnee
de variance strictement positive, alors
XE(X)
(X)
est reduite centree.
Deux variables aleatoires X et Y sont dites egales presque s urement si et
seulement si la probabilite P(X = Y ) est egale `a 1 (elles ne di`erent que sur
un ensemble negligeable).
Si X est une variable aleatoire `a valeurs positive, X est presque s urement nulle
si et seulement son esperance est nulle( en eet, supposons que E(X) est nul ;
si 0 nest pas atteint par la variable X, alors quel que soit x dans X < > ,
P(X = x) serait nul et P() serait nulle ; donc la nullite de lesperance assure
que 0 est dans le domaine de valeur de X et que P(X = x) est nul quel que
soit x non nul dans X < > : P(X = 0) est donc egal `a 1.La reciproque est ,
je crois, claire).
Maintenant quon sait ce quest la variance, on peut deduire de linegalite de
Markov, la cel`ebre inegalite de Bienayme-Tchebyche
Proposition 0.0.2 Soit X une variable aleatoire reelle denie sur lespace
probabilite (, P).
Soit a un reel strictement positif.
Alors :
P(| X E(X) | a)
V (X)
a
2
.
La probabilite P(| X E(X) | a) qui est egale `a P((X E(X)
2
) a
2
) est,
dapr`es linegalite de Markov, inferieure ou egale `a
E((XE(X))
2
)
a
2
, cest-`a-dire
inferieure ou egale `a
V (X)
a
2
.
Ceci corrobore que V (X) est un indicateur de la dispersion de la variable X
autour de son esperance.
EXEMPLE : Une bote de nuit re coit n personnes qui poss`edent et deposent
toutes leurs sacs `a lentree (chaque personne a exactement un sac). A la ferme-
ture, les n personnes ( qui partent donc toutes `a cette fermeture) reprennent
chacune leur sac compl`etement au hasard ( peu realiste, cest s ur.....) et chacun
prend donc un (et seulement un) sac au hasard.
On consid`ere (X
k
)
1kn
la famille de variables aleatoires qui prennent seule-
ment les deux valeurs 0 et 1 ( X
k
prend la valeur 1 si la k-`eme personne recup`ere
son sac et prend la valeur 0 sinon).
Montrer que la probabilite pour quau moins 11 personnes retrouvent leur sac
est au plus egal `a 0, 01 quel que soit n (superieur ou egal `a 11).
8
Solution possible On appelle s
k
le sac de la personne k. Et on consid`ere
lensemble des bijections de N
n
dans lensemble { s
k
, 1 k n }.
On munit du germe p uniforme ( quel que soit dans , P({ }) =
1
n!
).
Ainsi P(X
k
= 1) est egal `a
(n1)!
n!
et E(X
k
) vaut donc
1
n
.
Si on note S
n
=

1kn
X
k
, S
n
represente le nombre de personnes recuperant
leur sac.
Or E(S
n
) vaut 1. La probabilite P(S
n
11) est egale `a P(S
n
E(S
n
)) 10).
En utilisant linegalite de Bienayme Tchebyche, on :
P(S
n
11)
V (S
n
)
100
Or :
V (S
n
) = E(S
2
n
) (E(S
n
))
2
=

1kn
E(X
k
)
2
+ 2

1i<jn
E(X
i
X
j
) 1
Or, si i et j sont deux indices distincts, X
i
X
j
prend les valeurs 1 et 0 et :
P(X
i
X
j
= 1) = P((X
i
= 1) (X
j
= 1)) =
(n 2)!
n!
=
1
n(n 1)
.
Donc : V (S
n
) = 2(
n(n1)
2
)(
1
n(n1)
) = 1 .
Ainsi P(S
n
11) est inferieure ou egale `a
1
100
.
Comme troisi`eme grandeur, il y a le moment dordre k (entier superieur ou egal
`a 1) dune variable aleatoire reelle X et qui est lesperance de la variable X
k
.
Cette grandeur correspond `a lesperance pour k = 1 et permet de denir la
variance pour k = 2.
On peut generaliser linegalite de Markov ( et meme linegalite de Tchebyche)
pour obtenir les deux majorations vraies pour tout reel a strictement positif
(meme preuve que pour linegalite de Markov). Notamment, on a :
P(| X | a)
E(| X |
k
)
a
k
.
III-PROBILITES CONDITIONNELLES
Soit un ensemble ni non vide muni d une probabilite P.
Soit B un sous-ensemble non negligeable de lespace (, P).
On appelle probabilite conditionnelle ( sous la condition de levenement
B) lapplication denie sur P() par :
A P() , P(A | B) =
P(A B)
P(B)
.
Lapplication (A P(A | B)) est une probabilite sur lensemble .
9
On appelle syst`eme complet devenements, la donnee dune famille nie
(B
i
)
1ip
de p sous-ensembles non negligeables de P() qui forment une par-
tition de lensemble .
Voil`a quelques proprietes ( cel`ebres) et bien utiles :
Proposition 0.0.3
1 ) (formule dite des probabilites totales)
Soit (B
i
)
1ip
un syst`eme complet devenements de lespace probabilise (, P).
Alors :
A P(), P(A) =

1ip
P(B
i
)P(A | B
i
) .
2 ) (formule de Bayes)
Si A et B sont deux evenements non negligeables et si (B
i
)
1ip
est un syst`eme
complet devenements de (, P) on a :
P(B | A) =
P(A | B)P(B)
P(A)
et
1 j p, P(B
j
| A) =
P(A | B
j
)P(B
j
)

1kp
P(A | B
k
)P(B
k
)
.
3 ) ( formule des probabilites composees)
Soit (B
i
)
1ip
une famille devenements de lespace (, P) tels que

1ip
A
i
est non negligeable.
Alors :
P(

1ip
A
i
) = P(A
1
)(

2jp
P(A
j
|
1k(j1)
A
k
)) .
REMARQUE Les preuves de ces resultats sont faciles `a faire. Linteret de
cette proposition est pratique.
1 ) Puisque A est lunion disjointe des ensembles (A B
i
)
1ip
, on a bien :
P(A) =

1ip
P(A B
i
) =

1ip
P(B
i
)P(A | B
i
) .
2) Cette formule se deduit aisement de la denition et de la formule des pro-
babilites totales.
3 ) Pour n = 2, cest la denition des probabilites conditionnelles. Le cas general
se deduit par recurrence sur lentier n.
COMPLEMENT La formule des probabilites totales ici presentee necessite
un syst`eme complet devenements.
10
Mais on peut demander `a la famille (B
i
)
1 ip
detre un syst`eme quasi-
complet devenements, cest-`a-dire une familles devenements deux `a deux
disjoints, non negligeables et dont lunion est un ensemble presque s ur.
En eet, en notant D =
_
1 i p
B
i
, on a alors :
A P( ), P(A) = P(A

c
D)+P(A

D) = P(A

D) =

1 i p
P(A | B
i
)P(B
i
)
Voil`a deux exemples o` u ces formules sont utilisees :
PREMIER EXEMPLE (assez classique)
Une maladie donnee aecte un Francais sur 1000. On poss`ede un test qui detecte
cette maladie en France avec la abilite `a 99 pourcents sachant que cette ma-
ladie est eectivement presente.
Mais on constate lobtention dun resultat positif au test pour 0, 2 pourcent des
personnes saines francaises.Tous les Francais passent le test.
Quelle est la probabilite quun Francais soit reellement malade lorsquelle a un
test positif ?
reponse possible : On consid`ere lensemble des constitue de tous les Fran cais.
On suppose quil y a N malades francais et quil y a n Fran cais.
Soit A le sous-ensemble des Fran cais malades et soit B
+
le sous ensemble de
constitue des Fran cais qui reagissent positivement au test. On munit du
germe de probabilite suivant :
A, P({ }) =
1
1000N
et / A, P({ }) =
1
1000(n N)
.
Les donnees se traduisent ainsi :
P(A) =
1
1000
, P(B
+
|
c
A) =
2
1000
et P(B
+
| A) =
99
100
.
On cherche la probabilite P(A | B
+
).
Or, dapr`es la formule de Bayes et la formule des probabilites totales appliquee
au syst`eme complet (A,
c
A), on a :
P(A | B
+
) =
P(B
+
| A)P(A)
P(B
+
)
et
P(B
+
) = P(A)P(B
+
| A) +P(
c
A)P(B
+
|
c
A) =
2988
10
6
.
Donc : P(A | B
+
) =
990
2988
.
SECOND EXEMPLE
On consid`ere une urne contenant N boules blanches et N

boules noires.
11
Soit p inferieur ou egal `a N et N

. On tire p boules de lurne sans remise.


Quelle est la probabilite que la premi`ere boule soit blanche et quensuite, il y
ait alternance de couleurs ?
reponse possible Soit B
i
(resp. N
i
) levenement qui exprime quau i-eme
tirage de boules, on ait une boule blanche ( resp. noire).
Soit A levenement qui traduit lalternance de couleur dans le tirage en com-
mencant par une boule blanche.
Soit C
2i+1
= B
2i+1
et C
2i
= N
2i
.
On a donc, grace `a la proposition :
P(A) = P(C
1
)((

2jp
P(C
j
|
1k(j1)
C
k
)
Or P(C
1
) est egal `a
N
N+N

et, pour i tel que (2i + 1) est inferieur ou egal `a p ,


P(C
2i+1
| (

1j2i
C
j
) est egal `a
Ni
N+N

2i
( `a ce moment du tirage, il ne reste
que (N +N

2i) boules dans lurne dont (N i) sont blanches).


De meme P(C
2i+2
|

1j(2i+1)
C
j
) est egal `a
N

i
N+N

(2i+1)
(`a ce moment du
tirage, il reste ((N+N

)(2i+1)) boules parmi lesquelles (N

i) sont noires).
PREMIER CAS Lentier p est pair ( mettons p = 2t).
Dans ce cas, A est lensemble

1it
(B
2i1
N
2i
) et :
P(A) = P(C
1
)(

1i(t1)
P(C
2i+1
| (

1j2i
C
j
))(

0i(t1)
P(C
2i+2
|

1j(2i+1)
C
j
))
Donc :
P(A) = (

0i(t1)
N i
N +N

2i
)(

0i(t1)
N

i
N +N

(2i + 1)
)
=
(N +N

2t)!
(N +N

)!
N!N

!
(N t)!(N

t)!
.
SECOND CAS : p est un entier impair (mettons de la forme (2t + 1)).
Cette fois-ci, on trouve que ( A est levenement B
1
N
1
....B
2t
N
2t
B
2t+1
) :
P(A) =
(N +N

(2t + 1))!
(N +N

)!
N!
(N (t + 1))!
N

!
(N

t)!
.
Si on est un fan des formules vraie quel que soit lentier p ( et en notant E(x)
la partie enti`ere du reel x), on a :
p N

, P(A) =
N +N

p
(N +N

)!
N!
(N E(
p+1
2
))!
N

!
(N

E(
p
2
))!
12
REMARQUE : On peut constater que lensemble na pas ete deni.On
propose par exemple daller `a la page 43 pour se rendre compte que cest in-
utile ( les deux theor`eme qui suivront page 28 et page 35 ainsi que le second
appendice page 43 qui generalise le second theor`eme sont des enonces qui as-
surent lexistence dun univers o` u on construit une certaine modelisation).
IV-EVENEMENTS INDEPENDANTS, VARIABLES ALEATOIRES
INDEPENDANTES
Soit (, P) un espace probabilise ni.
Si A et B sont deux parties de , on dit quelles sont independantes si et seule-
ment si P(A B) est egal au produit (P(A)P(B)).
Le mot independant vient de ce que, si B nest pas negligeable, A et B sont
independants si et seulement si la probabilite conditionnelle P(A | B) est egal `a
P(A)....autrement dit, le conditionnement par levenement B nest pas consis-
tant relativement `a levenement A.
Si (A
i
)
1ip
est une famille de parties de , on dit que les evenement A
i
sont
( mutuellement) independants si et seulement si :
J N
p
, J = , P(
jJ
A
j
) =

jJ
P(A
j
) .
REMARQUES :
1 ) si des evenements sont mutuellement independants, ils sont independants
deux `a deux.
Mais la reciproque est fausse, comme le montre cet exemple : on jette deux des
( non pipes) dont un est noir et lautre est blanc. Soient les trois evenements
A, B, C :
a ) le chire du de noir est pair (cest levenement A)
b ) le chire du de blanc est impair (cest levenement B)
c ) les chires des deux des sont de meme parite (cest levenement C).
Soit = N
6
2
. On consid`ere la probabilite uniforme sur .
Ainsi : P(A) = P(B) = P(C) =
18
36
=
1
2
.
Or :
P(AB) = P(BC) = P(AC) =
9
36
= P(A)P(B) = P(A)P(C) = P(B)P(C) .
Et pourtant :
P(A B C) = 0 =
1
8
= P(A)P(B)P(C) .
2 ) Si n sous-ensembles de forment une famille devenements mutuellement
independants, toute sous-famille de cette famille est formee devenements mu-
tuellement independants.
On a la proposition suivante :
13
Proposition 0.0.4
Soit (A
i
)
1in
une famille devenement de (, P). Ces evenements sont mu-
tuellement independants si et seulement si la famille (B
i
)
1in
denie par :
1 i n , B
i
= A
i
ou
c
A
i
est formee devenements mutuellement independants.
On suppose que la famille (A
i
)
1 i n
est une famille devenements independants.
On va faire une preuve par recurrence sur le nombre p dindice i pour lesquels
B
i
est egal `a
c
A
i
.
Si p est nul, il ny a rien `a faire. Supposons donc que , pour tout n et pour
toute famille (A
i
)
1in
formee devenements mutuellement independants, la
proposition soit vraie au rang p.Demontrons-la au rang (p + 1).
Soient les (p + 1) indices i
1
, ...., i
p+1
tels que :
1 i
1
< i
2
< ... < i
p+1
n et 1 j (p + 1), B
ij
=
c
A
ij
.
Pour i dans N
n
, soit C
i
=

1jn,j=i
B
j
.
Or :
C
ip+1
= (

1jn
B
j
)
_
(C
ip+1

c
B
ip+1
) (UUU).
Grace `a la recurrence (au rang p et pour la famille (A
i
)
1in
), on a :
P(C
ip+1

c
B
ip+1
) = (

1jn,j=ip+1
P(B
j
))P(A
ip+1
)
(car
c
B
ip+1
est A
ip+1
).
De meme, en utilisant la recurrence au rang p et `a la famille (A
i
)
1in,i=ip+1
,
on a :
P(C
ip+1
) =

1jn,j=ip+1
P(B
j
)
Avec (UUU), on a :
P(

1in
B
i
) = (

1jn,j=ip+1
P(B
j
))(1 P(A
ip+1
)) =

1jn
P(B
j
)
Les evenement B
1
, ....B
n
sont mutuellement independants.
La reciproque vient de ce que (A
c
A) est une involution de P().
Soient X
1
, X
2
, ....X
n
des variables aleatoires denies sur lespace probabilise
(, P) respectivement `a valeurs dans les ensembles E
1
, E
2
, ...,E
n
.
On dit que ces variables aleatoires sont mutuellement independantes ( dans
le cas n = 2, on nutilise pas le mot mutuellement) si et seulement si,
quel que soit A
i
inclus dans E
i
, les evenements (X
i
A
i
) sont mutuellement
independants.
14
Remarquons que ceci signie a priori que , si J est quelconque, non vide, inclus
dans N
n
, alors les deux quantites P(

jJ
(X
j
A
j
)) et

jJ
P(X
j
A
j
) sont
egales.
En fait , on peut se restreindre `a lensemble N
n
(et non tous les sous-ensembles
J de N
n
) car :
Proposition 0.0.5
Soient X
1
, ...X
n
des variables aleatoires denies sur lespace probabilise (, P)
respectivement `a valeurs dans les ensembles E
1
, ...E
n
.
Les variables X
1
, ..., X
n
sont mutuellement independantes si et seulement si,
quelle que soit la famille (A
i
)
1in
appartenant `a
1in
E
i
, on a :
P(X
1
A
1
, ..., X
n
A
n
) =

1in
P(X
i
A
i
) .
Supposons que la famille (X
i
)
1in
verie legalite probabiliste donnee en n
de cette proposition ( lautre sens de la preuve decoule de la denition)
Si J est inclus dans N
n
, on a , avec C
i
= A
i
si i appartient `a J et avec
C
i
= X
i
< > si i nappartient pas `a J :

jJ
(X
j
A
j
) = (X
1
C
1
, ..., X
n
C
n
)
Puisque P(X
i
X
i
< >) est egal `a 1, on deduit bien que :
P(

jJ
X
j
A
j
) =

jJ
P(C
j
) =

jJ
P(A
j
) .
Remarquons quon peut se restreindre `a des parties A
i
qui sont dans X
i
< >
(et non dans E
i
) puisque (X
i
A
i
) equivaut `a (X
i
(A
i

E
i
)).
En remarquant que X
i
A
i
est lensemble X
i
A
i
X
i
< > , en remarquant
que si F
i
est un ensemble ni non vide, alors X
i
F
i
est lunion disjointe des
ensembles X
i
= x
i
pour x
i
decrivant F
i
, on deduit par sommation en nombre
ni que :
Proposition 0.0.6 Soient X
1
, .... X
n
des variables aleatoires sur lespace
probabilise , P), respectivement `a valeurs dans E
1
, ..., E
n
.
Ces variables aleatoires sont (mutuellement) independantes si et seulement si :
(x
1
, ..., x
n
)
1in
X
i
< >, P(X
1
= x
1
, ..., X
n
= x
n
) =

1in
P(X
i
= x
i
) .
REMARQUES : 1 ) On verra (cf page 28) limportance des variables aleatoires
mutuellement independantes dans le theor`eme qui suit et qui permet deviter
RIGOUREUSEMENT de denir lunivers quand cet univers est dicile `a
15
mettre en evidence alors que le resultat de lexperience, lui, est plus facile
`a exprimer (en bref, l`a o` u les ensembles darrivee des variables aleatoires se
concoivent bien mieux que lespace de depart).
2 ) Si X et Y sont deux variables aleatoires independantes denies sur le meme
espace probabilise (, P), si f est une fonction denie sur X < > `a valeurs
dans un ensemble F, si g est une fonction denie sur Y < > `a valeurs dans
un ensemble G, alors f(X) et g(Y ) sont deux variables independantes.
En eet, si A est inclus dans (f X) < >, si B est inclus dans (g Y ) < >,
on a :
P(f(X) A, g(Y ) B) = P((f X)
1
< A >, (g Y )
1
< B >)
= P(X
1
< f
1
< A >>, Y
1
< g
1
< B >>) = P(X f
1
< A >, Y g
1
< B >)
= P(X f
1
< A >)P(Y g
1
< B >) = P(f(X) A)P(g(Y ) B)
La reciproque est bien s ur fausse, comme lexemple suivant le montre : =
{ 1, 1 }
2
quon munit du germe de probabilite :
P({ (1, 1) }) =
1
3
, P({ (1, 1) }) =
1
5
, P({ (1, 1) }) =
1
15
et P({ (1, 1) }) =
6
15
On consid`ere X (resp. Y ), la projection de sur la premi`ere (resp. la seconde)
coordonnee ( id est X((
1
,
2
)) =
1
et Y ((
1
,
2
)) =
2
).
Alors
P(X = 1, Y = 1) =
1
3
=
8
15
4
15
= P(X = 1)P(Y = 1)
Les deux variables aleatoires X et Y ne sont donc pas independantes.
Avec f et g egale `a la fonction (x x
2
), les deux variables f(X) et g(Y ) sont
constantes egales `a 1 : elles sont donc independantes.
3 ) Le point developpe ici generalise celui quon vient de faire ci-dessus.
En premi`ere lecture, cette preuve peut etre admise.
Soient X
1
, ..., X
n
des variables aleatoires reelles mutuellement independantes,
chaque X
i
etant `a valeurs dans un ensemble E
i
.
Soit m un entier naturel compris entre 1 et (n 1).
Soient (resp. ) une fonction denie sur
1 jm
E
j
dans un ensemble F
(resp. une fonction denie sur
m+1j n
E
j
dans un ensemble G), alors les
deux variables aleatoires (X
1
, ..., X
m
) et (X
m+1
, ...., X
n
) sont independantes.
Cet enonce porte le nom du lemme des coalitions. Il est certes naturel
car on compare un phenom`ene ( ici decrit par (X
1
, ..., X
m
) avec un autre
phenom`ene (X
m+1
, ...., X
n
)) o` u le paquet de variables X
i
choisi dans le pre-
mier phenom`ene est disjoint du paquet choisi dans le second).
Preuve du lemme des coalitions
On introduit Z = (X
1
, ..., X
m
) et Y = (X
m+1
, ..., X
n
).
Soient (a, b) dans F G.
16
On a :
((Z)) = a) = Z
1
<
1
< { a } >

Z < >> et
((Y )) = b) = Y
1
<
1
< { a } >

Y < >>
Or les deux ensembles
1
< { a } >

Z < > et
1
< { a } >

Y < >
sont tous deux nis : il existe donc deux ensembles nis M et N tels que :

1
< { a } >

Z < >= { (x
i1
, ....x
im
)
1im
E
i
, (i
1
, ...; i
m
) M } et

1
< { a } >

Y < >= { (y
km+1
, ..., y
kn
)
(m+1)in
E
i
, , (k
m+1
, ..., k
n
) N}
Ainsi :
((Z)) = a) =
_
(i1,...,im)M
P(

1jm
(X
j
= x
ij
)) et
((Y )) = b) =
_
(km+1,...,kn)N
P(

(m+1)jn
(X
j
= y
kj
))
(unions disjointes) En utilisant lindependance des variables X
1
, ....X
n
et lad-
ditivite de la probabilite dune union disjointe devenements, on a :
P(((Z) = a), ((Y ) = b))
=

(i1,...,im)M,(km+1,...,kn)N
P((X
1
= x
i1
), ...(X
m
= x
im
), (X
m+1
= y
km+1
), ...(Y
n
= y
n
))
=

(i1,...,im)M,(km+1,...,kn)N
(

1jm
P((X
j
= x
ij
)))(

(m+1)jn
P((Y
j
= y
kj
)))
= P(((Z) = a))P(((Y ) = b))
On a bien obtenu que les deux variables (Z) et (Y ) sont independantes.
INDEPENDANCE ET ESPERANCE
Si X et Y sont deux variables aleatoires denies sur le meme espace probabilise
(, P), si X et Y sont independantes, alors :
E(XY ) = E(X)E(Y ) et V (X +Y ) = V (X) +V (Y ) .
En eet , si z appartient `a (XY ) < >, si A
z
est le sous-ensemble des (x, y)
de X < > Y < > tels que (xy) est egal `a z, alors
_
z(XY )< >
A
z
est
lensemble X < > Y < > et
E(XY ) =

z(XY )<>
zP(XY = z) =

z(XY )<>
(

(x,y)Az
(xy)P(X = x, Y = y))
=

(x,y)X<>Y <>
(xy)P(X = x)P(Y = y) = E(X)E(Y ) .
17
Et :
V (X+Y ) = E(((XE(X))+(Y E(Y )))
2
= V (X)+V (Y )+2E(XE(X))E(Y E(Y ))
= V (X) +V (Y ) + 2(E(XY ) E(X)E(Y )) = V (X) +V (Y ) .
REMARQUES : 1 ) si (X
i
)
1in
est une famille de variables aleatoires
denies sur le meme espace probabilise et mutuellement independantes, le
3-`eme alinea de la remarque precedente assure que

1i(n1)
X
i
et X
n
sont
independantes. Par recurrence, on obtient pour une telle famille que :
V (

1in
X
i
) =

1in
V (X
i
) .
2 ) On peut tr`es bien avoir legalite entre E(XY ) et (E(X)E(Y )) ( ou, ce qui
revient au meme, legalite entre V (X + Y ) et (V (X) + V (Y )) sans que les les
variables X et Y soient independantes.
Par exemple, soit = { 0, 1 }
2
muni du germe de probabilite uniforme P (id
est P({ (i, j) }) =
1
4
quel que soit (i, j) appartenant `a ).
Soit X (resp. Y ) la projection ((
1
,
2
)
1
) (resp. ((
1
,
2
)
2
)).
Les valeurs prises par X et Y sont 0 et 1. Les probabilites P(X = 1), P(Y =
1),P(X = 0) et P(Y = 0) sont egales `a
1
2
. Lesperance de X, X
2
, Y et Y
2
sont
egales `a
1
2
.
On deduit que E((X+Y )(XY )) (E(X+Y )E(XY )) est nulle alors que :
P(X +Y = 0, X Y = 0) = P(X = 0, Y = 0) = P({ (0, 0) }) =
1
4
et
P(X +Y ) = 0) = P({ (0, 0) }) =
1
4
, P(X Y = 0) = P({ (0, 0), (1, 1) }) =
1
2
Les deux variables (X +Y ) et (X Y ) ne sont donc pas independantes.
3 ) En revanche, il y a equivalence entre :
(i) : les deux variables X et Y sont independantes
et
(ii) : quelles que soit la fonction f (resp.g) denie sur X < > (resp. sur Y <
>), `a valeurs dans R
+
, les deux quantites E(f(X)g(Y )) et (E(f(X))E(g(Y )))
sont egales.
(i) entrane (ii) car, f(X) et g(Y ) restent deux variables independantes.
Supposons (ii) vraie.
Soit A (resp.B) inclus dans lensemble X < > (resp. dans lensemble Y <
>).
En considerant pour f (resp. pour g) la fonction caracteristique de lensemble
A (resp. B), on a :
P(X A, Y B) = E(
A
(X)
B
(Y )) = E(
A
(X))E(
B
(Y ))
18
= P(X A)P(Y B) .
Cest bien dire que X et Y sont independantes.
4 ) Puisque, si X et Y sont independantes, la quantite (E(XY ) E(X)E(Y ))
est nulle, on introduit la fonction Cov (dite covariance ) denie pour tout
couple (X, Y ) de variables aleatoires donnees sur (, P) par :
Cov(X, Y ) = E(XY ) E(X)E(Y ) = E((X E(X))(Y E(Y )))
Si on note V al(, P) lensemble des variables elevatoires sur ( , P), la fonction
Cov est une forme bilineaire symetrique positive sur V al(, P)
2
.
On a la relation :
V (X +Y ) = V (X) +V (Y ) + 2Cov(X, Y )
Plus generalement, si (X
i
)
1in
est une famille delements de V al(, P), on a :
V (

1in
X
i
) =

1in
V (X
i
) + 2

1i<jn
Cov(X
i
X
j
) .
On peut donc appliquer linegalite de Cauchy-Schwarz et on obtient alors que,
si X et Y sont de variances non nulles, alors le coecient (X, Y ) =
Cov(X,Y )
(X)(Y )
est compris entre (1) et 1.
(X, Y ) est nul si X et Y sont independantes.
Si (X, Y ) est egal = 1, lequation V (X + Y ) = 0 est veriee pour =

(X)
(Y )
.
Soit Z = X
(X)
(Y )
Y .
Puisque (Z E(Z))
2
est desperance nulle, alors (cf le point de vocabulaire
page 7) (Z E(Z)) est nulle presque s urement , cest-`a-dire que la probabilite
P((Z E(Z)) = 0) est egale `a 1.
Les deux variables
XE(X)
(X)
et
Y E(Y )
(Y )
sont egales presque s urement.
Ainsi, `a la dierence pr`es dun ensemble negligeable, Y est de la forme aX +b
(avec a et b dans R, a non nul).
On laisse verier en exercice legalite entre Cov(X, Y ) et Cov(X

, Y

) quand on
consid`ere quatre variables aleatoires telles que dune part X et X

et dautre
part Y et Y

sont egales presque s urement.


Ainsi, si Y est egal `a aX +b presque s urement (avec a et b reels, a non nul), si
V (X) est non nul alors :
(X, Y ) =
Cov(X, aX +b)
| a | V (X)
=
aV (X)
| a | V (X)
= 1 .
Ainsi, quand est maximal en valeur absolue, Y et X dependent anement
lune de lautre : ceci justie que (X, Y ) sappelle le coecient de correlation
lineaire de X et de Y .
LOI DE LA SOMME DE DEUX VARIABLES INDEPENDANTES
19
Soient X et Y deux variables aleatoires denies sur le meme espace probabilise
ni (, P).
Si les deux variables X et Y sont independantes, on peut trouver la loi de la
variable (X +Y ) en fonction des lois de X et de Y .
En eet, soit z dans (X +Y ) < >. On a :
P(((X+Y ) = z)) =

xX<>
P(X = x, Y = zx) =

xX<>
P(X = x)P(Y = zx)
(`a x donne dans X < >, levenement (Y = z x) peut etre vide et des
termes peuvent etre nuls dans la somme precedente).
On utilisera ce resultat plus tard pour determiner la somme de plusieurs va-
riables independantes suivant des lois de Bernoulli ou binomiales.
V-LOIS DE PROBABILITES SUR DES UNIVERS FINIS
Il y a telles trois lois au programme de maths sup et on en presentera en fait
quatre.
A ) LOI UNIFORME
Soit X une variable aleatoire denie sur un ensemble ni.
Soit X < >= { x
1
, ..., x
n
}.
On dit que X suit la loi uniforme de param`etre n si et seulement si :
1 i n , P(X = x
i
) =
1
n
.
Par exemple (exemple evidemment tr`es simple comme lest cette loi) , en
considerant un de ( non pipe) , X est la variable aleatoire qui rend compte
dune des six faces choisies.
Lensemble est N
6
et X est lapplication identique N
6
dans N
6
( X(i) exprime
quon choisit la face ni) :
1 i 6, P(X = i) =
1
6
.
Dans le cas particulier o` u chaque x
i
est egal `a i, on a :
Proposition 0.0.7
Soit X une variable aleatoire denie sur un espace probabilise ni (, P) de loi
uniforme de param`etre n.
On suppose que X < > = N
n
.
Alors :
E(X) =
n + 1
2
et V (X) =
n
2
1
12
.
20
En eet,
E(X) =

1 in
iP(X = i) =

1in
i
n
=
n + 1
2
et
V (X) =

1in
i
2
n
(
n + 1
2
)
2
=
(n + 1)(2n + 1)
6

(n + 1)
2
4
=
(n + 1)(n 1)
12
.
B ) LOI DE BERNOULLI
On dit quune variable aleatoire X denie sur un espace probabilise ni (, P),
`a valeurs dans { 0, 1 } suit une loi de Bernoulli de param`etre p dans ]0, 1[
si et seulement si :
P(X = 1) = p et donc P(X = 0) = (1 p) .
On notera B(p) la loi de Bernoulli de param`etre p.
Ceci modelise toutes les experiences o` u il ny a que deux possibilites ( en ap-
pelant (X = 1) le cas optimiste ou la possibilite favorable et (X = 0) le cas
pessimiste de lautre possibilite).
On a, en particulier :
E(X) = P(X = 1) = p et V (X) = P(X = 1) p
2
= p(1 p) .
C ) LOI BINOMIALE
Cette loi est tr`es utilisee.
Soit n un entier naturel non nul et soit p dans ]0, 1[.
On dit quune variable aleatoire X denie sur un espace probabilise ni (, P)
suit une loi binomiale de param`etres n et p ( ce quon notera B(n, p)) si et
seulement si X prend ses valeurs dans N
n
et :
1 k n, P(X = k) =
_
n
p
_
p
k
(1 p)
nk
.
Par le binome de Newton, la somme

1kn
P(X = k) est bien egale `a 1, ce qui
denit bien une loi de probabilite possible.
Tout dabord, on peut constater que la loi de Bernoulli B(p) est la loi binomiale
B(1, p).
Ensuite, si X suit la loi B(n, p), on a :
E(X) = np et V (X) = np(1 p) .
En eet, on introduit la fonction
p
: (t ((1 p) + pt)
n
) quon derive une
fois, puis deux fois. Avec le binome de Newton, E(X) est egal `a

p
(1) (id est
np) et E(X(X 1) est egal `a

p
(1) ( id est n(n 1)p
2
).
21
Et donc :
V (X) = E(X(X1))+E(X)E(X)
2
= n(n1)p
2
+npn
2
p
2
= np(1p) .
Lexemple ( classique) de variable aleatoire suivant une loi binomiale est le
tirage de n boules avec remise dans une urne contenant N boules dont N
R
rouges et N
B
blanches ( avec (N
R
+N
B
) = N ).Notons quun tirage avec remise
sappelle aussi un tirage bernoullien.
On modelise en prenant pour ensemble lensemble N
N
n
o` u les N
R
premiers
elements de N
N
representent les boules rouges et les N
B
suivants representent
les boules blanches : un n-uplet (i
j
)
1jN
est tel que i
j
represente la boule
tiree au j-`eme tirage. On munit de la probabilite P uniforme ( id est : pour
chaque (i
j
)
1jN
de N
N
, la probabilite P({ (i
j
)
1jN
}) =
1
N
n
).
Soit X la variable aleatoire denie sur et qui represente le nombre de boules
rouges tirees au bout des n tirages.
On a :
(i
j
)
1jN
, X((i
j
)
1jN
) =

1 jn

N
R
(i
j
)
(o` u
N
R
est la fonction caracteristique de lensemble N
R
).
X prend les valeurs dans N
n
et suit la loi binomiale de param`etres n et
N
R
N
car
levenement (X = k) (pour 1 k n ) est constitue des n-uplets de qui
comptent exactement k elements appartenant `a N
R
: le cardinal de lensemble
(X = k) est donc
_
n
k
_
N
R
k
N
B
nk
.
En clair , la loi binomiale concerne la MEME experience quon rep`ete un cer-
tain nombre de fois ( mettons n fois) et dont le resultat experimental est de
deux possibilites ( gagner ou perdre, tirer avec remise une boule dune couleur
donnee quand lurne contient des boules de deux couleurs ) : si la probabilite
du succ`es est p, la variable qui donne le nombre de succ`es suit la loi binomiale
B(n, p).
REMARQUES : 1 ) Si on consid`ere q variables aleatoires X
1
, ...., X
q
denies
sur le meme univers ni probabilise (, P) et suivant respectivement la loi bi-
nomiale B(n
1
, p), ...B(n
q
, p), si ces variables sont mutuellement indepndantes,
alors la somme S
q
=

1j q
X
j
suit la loi binomiale B(

1jq
n
j
, p).
Montrons le dabord si q est egal `a 2.
Soit k compris entre 0 et (n
1
+n
2
).
Levenement ((X
1
+ X
2
) = k) est lunion disjointe des ensembles ((X
1
=
i)

(X
2
= (k i))) pour i allant de 0 `a k ( car X
1
ne peut exceder k).
Donc :
P(((X
1
+X
2
) = k) =

1ik
P(X
1
= i)P(X
2
= (k i))
= (

0ik
_
n
1
i
__
n
2
k i
_
p
k
(1 p)
n1+n2k
.
22
On doit donc calculer lentier

0ik
_
n
1
i
__
n
2
k i
_
.
On peut proceder de deux facons :
a ) en utilisant dabord les polynomes ( tr`es commode pour contourner des
raisonnements de denombrement). Les deux polynomes ((1+X)
n1
(1+X)
n2
et
(1 +X)
n1+n2
sont egaux : en exhibant le coecient devant X
k
(rappelons que
k est inferieur ou egal `a (n
1
+n
2
)), on obtient une identite de Vandermonde
relative aux entiers k, n
1
et n
2
:

sup({ 0,kn2 })iinf({ k,n1 })


_
n
1
i
__
n
2
k i
_
=

0ik
_
n
1
i
__
n
2
k i
_
=
_
n
1
+n
2
k
_
(si on consid`ere un monome X
i
dans (1 + X)
n1
, i doit etre inferieur `a k et `a
n
1
et alors le monome X
ki
quon consid`ere dans (1 +X)
n2
pour obtenir une
contribution en X
k
doit etre tel que (k i) est inferieur `a n
2
; enn, les termes
_
n
1
i
__
n
2
k i
_
sont nuls si i est strictement superieur `a n
1
ou si i est est un
entier naturel strictement inferieur `a (k n
2
)).
b ) On peut aussi faire une analyse combinatoire pour obtenir lidentite de
Vandermonde (relativement aisee ici) : lensemble
k
des sous-ensembles de
N
n1+n2
ayant k elements est lunion disjointe des ensembles A
i
( pour i allant
de 0 `a k, avec A
i
le sous-ensemble de
k
forme de lunion dune partie de N
n1
ayant i elements et dune partie de n
1
+N
n2
ayant (k i) elements).
Puisque chaque A
i
a
_
n
1
i
__
n
2
k i
_
elements, on retrouve bien lidentite de
Vandermonde relative aux entiers k, n
1
et n
2
.
Ainsi,
0 k (n
1
+n
2
), P(((X
1
+X
2
) = k)) =
_
n
1
+n
2
k
_
p
k
(1 p)
n1+n2k
Cest bien dire que (X
1
+X
2
) suit la loi binomiale B(n
1
+n
2
, p).
On fait ensuite une recurrence sur lentier q en supposant que S
q1
=

1j(q1)
X
j
suit la loi binomiale B(

1j(q1)
n
j
, p) et le fait ( troisi`eme alinea de la remarque
page 15) que S
q1
et X
q
sont independantes.
2 ) Puisque la loi de Bernoulli B(p) est la loi binomiale B(1, p), on deduit de ce
qui prec`ede que la somme de n variables aleatoires mutuellement independantes
identiquement distribuees par la loi de Bernoulli B(p) suit la loi binomiale
B(n, p), ce qui permet de retrouver lesperance et la variance dune variable
23
aleatoire suivant une loi binomiale.
EXERCICE (exercice non corrige de combinatoire pour obtenir une autre
identite que lidentite de Vandermonde).
Soient r et r

deux entiers naturels non nuls.


Soit k un entier naturel superieur ou egal `a (r +r

).
Montrer que :

ri(kr

)
_
i 1
r 1
__
k i 1
r

1
_
=
_
k 1
r +r

1
_
(remarque dordre culturel : cest ce type degalite qui permettra dobtenir sans
la notion de serie generatrice et en maths spe que la somme de deux variables
aleatoires independantes suivant une loi de Pascal (o` u le param`etre probabiliste
p est le meme) suit encore une loi de Pascal).
REMARQUE On montrera en spe que, si X
1
et X
2
sont deux variables
aleatoires `a valeurs dans N , denies sur un meme espace probabilise, si elles
sont independantes et si P(X
1
= 0) et P(X
2
= 0) sont distincts de 1, si
la somme (X
1
+ X
2
) suit la loi binomiale B(n, p), alors X
1
(resp. X
2
) suit
necessairement une loi binomiale de la forme B(n
1
, p) (resp. B(n
2
, p)) avec
(n
1
+n
2
) = n.
D ) LOI HYPERGEOMETRIQUE (a priori hors programme).
Si la loi binomiale concerne les tirages avec remise, le loi quon introduit ici
concerne les tirages sans remise.
Par exemple, on consid`ere une urne contenant initialement N boules de deux
couleurs ( rouge et blanche) dont N
R
rouges (avec 0 < N
R
< N). On fait
n tirages successifs sans remise et on veut la probabilite dobtenir k boules
rouges au bout de ces n tirages (avec n inferieur ou egal `a N). Notons quun
tirage sans remise sappelle un tirage exhaustif.
Tout dabord , il y a des restrictions sur k qui doit etre inferieur `a N
R
et n et
tel que (n k) est inferieur `a (N N
R
) de telle sorte que k doit etre compris
entre max({ 0, (n (N N
R
)) }) et min({ n, N
R
}) pour que le fait davoir k
boules rouges ne soit pas un evenement impossible.
On consid`ere lensemble des parties `a n elements dans lensemble N
N
( on a
une boule `a chaque tirage qui sajoute aux boules dej`a tirees et non remises, ce
qui revient `a choisir n boules parmi les N quil y a au total). On consid`ere la
probabilite uniforme sur .On consid`ere que les N
R
premi`eres boules sont les
rouges et constituent donc lensemble N
N
R
.
Levenement A
k
qui traduit le fait davoir exactement k boules rouges corres-
pond aux parties `a n elements de N
N
qui contiennent exactement k elements
de N
N
R
et (n k) elements dans le complementaire de N
N
R
dans N
N
.
Or le nombre de telles parties est
_
N
R
k
__
N N
R
n k
_
.
24
La probabilite de levenement A
k
est donc egal `a

N
R
k

N N
R
n k

N
n

.
REMARQUE On peut choisir une autre modelisation . Considerer comme
lensemble des n-uplets de N
N
formes de termes deux `a deux distincts ( a donc
A
n
N
= (

0i(n1)
(N i)) elements). Levenement A
k
est forme des n-uplets
appartenant `a tels que k composantes sont dans N
N
R
et les (n k) autres
sont dans le complementaire de N
N
R
dans N
N
.Le cardinal de cet evenements
est donc
_
n
k
_
A
k
N
R
A
nk
NN
R
. On retrouve le meme resultat que ci-dessus.
Si n, N et N
R
sont trois entiers naturels non nuls tels n N et N
R
< N, on
dit quune variable aleatoire X denie sur un ensemble ni et `a valeurs dans
lensemble J
n,N,N
R
des entiers compris entre max({ 0, (n (N N
R
)) }) et
min({ n, N
R
}), suit la loi hypergeomertrique de param`etres n, N et N
R
(
et on ecrit que X suit la loi H(n, N, N
R
)) si et seulement si :
k J
n,N,N
R
, P(X = k) =
_
N
R
k
__
N N
R
n k
_
_
N
n
_ .
REMARQUES : 1 ) Il sagit bien dune loi de probabilite puisque lexemple ci-
dessus (tirage sans remise) est tel que

max({ 0,(n(NN
R
)) })kmin({ n,N
R
})
A
k
est lunivers tout entier.
On peut le voir tout aussi directement en utilisant lidentite de Vandermonde
relative aux entiers n, N
R
et N N
R
(cf page 22 ) :

max({ 0,(n(NN
R
)) })kmin({ n,N
R
})
_
N
R
k
__
N N
R
n k
_
=
_
N
n
_
id est :

max({ 0,(n(NN
R
)) })kmin({ n,N
R
})
P(X = k) = 1
2 ) On peut bien s ur sommer de k allant de 0 `a n dans les sommes precedentes
puisque

N
R
k

N N
R
n k

N
n

est nul si k nappartient pas `a J


n,N,N
R
, comme on
la fait dej`a remarquer quand on a cherche la loi de la somme de deux variables
aleatoires independantes suivant des lois binomiales.
3 ) Les deux ensembles J
n,N,N
R
et J
N
R
,N,n
sont les memes ( (n(NN
R
)) est
egal `a ((N
R
(N n))) et lapplication k

N
R
k

N N
R
n k

N
n

est symetrique
25
en N
R
et n de telle sorte que, qaund n et N
R
sont tous deux strictement
inferieurs `a N, les deux lois H(n, N, N
R
) et H(N
R
, N, n) sont les memes.
Si X suit la loi H(n, N
R
, N), on a :
E(X) = n
N
R
N
et V (X) = n
N
N
R
N N
R
N
N n
N 1
En eet :
E(X) =

1 k n
(k
_
N
R
k
_
)(
_
N N
R
n k
_
)
_
N
n
_
=
N
R
_
N
n
_(

0k(n1)
_
N
R
1
k
__
((N 1) (N
R
1))
((n 1) k)
_
En utilisant lidentite de Vandermonde relativement aux param`etres (n 1),
(N
R
1) et ((N 1) (N N
R
)), on obtient bien que :
E(X) =
N
R
_
N
n
_
_
N 1
n 1
_
= n
N
R
N
.
De meme, on a :
E(X(X 1)) = N
R
(N
R
1)(

0k(n2)
_
N
R
2
k
__
((N 2) (N
R
2))
((n 2) k)
_
E(X(X 1)) est nul si N
R
vaut 1 ou si n vaut 1. Sinon, en utilisant encore
lidentite de Vandermonde aux entiers (n2), (N
R
2) et ((N2)(N
R
2)),
on a :
V (X) =
N
R
(N
R
1)
_
N
n
_
_
N 2
n 2
_
+E(X) E(X)
2
=
n(n 1)N
R
(N
R
1)
N(N 1)
+n
N
R
N
(n
N
R
N
)
2
=
nN
R
N(N 1)
1
N
(N
2
(N
R
+n)N +nN
R
) = n
N
R
N
N N
R
N
N n
N 1
.
Exercice 0.0.1
On peut assez facilement calculer lesperance dune variable aleatoire X suivant
la loi hypergeometrique H(n, N, N
R
) en la reliant `a des variables de Bernoulli
(cette methode est assurement moins calculatoire).
On consid`ere lensemble des parties `a n elements dans lensemble N
N
comme
il a ete fait au debut quand on a introduit la loi hypergeometrique.
26
Soient les boules rouges numerotees de 1 `a N
R
et les autres numerotees de
(1 +N
R
) `a N.
Pour i compris entre 1 et N
R
, soit X
i
la variable aleatoire qui vaut 1 si la i-`eme
boule est parmi les n tirees et 0 sinon.
a ) Verier que P(X
i
= 1) est egale `a
n
N
et que la variable X est la variable

1iN
R
X
i
(la variable X
i
suit donc la loi de Bernoulli de param`etre
n
N
).
En deduire lesperance de la variable X.
b ) Est-ce que , pour deux indices distincts i et j compris entre 1 et N
R
, les
variables X
i
et X
j
sont independantes ?
Calculer E(X
i
.X
j
) pour deux tels indices.
Retrouver la variance de X.
VI-LOI CONJOINTES, LOIS MARGINALES POUR UNIVERS FINI
Soit (, P) un univers ni probabilise et soient X et Y deux variables aleatoires
denies sur .
Soit : X < >= { x
i
, 1 i p } et Y < >= { y
j
, 1 j n } (les x
i
dune
part et les y
j
dautre part sont deux `a deux distincts).
Le couple aleatoire relatif `a X et Y est la fonction denie sur telle que :
, (X, Y )() = (X(), Y ())
La loi du couple (X, Y ) est la loi conjointe des deux variables X et Y .Cest la
donnee de la famille (P(X = x
i
, Y = y
j
))
1ip,1jn
.Dans la suite, on notera
p
i,j
au lieu de (P(X = x
i
, Y = y
j
)).
Reciproquement, les lois de X et de Y sappellent les lois marginales du
couple (X, Y ).
REMARQUES 1) La loi du couple (X, Y ) determine les lois marginales.
Soit i xe entre 1 et p. Puisque (X = x
i
) est lunion disjointe des ensembles
((X = x
i
)

(Y = y
j
)) pour j decrivant N
n
, on a :
1 i p, P(X = x
i
) =

1 jn
p
i,j
.
Et de meme :
1 j n, P(Y = y
j
) =

1ip
p
i,j
.
2 ) Mais les lois marginales ne determinent pas , en general, la loi conjointe.
Cest facile `a comprendre puisque la connaissance des lois marginales donne la
somme des lignes et des colonnes de la matrice (p
i,j
)
1i p,1j n
, ce qui ne
determine pas la matrice elle-meme.
Donnons un exemple qui expliquera cela.
Considerons une urne contenant 4 boules rouges et 3 boules vertes. On tire
deux boules de lurne dabord avec remise et ensuite sans remise.
27
Notons (X
1
, Y
1
) le couple tel que, le tirage etant avec remise, X
1
(resp. Y
1
) vaut
1 si la premi`ere boule tiree (resp. la seconde) est rouge et 0 si cette premi`ere
boule (resp. cette seconde) est verte.
Notons (X
2
, Y
2
) le couple tel que, le tirage etant sans remise, X
2
(resp. Y
2
)
vaut 1 si la premi`ere boule tiree (resp. la seconde) boule est rouge et 0 si cette
premi`ere boule (resp. cette seconde) est verte.
Dans le premier cas est N
2
7
(leds chires 1, 2, 3 et 4 correspondent aux boules
rouges, les autres chires correspondent aux boules vertes, la premi`ere (resp.
la seconde) composante exprime la premi`ere (resp. la seconde) boule tiree.
Dans le second cas, est lensemble des couples (x, y) de N
2
7
tels que x et y
sont distincts.
On a :
P(X
1
= 0, Y
1
= 0) =
9
49
, P(X
1
= 0, Y
1
= 1) =
12
49
et
P(X
1
= 1, Y
1
= 0) =
12
49
, P(X
1
= 1, Y
1
= 1) =
16
49
.
De meme , on a :
P(X
2
= 0, Y
2
= 0) =
1
7
, P(X
2
= 0, Y
2
= 1) =
12
42
et
P(X
2
= 1, Y
2
= 0) =
12
42
, P(X
2
= 1, Y
2
= 1) =
12
42
On a bien :
P(X
1
= 0) =
3
7
= P(X
2
= 0), P(X
1
= 1) =
4
7
= P(X
2
= 1)
et
P(Y
1
= 0) =
3
7
= P(Y
2
= 0) et P(Y
1
= 1) =
4
7
= P(Y
2
= 1) .
Ainsi, les lois marginales de deux couples (X
1
, Y
1
) et (X
2
, Y
2
) sont identiques,
mais les lois conjointes ne le sont pas.
3 ) En revanche, si X et Y sont deux variables independantes, les lois margi-
nales du couple (X, Y ) determinent la loi conjointe de X et de Y puisque, quels
que soient i dans N
p
et j dans N
n
, p
i,j
est egal `a (P(X = i)P(X = j)).
4 ) Si (X, Y ) est un couple de variables aleatoires denies sur lunivers ni
(, P), remarquons que lensemble (X, Y ) < > peut bien s ur etre strictement
inclus dans X < > Y < >.
Ainsi , par exemple, si on consid`ere une urne remplie de 4 boules bleues, 2
boules blanches et 4 boules rouges.
On tire successivement trois boules ( tirage avec remise).
On consid`ere X (resp. Y ) comme le nombre de boules bleues (resp. blanches)
quon a tirees ( est lensemble N
3
10
).
28
Lensemble X < > Y < > est lensemble { 0, 1, 2, 3 }
2
et (X, Y ) < >
est lensemble des couples dentiers naturels (i, j) tels que (i + j) est inferieur
ou egal `a 3.
En outre :
P(X = 2) =
36
125
, P(Y = 2) =
12
125
et bien s ur P(X = 2, Y = 2) = 0
5 ) On peut denir un vecteur aleatoire de q variables aleatoires X
1
, ..., X
q
denies sur le meme espace probabilise ni (, P) : cest le n-uplet (X
1
, ..., X
n
).
Ce qui a ete fait dans le cas q = 2 se generalise sans le moindre probl`eme.
6 ) Si on consid`ere un couple (X, Y ) de variables aleatoires ( on garde les
notations utilisees plus haut), si i est compris entre 1 et p (resp. si j est compris
entre 1 et n), si levenement (X = x
i
) (resp. (Y = y
j
) ) nest pas negligeable,
on peut denir la loi conditionnelle de Y sous la condition (X = x
i
) (resp. la
loi conditionnelle de X sous la condition (Y = y
j
) par :
1 k n, P((Y = y
k
) | (X = x
i
)) =
p
i,k

1sn
p
i,s
( resp. 1 k p, P((X = x
k
) | (Y = y
j
)) =
p
k,j

1sp
p
s,j
).
VII-DEUX THEOREMES DEXISTENCE
Ces deux theor`emes sont essentiels pour la recherche de mod`eles qui permettent
de resoudre un probl`eme de probabilite enonce dans le langage courant (ce qui
est souvent le cas, par exemple, avec les probl`emes de tournoi, de scrutin, de
boules et durnes ).
Theor`eme 0.0.1
Soit n dans N

et soient E
1
, ...., E
n
n ensembles tous nis. Pour 1 i n,
soit P
i
une probabilite denie sur E
i
.
Il existe alors un ensemble ni , il existe une probabilite P sur et il existe
n variables aleatoires X
1
, ...., X
n
telles que :
1 i n , X
i
< > E
i
et A E
i
, P(X
i
A) = P
i
(A) .
REMARQUES : 1 ) ce theor`eme assure quon peut trouver une famille de n
variables aleatoires independantes de lois de probabilite xees `a lavance. Ce qui
permet de denir des variables aleatoires veriant des lois donnees `a lavance,
independantes, sans avoir necessairement besoin de denir lensemble .
2) On verra en cours de maths spe quon peut meme choisir une suite de va-
riables aleatoires ( theor`eme plus general puisquil ne se restreindra pas au cas
dune famille nie).Cest Kolmogorov qui a demontre ce theor`eme et il est loin
29
detre simple comme peut le laisser supposer la preuve qui suit.
PREUVE DU THEOREME
Soit =
1in
E
i
Soit X
i
la i-`eme projection de dans E
i
(autrement dit , `a x = (x
j
)
1jn
dans on associe sa i-`eme composante x
i
).
Soit P lapplication denie sur par :
(
1
, ...,
n
, P({(
1
, ...,
n
)}) =

1jn
P
j
({
j
}) .
P applique dans [0, 1] et est telle que :

P({ }) =

1in
(

iEi
P
i
({
i
})) = 1
Lapplication P denit bien une probabilite sur lensemble ni (rappelons
que , si A est inclus dans , alors P(A) est la somme des P({ }) pour
decrivant A).
Dautre part, quel que suit x
i
dans E
i
, si on note F
i
le produit cartesien E
1

... E
i1
{ x
i
} E
i+1
... E
n
, si on note G
i
=

1jn,j=i
E
j
, on a :
P(X
i
= x
i
) = P(F
i
)
=

(1,...,i1,i+1,... ,n)Gi

1jn,j=i
P
j
({
j
}).P
i
({ x
i
} = P
i
({ x
i
})
Ceci signie bien que :
A E
i
, P(X
i
A) = P
i
(A) .
Enn, soit (i
1
, ..., i
p
) un p-uplet dentiers compris entre 1 et n, soit H le produit
cartesien

1kp
E
i
k
.
Pour tout p-uplet (x
i1
, ...x
ip
) de H, Lensemble

1kp
(X
i
k
= x
i
k
) est lensemble
des elements de o` u les composantes dindices j dierents des i
k
varient dans
E
j
sans condition et o` u chaque composante dindice i
k
est egal `a x
i
k
, on a
donc :
(x
i1
, ...x
ip
) H, P(

1kp
(X
i
k
= x
i
k
)) =

1kp
P
k
({ x
i
k
})
=

1kp
P(X
i
k
= x
i
k
) .
30
Les variables X
1
, ..., X
n
sont donc (mutuellement) independantes
Montrons comment ce theor`eme permet de modeliser des situations concr`etes.
Car , soit on denit lunivers pour decrire lexperience etudiee ; soit on
denit les conditions en introduisant des variables aleatoires qui modelisent
lexperience, ce qui evite de determiner lunivers ( puisque le theor`eme as-
sure son existence).En fait, on choisira la methode la plus facile pour realiser
la modelisation.
PREMIER EXEMPLE
En fait, cet exemple est (trop) simple et on peut aussi bien utiliser les deux
methodes.
Soit le fait de jouer trois des equilibres lun apr`es lautre et de vouloir la pro-
babilite pour que la somme des des soit egale `a 16.
La premi`ere facon est de denir lensemble des experiences possibles, `a sa-
voir N
3
6
. Ils sut de calculer les triplets possibles, `a savoir (4, 6, 6), (5, 5, 6),
(5, 6, 5),(6, 4, 6),(6, 6, 4) et (6, 5, 5).La probabilite cherchee est donc
6
6
3
, cest-
`a-dire
1
36
.
La seconde fa con est de se dire que lexperience correspond `a la donnee de 3
variables aleatoires X
1
, X
2
et X
3
independantes, `a valeurs dans N
6
de meme
loi de probabilite (la loi uniforme sur lensemble N
6
). Un tel triplet de variables
aleatoires existe dapr`es le theor`eme et X
i
correspond au nombre qui apparat
sur le de au i-`eme lancer. De fait, on necrit pas lensemble et on cherche la
probabilite pour que la variable aleatoire X
1
+X
2
+X
3
vaille 16.
Soit A = { 4, 6, 6), (5, 5, 6), (5, 6, 5), (6, 4, 6), (6, 6, 4), (6, 5, 5) }.
Puisque les trois variables aleatoires sont independantes, on a :
P((X
1
+X
2
+X
3
= 16)) =

(x1,x2,x3)A
P(X
1
= x
1
)P(X
2
= x
2
)P(X
3
= x
3
)
= 6.(
1
6
)
3
=
1
36
.
SECOND EXEMPLE : le probl`eme du scrutin.
Parfois (voire souvent), lunivers est extremement dur `a exprimer alors que
la formulation avec des variables aleatoires est plus facile `a ecrire (au moins si
on veut une formulation rigoureuse et non intuitive).
Soit le probl`eme dit du scrutin : on a une population de c personnes qui vont
toutes voter pour une election o` u il y a deux candidats A et B `a departager.
Toute personne vote (une seule fois) et choisit soit A, soit B dans son vote
( pas dabstention et pas de vote blanc).Les personnes votent successivement.
Enn, apr`es depouillement, on sait quil y a a bulletins pour A et b bulletins
pour B.On suppose que a est inferieur ou egal `a b. On voudrait savoir quelle
est la probabilite p
a,b
pour que le candidat B soit toujours en tete.
31
On peut regarder cela de fa con intuitive dabord (cest-`a-dire ne soccuper ni
de la denition de , ni dune modelisation `a partir de variables aleatoires qui
decriraient le vote) :
1 ) le nombre c de personnes est egal `a (a +b), la proportion de personnes qui
votent pour A est de
a
a+b
et la proportion de personnes qui votent pour B est
b
a+b
de telle sorte que la probabilite pour quil y ait vote pour A est
a
a+b
et
celle quil y ait vote pour B est
b
a+b
.
2 ) Si on note C levenement traduisant le fait de voter pour A, C et
c
C
constituent un syst`eme fondamental devenements et la formule des probabilites
totales donnent legalite suivante :
p
a,b
=
a
a +b
p
a1,b
+
b
a +b
p
a,b1
(RR)
Cest ce quon lit souvent partout, mais ceci ne decrit pas bien lexperience
puisquon ne sait pas qui est lunivers ou avec quelles variables aleatoires on
travaille.
PREMIERE METHODE : utilisation des variables aleatoires.
On modelise en considerant quune personne peut choisir A ou B avec la meme
chance (je ne parle doption politique, mais de possibilite). On va considerer la
donnee de (a +b) variables aleatoires X
1
, ..., X
a+b
qui prennent seulement les
deux valeurs 1 et (1) , independantes et portees par un espace probabilise
muni de la probabilite P telle que (ceci est possible dapr`es le theor`eme) :
1 i (a +b) , P(X
i
= 1) = P(X
i
= 1) =
1
2
( lindice i modelise la i-`eme personne et X
i
vaut 1 si i choisit de voter pour B
et X
i
vaut (1) si i choisit de voter pour A).
Pour traduire levenement dont on cherche la probabilite, il sut dintroduire
S
i
=

1ji
X
j
Vu les resultas, S
a+b
vaut toujours (b a) et on veut que chaque S
i
soit `a
valeurs strictement positives ( donc dans N

).
On cherche donc p
a,b
= P((S
1
> 0, ..., S
a+b1
> 0) | (S
a+b
= (b a))).
Si X
a+b
vaut 1, alors S
a+b1
vaut (a+b1) et si X
a+b
vaut (1), alors S
a+b1
vaut (a +b 1).
On en deduit que :
p
a,b
=
P((S
1
> 0, ..., S
a+b2
> 0, S
a+b1
= b a + 1, X
a+b
= 1)
P(S
a+b
= (b a))
+
P((S
1
> 0, ..., S
a+b2
> 0, S
a+b1
= b a 1, X
a+b
= 1)
P(S
a+b
= (b a))
.
Nommons T le second terme de lexpression `a droite de legalite et nommons
(TT) le premier terme de cette meme expression.
32
Calculons dabord T.Puisque les diverses variables X
i
sont independantes, les
deux evenements (S
1
> 0, ..., S
a+b2
> 0, S
a+b1
= b a1) et X
a+b
= 1 sont
independants et :
T =
P((S
1
> 0, ..., S
a+b2
> 0, S
a+b1
= b a 1).P(X
a+b
= 1)
P(S
a+b
= (b a))
Donc :
T =
P((S
1
> 0, ..., S
a+b2
> 0) | (S
a+b1
= ((b 1) a)).P(S
a+b1
= ((b 1) a))P(X
a+b
= 1)
P(S
a+b
= (b a))
Donc , puisque P(X
a+b
= 1) est egal `a
1
2
, puisque P(S
a+b1
= ((b 1) a))
est egal `a (
_
a +b 1
b 1
_
(
1
2
)
a+b1
) ( il faut choisir (b 1) indices i (parmi
(a +b 1)) tels que X
i
vaut 1 et les autres indices i sont donc tels que X
i
vaut
(1)), on a :
(
P(S
a+b1
= ((b 1) a))
P(S
a+b
= (b a))
)P(X
a+b
= 1) =
b
a +b
Donc :
T = p
a,b1
.
b
a +b
De meme, on a :
(TT) = p
a1,b
a
a +b
On a bien retrouve la formule (RR) que lintuition prevoyait `a partir dune
modelisation utilisant un jeu de variables aleatoires independantes et toutes de
meme loi.
On peut nir par un raisonnement part recurrence pour obtenir p
a,b
. Si (a +b)
est egal `a 1, a vaut 0 et b vaut 1 et p
a,b
est egal `a 1. Si (a + b) vaut 2 alors
(a, b) vaut (0, 2) auquel cas p
a,b
vaut 1 ou bien (a, b) vaut (1, 1) auquel cas le
candidat B ne peut jamais etre majoritaire tout le temps des deux votes.
Dans ces deux cas, on deduit que p
a,b
est egal `a
ba
b+a
.
En faisant une recurrence sur lentier (a + b) et en utilisant legalite (RR), on
montre que p
a,b
vaut eectivement
ba
b+a
.
(REMARQUE Le calcul fait ci-dessus de P(S
ba1
) (on ferait de meme pour
P(S
ba
) et P(S
ba+1
)) assure sil en est besoin que ces probabilites sont non
nulles : ainsi les probabilites conditionnelles considerees sont bien possibles.
SECONDE METHODE : la construction de lunivers
Ici, cest lunivers qui va etre plus complique et qui peut rendre la premi`ere
methode plus agreable. Mais le resultat p
a,b
=
ba
b+a
sera plus naturel `a mettre
en evidence.
On peut considerer chaque depouillement comme une marche aleatoire o` u il
ny a aucun bulletin depouille au debut ( evidemment) et o` u, `a chaque bulletin
33
depouille, on compte 1 si le bulletin est pour B et (1) sil est en faveur du
candidat A. De telle fa con quun depouillement est la donnee dun (a+b)-uplet
de points ((i, y
i
)
0i(a+b)
o` u :
0 i (a +b 1) , y
i+1
= y
i
1 .
On peut considerer que est lensemble de ces marches aleatoires.
DEFINITION Soient deux points M et N de coordonnees respectives enti`eres
(m, ) et (n, ) o` u n est strictement superieur ou egal `a m.
On appelle marche aleatoire allant de M `a N une suite (x
i
, y
i
)
0i(nm)
telle
que :
(x
0
, y
0
) = (m, ) , (x
nm
, y
nm
) = (n, ) et 0 i ((nm)1), x
i+1
= m+i
et 0 i ((n m) 1) y
i+1
= y
i
1
On notera Mar
M,N
lensemble des marches aleatoires joignant le point M au
point N.
REMARQUE 1 : Lensemble Mar
M,N
peut etre vide. Il est non vide si et
seulement si :
(n m) | | et ((n m) + ( )) 2N
(la seconde condition dit que (n m) et ( ) sont de meme parite).
Prouvons cette remarque. Soit k tel que n = (m+k).
Soit c le nombre de i tel que y
i+1
= y
i
+ 1 (et donc (k c) est le nombre
dindices i tels que y
i+1
= y
i
1).
Donc, on a : = c (k c) = 2c (n m). Lentier (n m) +( )
est donc bien dans 2N.
En outre, si est superieur ou egal `a (id est si c est superieur ou egal `a
k
2
),
on a :
= k + (2c 2)k k = (n m) .
Si est inferieur ou egal `a , on a cette fois-ci :
= k 2c k = (n m) .
Reciproquement, soit p dans N tel que est egal `a (2p (n m)).La
condition (n m) | | entrane ici que :
0 p (n m) .
Ainsi les entiers p et ((n m) p) sont tous deux positifs.
Soit k lentier egal `a (n m).
On a donc
n = (m+k) et = +p ((n m) p)
On obtient bien une marche aleatoire avec une succession de (k+1) point (i, y
i
)
(i allant de 0 `a k) et en ajoutant p fois lentier 1 et en ajoutant ((n m) p)
fois (1).
34
Notons ( en vue de la remarque qui suit) que lentier p (id est le nombre de fois
quon ajoute 1) est egal `a
+nm
2
.
REMARQUE 2 : Supposons que Mar
M,N
est un ensemble non vide.
Soit lapplication denie de lensemble A des (n m)-uplets (
1
, ....,
nm
)
de { (1), 1 }
nm
o` u il y a
+nm
2
composantes egales `a 1 dans lensemble
Mar
M,N
par :
(
1
, ....,
nm
) A , (
1
, ....,
nm
) = ((m+i, y
i
))
0i(nm)
o` u
y
0
= et 0 i ((mn) 1) , y
i+1
= y
i
+
i+1
.
Lapplication est une bijection de A dans Mar
M,N
(le fait que applique
dans Mar
M,N
vient de la n de la remarque precedente).
Lapplication
1
est facile `a mettre en evidence. Cest lapplication qui `a
une marche aleatoire (m + i, y
i
)
0i(nm)
appartenant `a Mar
M,N
associe le
(n m)-uplet (y
i
y
i1
)
1i(nm)
.
Or le cardinal de A est egal `a
_
n m
nm+
2
_
(il faut choisir
nm+
2
compo-
santes egales `a 1 parmi les (nm) possibles, les autres composantes etant alors
toutes egales `a (1)).
On en deduit le cardinal de Mar
M,N
. On a donc (avec les notations precedentes
relatives aux points M et N) :
Proposition 0.0.8
Le cardinal de Mar
M,N
est lentier
_
n m
nm+
2
_
.
Un cas tr`es frequent consiste `a prendre pour M lorigine quon note tous O et,
ainsi, Mar
O,N
a pour cardinal
_
n
n+
2
_

Revenons `a notre scrutin. On depouille (a + b) bulletins et on accorde 1 (une
voix) quand B est sur le bulletin et on accorde (1) quand A est sur le bulletin.
On consid`ere ce depouillement comme une marche o` u chaque terme (m+i, y
i
) va
indiquer le moment o` u on consid`ere le i-`eme bulletin et y
i
depend de lordonnee
y
i1
ajoutee de 1 ou retranchee de 1 selon que B a ete choisi ou non.
Ceci constitue une marche aleatoire ((m+i, y
i
))
0i(a+b)
avec y
0
nul (il ny a
rien au debut) et y
a+b
= b a ( quand le depouillement est ni, il y a bien b
bulletins pourB et a bulletins pour A). Lunivers qui decrit lexperience donnee
est lensemble Mar
0,N
o` u N est le point (a +b, b a).
Determinons lensemble des cas favorables (qui decrivent le fait que B est
toujours en tete). Puisque y
1
vaut 1 ou (1), il faut que y
1
soit egal `a 1 pour
que B soit en tete d`es le debut. Ensuite, il faut que tous les y
i
(pour i superieur
ou egal `a 2) soient dans N

.
En dautres termes, en langage geometrique, il faut et il sut que les divers
points (m+i, y
i
) (pour 1 i (a +b)) ne franchissent pas laxe des abscisses.
35
Do` u la necessite de ce principe dit de reexion (ou de symetrie) qui va per-
mettre de calculer le nombre de ces marches aleatoires.
REMARQUE 3 : Reprenons les points M egal `a (m, ) et N egal `a (n, ).
Pour tout point donne Z egal `a (x, y) pour x et y reels, notons Z

le point egal
`a (x, y).
Notons Mar
M,N
le sous-ensemble de Mar
M,N
formee des marches aleatoires
qui touchent ou traversent laxe des abscisses, id est lensemble des ((m +
i, y
i
))
0i(nm)
de Mar
M,N
tels quil existe un indice i et un indice j pour
lesquels (y
i
y
j
) est negatif ou nul.
On a le theor`eme suivant, dit principe de reexion :
Proposition 0.0.9
On suppose que le produit (y
0
y
nm
) est positif.
Les deux ensembles Mar
M,N
et Mar
M

,N
ont le meme nombre delements, `a
savoir
_
n m
nm++
2
_
La preuve est faite en appendice (appendice n1).
Deduisons-en le cardinal de lensemble qui traduit que le candidat B est
toujours majoritaire.
Dapr`es ce quon a dit, la marche aleatoire ((m + i, y
i
))
0i(a+b)
de Mar
O,N
(o` u N est le point de n de depouillement (a+b, ba)) est une marche possible
si et seulement si (1, y
1
) = (1, 1) et les autres y
i
sont tous dans N

: cest dire
que, si C est le point (1, 1), lensemble a le meme nombre delements que le
complementaire de Mar
C,N
dans Mar
C,N
(les ordonnees y
i
restent strictement
positives). Or, avec le principe de reexion, on a :
Card(Mar
C,N
) Card(Mar
C,N
) =
_
b +a 1
b 1
_

_
b +a 1
b
_
Donc :
p
a,b
=
_
b +a 1
b 1
_

_
b +a 1
b
_
_
a +b
b
_ =
b +a
b a
.
Passons maintenant au second theor`eme qui permet de construire une famille
nie de variables aleatoires assujetties `a des conditions.
Theor`eme 0.0.2
Soit n dans N

et soient E
1
, ..., E
n
n ensembles tous nis.
Soit g
1
un germe de probabilite sur E
1
`a valeurs dans [0, 1].
36
Pour 2 i n, pour x
i1
dans E
i1
, soit g
xi1
i
un germe de probabilite sur
E
i
`a valeurs dans [0, 1].
1 ) Alors il existe un ensemble ni , il existe une probabilite P sur et il
existe n variables aleatoires X
1
, ...X
n
denies respectivement sur E
1
, ..., E
n
telles que :
x
1
E
1
, P(X = x
1
) = g
1
(x
1
)
et pour 2 i n, pour tout (i 1)-uplet (x
1
, ..., x
i1
) tel que P(X
1
=
x
1
, ...., X
i1
= x
i1
) est non nul, on a :
x
i
E
i
, P(X
i
= x
i
| X
1
= x
1
, ..., X
i1
= x
i1
) = g
xi1
i
(x
i
) .
Pour tout indice i compris entre 2 et n , on a :
(x
1
, ..., x
i
)
1ji
E
j
, P(X
1
= x
1
, ..., X
i1
= x
i1
, X
i
= x
i
) = g
1
(x
1
)

2ji
g
xj1
(x
j
) .
2 ) Si i est compris entre 2 et n,quel que soit x
i1
tel que P(X
i1
= x
i1
) est
non nul, on a :
x
i
E
i
, P((X
i
= x
i
) | (X
i1
= x
i1
)) = g
xi1
i
(x
i
)
REMARQUE : une telle construction sappelle une chane de Markov (nie).
PREUVE DU THEOREME
Comme dans la preuve du theor`eme precedent, on choisit =
1in
E
i
et on
consid`ere aussi X
i
lapplication i-`eme composante sur .
Soit P la probabilite denie sur `a partir du germe g deni sur par :
(
1
, ...,
n
) , g(
1
, ...,
n
) = g
1
(
1
)(

2in
g
i1
i
(
i
)) .
Remarquons bien que g est bien un germe de probabilite sur lensemble car
g applique dans [0, 1] et en sommant les quantites g(
1
, ...,
n
)sur
n
dans E
n
, puis sur
n1
dans E
n1
, .....et enn sur
1
dans E
1
, on obtient bien 1.
Dautre part, si x
1
appartient `a E
1
, on a :
P(X
1
= x
1
) = P({ x
1
} (
2in
E
j
)) = g
1
(x
1
) .
En faisant les calculs, on obtient bien que, si (x
1
, ..., x
i
) appartient `a
1ji
E
j
,
on a :
P(X
1
= x
1
, ..., X
i1
= x
i1
, X
i
= x
i
) = g
1
(x
1
)

2ji
g
xj1
(x
j
) .
Ainsi, si cette probabilite est non nulle (ce qui est toujours le cas si les germes
de probabilite sont tous `a valeurs dans ]0, 1[ ) , on peut passer aux probabilites
conditionnelles.
37
Si i est superieur ou egal `a 2, on a donc :
P(X
i
= x
i
| X
1
= x
1
, ..., X
i1
= x
i1
) = g
xi1
i
(x
i
) .
Soient (x
i1
, x
i
) dans E
i1
E
i
tel que P(X
i1
= x
i1
) est non nul.
En utilisant la relation precedente, on a :
P(X
i
= x
i
, X
i1
= x
i1
) =

(x1,...,xi2)
1j(i2)
Ej
P(X
1
= x
1
, ..., X
i1
= x
i1
, X
i
= x
i
)
= g
xi1
i
(x
i
)(

(x1,...,xi2)
1j(i2)
Ej
P(X
1
= x
1
, ..., X
i1
= x
i1
)) = g
xi1
i
(x
i
)P(X
i1
= x
i1
)
On a donc demontre le theor`eme.
REMARQUES : 1 ) ce theor`eme va permettre de modeliser des experiences
sans avoir besoin de denir lensemble ( ce theor`eme est l`a aussi pour assurer
son existence).......ce quon a dit dej`a de nombreuses fois.
2 ) On peut meme enoncer un theor`eme analogue avec une suite de variables
aleatoires (au lieu dun nombre ni). Mais ce theor`eme est hors programme de
sup et de spe.
Dommage car il permet de bien expliquer le probl`eme de la ruine dun joueur
dans un jeu de pile ou face.
3 ) La n de la preuve du theor`eme montre quon a meme un peu mieux, `a
savoir que, si i est donne entre 2 et n, si on consid`ere c
1
, ..., c
s
s entiers deux
`a deux distincts compris entre 1 et (i 2), si x
i
est dans E
i
, si x
i1
est dans
E
i1
, si (x
ct
)
1ts
est donne dans
1ts
E
ct
tel que P(X
i1
= x
i1
, X
c1
=
x
c1
, ...X
cs
= x
cs
) est non nul , alors on a :
P(X
i
= x
i
| (X
i1
= x
i1
, X
c1
= x
c1
, ...X
cs
= x
cs
) = g
xi1
i
(x
i
) .
Cest cette propriete qui est interessante : une chane de Markov modelise
un processus o` u chaque pas (ici une variable aleatoire) ne depend que du pas
precedent ( et donc pas des pas qui sont avant celui qui est juste le precedent).
On va etudier un exemple en mettant en evidence lensemble , puis en utili-
sant le theor`eme qui vient detre enonce.
Il sagit de la transmission dun message binaire. On consid`ere n personnes
J
1
, ....J
n
. Linformation est deux types ( mettons oui ou non). J
1
recoit
linformation, la transmet `a J
2
et ainsi de suite jusqu`a la personne J
n
qui
annonce linformation quil a entendue (son annonce est consideree comme une
transmission et le public qui recoit linformation peut la recevoir correctement
38
ou non). Chaque personne transmet ce quil a entendu avec une probabilite p
dans ]0, 1[ et la probabilite de transmettre le contraire de ce quil a entendu est
de (1 p).
On veut la probabilite p
n
pour que linformation soit correctement transmise.
On va presenter une premi`ere methode en mettant en evidence lensemble et
une autre methode utilisant le theor`eme ci-dessus.
PREMIERE METHODE
Considerons
n
(au lieu de ) comme lensemble { 0, 1 }
n
.
Si (
i
)
1in
est dans
n
,
i
est egal `a 1 si et seulement si linformation qua
entendue J
i
est bien transmise.
Pour dans
n
, soit q
,n
le nombre de composantes egales `a 1.
Pour decrire lexperience, on munit
n
du germe de probabilite suivant :
P({ }) = p
q,n
(1 p)
nq,n
.
Soit A
n
levenement qui traduit que linformation a nalement bien ete trans-
mise. Lensemble A
1
est { 1 }, lensemble A
2
est { (0, 0), (1, 1)}, lensemble A
3
est forme des triples (0, 0, 1), (0, 1, 0), (1, 0, 0), (1, 1, 1).
Supposons que A
n
est lensemble des n-uplets (
i
)
1in
de
n
tels que le
nombre de
i
egaux `a 0 est pair.
Soit (
i
)
1i(n+1)
dans A
n+1
. Si (
i
)
1in
appartient `a A
n
, alors
n+1
est egal
`a 1 (pour que linformation bien transmise au rang n reste bien transmise au
rang (n + 1)) et si (
i
)
1in
appartient ` a
c
A
n
, alors
n+1
est egal `a 0 (pour
que linformation mal transmise au rang n redevienne bien transmise au rang
(n + 1)).
Par recurrence, on en deduit bien que le nombre de
i
egaux `a 0 dans A
n+1
est pair.
Soit X
n
la variable aleatoire denie par :
= (
i
)
1in

n
, X
n
() = Card({ 1 i n,
i
= 0 }
Quitte `a demander des precisions si ce nest pas clair, X
n
suit la loi binomiale
B(n, 1 p).
Or, p
n
est egale `a P(X
n
2N, X
n
n).
Donc :
p
n
= P(A
n
) =

t,02tn
_
n
2t
_
(1 p)
2t
p
n2t
.
Le calcul de cette somme est facile `a faire. Sinon, on ecrit :
P(An) P(
c
A
n
)
=

t,02tn
_
n
2t
_
(1 p)
2t
p
n2t
+

t,02t+1n
_
n
2t + 1
_
((1 p))
2t+1
p
n2t
= (p + (p 1))
n
39
Puisque (P(A
n
) +P(
c
A
n
)) est egal `a 1, on en deduit que :
p
n
=
(2p 1)
n
+ 1
2
.
REMARQUE On peut aller plus vite avec la formule des probabilites totale,
au moins dun point de vue heuristique qui peut sure ici.
On introduit levenement T
n
qui traduit le fait que J
n
transmet ce quil a
entendu, `a savoir lensemble des n-uplets (
i
)
1in
tels que
n
est egal `a 1.
La formule des probabilites totale sapplique au syst`eme complet (T
n
,
c
T
n
) (la
probabilite introduite charge chaque point : P(T
n
) et P(
c
T
n
) sont dierents
tous deux de 0, en fait P(T
n
) est egal `a

0k(n1)
_
n 1
k
_
p
k+1
(1 p)
n1k
).
On a donc :
n 2, P(A
n
) = P(T
n
)P(A
n
| T
n
) +P(
c
T
n
)P(A
n
|
c
T
n
)
(A
n
| T
n
) correspond au fait que linformation a bien ete transmise au rang
(n1) . De meme (A
n
|
c
T
n
) correspond au fait que linformation a ete mal
transmise au rang (n 1) .
Expliquons le mot correspond.
Pour = (
i
)
1in
dans
n
, notons
n1
la projection denie par :

n1
() = (
i
)
1i(n1)
.
Levenement A
n
T
n
est lensemble A
n1
{ 1 } de telle sorte que P(A
n
T
n
)
est egal `a :
P({
n
, X
n1
(
n1
()) 2N, X
n1
(
n1
()) (n 1),
n
= 1 })
= P(A
n1
).P(T
n
) .
On fait de meme pour le calcul de P(A
n

c
T
n
) puisque lensemble (A
n

c
T
n
)
est lensemble
c
A
n1
{ 0 }.
Donc :
p
1
= p et n 2, p
n
= pp
n1
+ (1 p)(1 p
n1
) .
On tombe sur la suite arithmetico-geometrique p
n
= (2p 1)p
n1
+ (1 p) .
Le point xe de (x ((2p 1)x + (p 1))) est
1
2
. ainsi la suite (p
n

1
2
)
nN
est geometrique de raison (2p1) et on retrouve le resultat precedent pour p
n
.
SECONDE METHODE
Ce qui compte est de savoir si linformation est bien ou mal transmise entre J
k
et J
k+1
.
On consid`ere (ce que le second theor`eme permet de faire) une famille (X
k
)
1kn
de variables aleatoires `a valeurs dans { 1, 2 } et denies sur un ensemble ni
muni dune probabilite P veriant :
P(X
1
= 1) = p, P(X
1
= 2) = (1 p)
40
et
2 k n, P(X
k
= 1 | X
k1
= 1) = p, P(X
k
= 1 | X
k1
= 2) = (1 p),
P(X
k
= 2 | X
k1
= 1) = (1 p), P(X
k
= 2 | X
k1
= 2) = p .
Ce mod`ele traduit exactement la transmission en considerant que 1 correspond
`a la bonne transmission par J
k
de ce qui a ete entendu tandis que 2 correspond
au contraire.
On notera que les probabilites conditionnelles posees ici ne dependent pas de
lindice k superieur ou egal `a 2 (on dit que dans la litterature que cest une
chane de Markov homog`ene).
On peut meme ecrire les conditions precedente sous la forme dune matrice en
considerant :
A(p) =
_
P(X
k
= 1 | X
k1
= 1) P(X
k
= 1 | X
k1
= 2)
P(X
k
= 2 | X
k1
= 1) P(X
k
= 2 | X
k1
= 2)
_
=
_
p 1 p
1 p p
_
Le nombre p
n
est en fait P(X
n
= X
1
).
Or :
P(X
n
= X
1
) = P(X
n
= X
1
| X
1
= 1)P(X
1
= 1)+P(X
n
= X
1
| X
1
= 2)P(X
1
= 2)
= pP(X
n
= 1 | X
1
= 1) + (1 p)P(X
n
= 2 | X
1
= 2) .
Il reste donc `a calculer P(X
n
= 1 | X
1
= 1) et P(X
n
= 2 | X
1
= 2).
Ceci est relativement facile `a partir de la matrice A car si on note a
(k)
i,j
le terme
general de la matrice A
k
, alors P(X
k
= i | X
1
= j) est egal `a a
(k1)
i,j
(cf preuve
ci-dessous).
Or ici, en decomposant A(p) sous la forme pI
2
+ (1 p)A(0), en utilisant le
binome du Newton (ou en diagonalisant la matrice A(0)), on obtient que :
k N , A(p)
k
=
_
(2p1)
k
+1
2
(2p1)
k
+1
2
(2p1)
k
+1
2
(2p1)
k
+1
2
_
On deduit ici que :
P(X
n
= X
1
) = pa
(n1)
1,1
+ (1 p)a
(n1)
2,2
=
(2p 1)
n
+ 1
2
Prouvons le resultats admis en le prouvant pour une famille nie (X
k
)
1kn
`a
valeurs dans lensemble N
p
(rappelons que cest lensemble des entiers naturels
non nuls inferieurs ou egaux `a p) On suppose cette chane homog`ene ( comme
dans lexemple), `a savoirs que pour i et j dans N
p
, le terme P(X
k
= j | X
k1
=
i) est independant de lentier k superieur ou egal `a 2.
On introduit la matrice ( dite de transfert) A = (a
i,j
)
1i,jp
de M
p
(R) denie
par :
2 k n , 1 i, j p , a
i,j
= P(X
k
= j | X
k1
= i) .
Notons, comme ci-dessus a
(k)
i,j
le terme general de la matrice A
k
.
On a donc :
41
Proposition 0.0.10
2 k n, 1 i, j p , P(X
k
= j | X
1
= i) = a
(k1)
i,j
.
REMARQUES : 1 ) si la famille de variables aleatoires X
k
correspond `a
des indices k allant de 0 `a n (et non de 1 `a n comme dans lexemple) , alors
P(X
k
= j | X
0
= i) sera egal `a a
(k)
i,j
pour k superieur ou egal `a 1.
On pourrait tr`es bien lutiliser dans lexemple quon vient de traiter en considerant
X
0
comme variable debutant la famille (X
k
)
0kn
, `a valeurs dans { 1, 2 } et
telle que :
P(X
0
= 1) = 1 et P(X
0
= 2) = 0
( `a letat initial, il n y a aucune transmission et la bonne information corres-
pond ` a levenement certain (X
0
= 1)).
Dans ce cas-l`a, p
n
est P(X
n
= 1 | X
0
= 1) et cest donc le terme general a
(n)
1,1
de la matrice A(p)
n
quon a alors directement plus haut.
2 ) On peut considerer un autre ensemble E de cardinal p que N
p
pour len-
semble darrivee des variables aleatoires, mais alors il sut dindexer les elements
de E (par exemple en les notant x
i
) et de considerer a
i,j
= P(X
k
= x
j
| X
k1
=
x
i
) au lieu de P(X
k
= j | X
k1
= i) (n de la remarque)
La proposition est vraie (par denition de la matrice de transfert) si k est egal
`a 2.
Supposons la vraie jusquau rang k inferieur ou egal `a n.
Soit k tel que (k + 1) est inferieur ou egal `a n.
Soit i et j xes dans N
p
.
Or :
P(X
k+1
= j | X
1
= i) =

1hp
P((X
k+1
= j, X
k
= h) | X
1
= i) =
=

1hp
P(X
k+1
= j | X
k
= h, X
1
= i)P(X
k
= h | X
1
= x
1
)
Comme on la dit dans la remarque qui suit le theor`eme, une chane de Markov
decrit un processus dont un pas donne ne depend que du precedent ( et non de
ceux qui sont encore avant).
Donc : P(X
k+1
= h | X
k
= h, X
1
= i) = P(X
k+1
= h | X
k
= h).
Donc :
P(X
k+1
= j | X
1
= i) =

1hp
P(X
k+1
= j | X
k
= h)P(X
k
= h | X
1
= i)
Donc , en utilisant la recurrence au rang k, on a :
P(X
k+1
= j | X
1
= i) =

1hp
a
(k1)
i,h
a
h,j
= a
k
i,j
.
42
APPENDICE 1
PREUVE DU PRINCIPE DE REFLEXION
Rappelons que M est le point (m, ) et que N est le point (n, ).
Soit c = ((m + i, y
i
))
0i(nm)
un element de Mar
M,N
tel que le produit
(y
0
y
nm
) est positif.
Il existe donc deux indices indices i et j compris entre 0 et (n m) tels que le
produit (y
i
y
j
) est negatif.
Supposons le strictement negatif et supposons i strictement inferieur `a j. On
consid`ere k le plus grand entier compris entre i et j tel que y
k
est de meme
signe que y
i
ou est nul. Puisque y
j
est de signe oppose `a y
i
, k est inferieur ou
egal `a (j 1). Si y
k
est non nul, alors y
k
1 et y
k
+ 1 sont encore de meme
signe que y
i
ou nul. Ainsi, y
k+1
serait de meme signe que y
i
ou serait nul, ce
qui est exclu par denition de y
k
.
Il existe donc un indice k tel que y
k
est nul.
Soit i
c
le plus petit indice k compris entre 0 et (n m) tel que y
k
est nul.
On peut supposer i
c
superieur ou egal `a 1 car, sinon, les ensembles Mar
M,N
,
Mar
M,N
et Mar
M

,N
sont egaux. Et ainsi, y
0
est non nul.
Considerons la suite de points ((m+i, z
i
))
0inm
tel que
j < i
c
, z
i
= y
i
et j i
c
, z
i
= y
i
.
Appelons
1
lapplication denie sur Mar
M,N
et telle que
1
(c) est la marche
((m + i, z
i
))
0i(nm)
Par choix de i
c
, remarquons que (c) appartient `a
Mar
M

,N
et que i
1(c)
est egal `a i
c
.
Puisque le produit y
0
.y
nm
est positif ,les ordonnees de M

et de N sont de
signes opposes et necessairement les deux ensembles Mar
M

,N
et Mar
M

,N

sont egaux.
On peut donc denir
2
de Mar
M

,N
dans Mar
M,N
identiquement `a
1
(les
deux applications
1
et
2
ne di`erent que parce que leurs ensembles de depart
et darrivee sont inverses).
Lapplication
1

2
(resp.
2

1
) est lidentite sur Mar
M

,N
(resp. sur
Mar
M,N
).
Les deux ensembles Mar
M,N
et Mar
M

,N
ont bien le meme nombre delements.
43
DEUXIEME APPENDICE
On va donner un enonce qui generalise le second theor`eme (mais , du point de
vue des idees, il est `a peu pr`es identique).
Son caract`ere plus general ( relativement aux chanes de Markov) tient `a ce
que le conditionnement quon impose est plus fort ( les germes dependent de
toutes les etapes precedentes).
On se donne E
1
, ..., E
n
une famille de n ensembles ni.
On consid`ere g
1
un germe de probabilites sur E
1
`a valeurs dans [0, 1 ].
Si i est compris entre 2 et n, si (x
1
, ..., x
i1
) est un i-uplet de
1j(i1)
E
j
,
on consid`ere g
(x1,...xi1)
i
un germe de probabilite sur E
i
`a valeurs dans [0, 1].
On a le theor`eme suivant :
Theor`eme 0.0.3
1 ) Il existe un ensemble ni , il existe une probabilite P sur et il existe n
variables X
1
, ....X
n
denies respectivement sur E
1
, ....E
n
telles que :
x
1
E
1
, P(X = x
1
) = g
1
(x
1
)
et pour 2 i n, pour tout (i 1)-uplet (x
1
, ..., x
i1
) tel que P(X
1
=
x
1
, ...., X
i1
= x
i1
) est non nul, on a :
(x
1
, ..., x
i
)
1ji
E
j
, P(X
i
= x
i
| X
1
= x
1
, ..., X
i1
= x
i1
) = g
x1,...,xi1
i
(x
i
) .
2 ) Pour 2 i n, on a :
x
i
E
i
, P(X
1
= x
1
, ..., X
i
= x
i
) = g
1
(x
1
)

2ji
g
(x1,...,xj1)
j
(x
j
) .
La preuve se fait comme dans le cas du second theor`eme en prenant pour
lensemble
1in
E
i
et en considerant le germe de probabilite sur deni
aussi par :
(
1
, ...,
n
) , g(
1
, ...,
n
) = g
1
(
1
)(

2jn
g
(1,...,j1)
j
(
j
) .
Pour 1 i n, X
i
est la i-`eme projection coordonnee de sur E
i
.
On laisse le detail des calculs au lecteur.
PREMIERE APPLICATION : On va expliquer que le raisonnement fait page
12 est tout `a fait correct.Se reporter `a cette page pour les notations.
Pour cela, on introduit p variables aleatoires X
1
,...X
p
qui prennent seulement
les deux valeurs 0 et 1 ( X
i
prend la valeur 1 ou 0 selon quon obtient une boule
blanche ou noire au i-`eme ).
Si i est compris entre 2 et p, si est un i-uplet forme de 0 et 1, on notera q
i,
le nombre 1 quil y a dans ce i-uplet.
On consid`ere les lois suivantes :
44
P(X
1
= 1) =
N
N +N

, P(X
1
= 0) =
N

N +N

et
2 i p, = (
1
, ....
i1
) { 0, 1 }
P(X
i
= 1 | X
1
=
1
, ..., X
i1
=
i1
) =
N q
i1,
N +N

(i 1)
et
P(X
i
= 0 | X
1
=
1
, ..., X
i1
=
i1
) =
N

((i 1) q
i1,
)
N +N

(i 1)
.
(apr`es (i 1) tirages, il ne reste que ((N + N

) (i 1)) dans lurne parmi


lesquelles, sous la condition (X
1
=
1
, ..., X
i1
=
i1
), il y a (Nq
i1,
) boules
blanches).
Levenement A etudie dans lexemple page 12 est lensemble (X
1
= 1) (X
2
=
0) ... (X
p
= 0) si p est pair et (X
1
= 1) (X
2
= 0) ... (X
p
= 1) si p est
impair.
Pour le calcul explicite, on utilise la deuxi`eme formule donnee dans le theor`eme
developpe ici.....cest ce quon avait fait dans ce qui est redige page 12, mais on
voulait l`a simplement montrer `a ce stade du polycopie lecacite des formules
du reverend Bayes.
EXERCICE (decortique, mais non corrige)
Soit une concierge dun immeuble ayant n appartements.Elle poss`ede la cle de
chaque appartement et elle met toutes ces cles dans un meme trousseau.Chaque
cle ouvre un et un seul appartement.
Elle se trouve devant un des appartements (xe) quelle doit ouvrir.Elle essaie
au hasard les cles les unes apr`es les autres. On veut calculer la probabilite
p quelle rentre dans lappartement au bout du k-`eme essai ( k est suppose
inferieur ou egal `a n).
1 ) Determiner cette probabilite `a partir dune famille de variables aleatoires
(X
i
)
1ik
o` u X
i
correspond au fait que la cle utilisee au i-`eme essai douver-
ture de la porte aboutit ou naboutit pas `a louverture eective de la porte de
lappartement.
2 ) Determiner la probabilite cherchee en proposant un univers qui rende
compte du phenom`ene (constater ici que cette methode est peut-etre plus
simple).
45
TROISIEME APPENDICE
Le calcul des probabilites dans le cas dun univers ni revient souvent `a chercher
le cardinal dun sous-ensemble de cet univers ( la probabilite etant le quotient
entre le nombre de cas favorables et le nombre de cas possibles).
Les resultats de cet appendice sont plus ou moins classiques.
Cest pourquoi il est bon de savoir calculer le cardinal de certains sous-ensembles.
On consid`ere deux entiers naturels i et j tous deux superieurs ou egaux `a 1.
On rappelle que le nombre dinjections dun ensemble `a i elements dans un en-
semble `a j elements est egale `a
_
j
i
_
i! ( entier nul si j est strictement inferieur
`a i) ; le nombre de permutations dun ensemble `a i elements est egal `a i!.
Notons CS
i,j
(resp. C
i,j
) lensemble des applications de N
i
dans N
j
qui sont
strictement croissante (resp. croissantes).
Proposition 0.0.11
On suppose que i est inferieur ou egal `a j.
Lensemble CS
i,j
a
_
j
i
_
elements.
Lensemble C
i,j
a
_
j +i 1
i
_
elements.
PREUVE
Soit A
i,j
lensemble des parties de N
j
ayant i elements. Un element f de CS
i,j
est totalement determine par la donnee de ses images f(1), ...., f(i) avec f(1) <
... < f(i).
Ceci revient `a dire que lapplication de CS
i,j
dans A
i,j
denie par :
f CS
i,j
, (f) = { f(1), f(2), ...., f(n) }
est une bijection de CS
i,j
dans A
i,j
: le cardinal de CS
i,j
est bien egal `a
_
j
i
_
.
Soit f un element de C
i,j
. Soit g
f
deni sur N
i
par :
k N
i
, g
f
(k) = f(k) + (k 1) .
Lapplication g
f
est strictement croissante ( somme de lapplication croissante
f et de lapplication strictement croissante (k (k 1)) ) de N
i
dans N
i+j1
.
Reciproquement, soit g dans CS
i+j1
. Soit h
g
lapplication denie sur N
i
par :
k N
i
, h
g
(k) = g(k) (k 1) .
Puisque g est strictement croissante, g(k) est inferieur ou egal `a (g(k 1) 1)
de telle sorte que :
k N
i
, g(k) = g(i(ik)) g(i)(ik) (i+j1)(ik) = j+(k1) .
46
Lapplication h
g
envoie lensemble N
i
dans N
j
. Enn, si k

est strictement
superieur `a k, on a :
g(k

) g(k

1) + 1 .... g(k) + (k

k)
Ceci traduit le fait que lapplication h
g
appartient `a C
i,i+j1
.
Les deux applications (f f
g
et (g h
g
) sont deux application reciproques (
faites leur composee) : on vient de mettre en evidence une bijection de C
i,j
dans
CS
i,i+j1
. Lensemble C
i,j
poss`ede dont exactement
_
j +i 1
i
_
elements.
Soient p et n deux entiers naturels et soit pnon nul.
Notons E
p,n
lensemble des applications de f de N
p
dans N telles que

1jp
f(j)
est egal `a n.
Remarquons que E
p,n
est necessairement un ensemble ni puisque chaque f(j)
doit etre un entier naturel inferieur ou egal `a n.
Notons N
0,p
lensemble des entiers compris entre 0 et p ( cest donc N
p
auquel
on adjoint 0).
si f appartient `a E
p,n
, on notera f
Np1,0
la restriction de f `a N
0,p1
.
Proposition 0.0.12
Lensemble E
p,n
a
_
n +p 1
p 1
_
elements.
PREUVE
E
1,n
contient un element ( lapplication f telle que f(1) est egal `a n).
E
2,n
contient (n + 1) elements (les diverses applications f telles que f(1) = j
et f(2) = (n j) pour j variant de 0 `a n).
Soit p superieur ou egal `a 2.
E
p,n
est lunion DISJOINTE des ensembles F
p,n,j
forme des f tels que f(p) = j
et telle que la restriction de f N
0,p1
est dans E
p1,nj
(pour j variant de 0 `a
n).
Puisque tout element fde F
p,n,j
est tel que f(p) est xe, lapplication (f
f
N0,p1
) est une bijection de F
p,n,j
dans E
p1,nj
.
Ainsi, on a :
Card(E
p,n
) =

0jn
Card(E
p1,nj
.
Avec la valeur de Card(E
2,n
, on trouve donc que E
3,n
a
(n+1)(n+2)
2
elements
(cest-`a-dire
_
n + 2
2
_
.
Posons alors par recurrence sur p ( veriee au rang 1, 2 et meme 3) que :
Card(E
p,n
) =
_
n +p 1
p 1
_
.
47
Donc :
Card(E
p+1,n
) =

0jn
Card(E
p,j
) =

0jn
_
p +j 1
p 1
_
Or,

0jn
_
p +j 1
p 1
_
est le coecient devant X
p1
dans le developpement
du polynome

0jn
(1 + X)
p+j1
, cest-`a-dire le coecient devant X
p1
dans
le developpement du polynome
(1+X)
n+p
1
X
: il faut donc le coecient devant
X
p
dans le developpement de (1 +X)
n+p
, `a savoir
_
n +p
p
_
.
La preuve par recurrence est achevee.
Exercice 0.0.2 (pour utiliser la seconde proposition de cet annexe).
Dans une cuisine dun homme quon nommera Jean, n casseroles identiques
sont accrochees `a un m ur (il y a n chevilles alignees et reguli`erement espacees
au m ur pour les suspendre) de facon rectiligne et reparties au hasard.
Parmi ces n casseroles, k sont `a son ls unique et les autres appartiennent `a des
personnes toutes dierentes les unes des autres (et dierentes du ls de Jean ).
Determiner la probabilite que parmi les k casseroles du ls , deux au moins se
retrouvent cote `a cote.
Solution possible
On numerote de 1 `a n les casseroles : on suppose que les k premi`eres sont celles
qui appartiennent au ls.
On numerote de meme de 1 `a n les chevilles o` u les casseroles sont suspendues.
Un resultat de lexperience ( `a savoir le fait que les casseroles soient rangees
dans un certain ordre) correspond `a une permutation de N
n
(si est une telle
permutation, (i) est le numero de la cheville o` u se trouve la casserole i).
Soit , lensemble des permutations de N
n
.
Soit A lensemble qui traduit les cas favorables ( id est le fait que deux casseroles
du ls sont cote `a cote).
Soit B le complementaire de A dans .
Pour dans , soit u
1
< u
2
< ... < u
k
les divers elements de < N
k
> ranges
dans lordre strictement croissant (ce sont les diverses positions des casseroles
du ls).
Pour que appartienne `a B, il faut choisir un tel k-uplet qui verie :
u
1
1, 1 i (k 1), u
k+1
(u
k
+ 2) et u
k
n
Appelons C lensemble de ces k-uplets (u
i
)
1ik
.
B est lunion DISJOINTE des ensembles F
c
(pour c = (u
i
)
1i k
decrivant C)
formes des elements de tels que sa restriction `a N
k
soit une bijection de
48
N
k
dans { u
i
, 1 i k } et tels que sa restriction `a { k + 1, ..., n } est une
bijection dans le complementaire de { u
i
, 1 i k } dans N
n
.
Ainsi :
Card(B) = k!Card(C)(n k)! .
Determinons le cardinal de C.
Soit un k-uplet (u
i
)
1i k
dans C.
Soit :
y
1
= u
1
1, 1 i (k 1), y
k+1
= (u
k+1
u
k
2) et y
k+1
= (n u
k
)
Tous les y
i
sont des entiers naturels et la somme

1 jk+1
y
j
est egale (n
(2k 1)).
Si (n (2k 1)) est strictement negatif, alors lensemble B est vide : A est
donc lensemble et la probabilite requise est egale `a 1 ( cest bien conforme
`a lintuition).
Supposons que (n (2k 1)) est un entier naturel.
On vient de montrer que, si appartient `a B, alors le (k+1)-uplet (y
1
, ..., y
k+1
)
appartient `a E
k+1,n((2k1))
(notation de la deuxi`eme proposition de cette
annexe).
Mais lapplication (u
i
)
1 ik
(y
j
)
1 jk+1
est en fait une bijection de C
dans E
k+1,n
(
(2k1))
(verier que u
i
= (

1ji
y
j
) +2(i 1) +1.Si (y
j
)
1 jk+1
appartient `a E
k+1,(n(2k1))
, verier qualors (u
i
)
1 ik
appartient bien `a C).
Avec la deuxi`eme proposition, on deduit que la cardinal de C est egal `a
_
n k + 1
k
_
Donc, la probabilite requise est egale `a (on vient de calculer le complementaire
de lensemble A dont on veut la probabilite) :
1
k!
_
n k + 1
k
_
(n k)!
n!
= 1
(n k + 1)!(n k)!
n!(n 2k + 1)!
.
49
Voil`a des exercices en vrac, non corriges, faciles ou faisables.
Exercice 0.0.3 (rappellera peut-etre les probabilites de terminale)
Soit un jeu de 52 cartes . Dans la premi`ere question , on joue au poker ferme (
on distribue cinq carte aux joueurs) et dans la seconde, on joue au poker ouvert
( on distribue sept cartes aux joueurs qui nutilisent que les cinq meilleures).
1 ) Trouver la probabilite pour quun joueur ait une quinte ush ( cinq cartes
de la meme couleur et qui se suivent).
Trouver la probabilite pour quun joueur ait une couleur ( cinq cartes de la
meme couleur).
Trouver la probabilite davoir un carre.
2 ) Reprendre la question precedente avec un poker ouvert.
Exercice 0.0.4
On tire au hasard et sans remise n cartes `a jouer dun jeu de 32 cartes. Soit
la variable X donnant le nombre de rois obtenus. Quelle loi suit-elle et quelle
est lesperance de X ? (eviter les calculs et se rendre compte que savoir reperer
les lois classiques dans des situations donnees evite de recommencer des calculs
faits plus generalement dans un cours).
Exercice 0.0.5
Soit une suite (X
j
)
jN
de variables aleatoires denies sur un espace probabilise
.
On consid`ere un entier naturel n , un reel p appartenant `a ]0, 1[ et deux suites
(N
j
)
jN
et (N
R,j
)
jN
dentiers tels que :
j N

, n < N
R,j
< N
j
On suppose que chaque variable X
j
suit la loi hypergeometrique de param`etres
n, N
j
et N
R,j
(cf page 24).
Soit Y une variable aleatoire denie sur et suivant une loi binomiale B(n, p)
(loi binomiale de param`etres n et p).
On suppose que la suite (
N
R,j
Nj
)
jN
tend vers le reel p.
Montrer que, si k est un entier naturel compris entre 0 et n, alors (P(X
j
=
k))
jN
converge vers P(Y = k).
REMARQUE PHILOSOPHIQUE : quand n est tr`es petit devant N,
quon consid`ere un tirage avec ou sans remise, les valeurs des probabilites sont
voisines (en considerant le tirage avec remise decrit pas la loi binomiale de
param`etres n et p =
N
R
N
).
Exercice 0.0.6 ( exercice pose surtout pour sa seconde question).
Soit une urne contenant n boules blanches et 10 boules noires. On suppose que
n est superieur ou egal `a 5.
On tire simultanement 10 boules de lurne.
a ) Quelle est la probabilite p
n
quon ait tire exactement cinq boules noires.
b ) Trouver la ou les valeurs de n pour laquelle p
n
est la plus grande possible ?
50
Exercice 0.0.7 (na dinteret que pour la modeliasation)
Protez de cet exercice pour donner une version avec recherche de lunivers
et une presentation avec lexistence de variables aleatoires avec des conditions
donnees traduisant le phenom`ene etudie.
On consid`ere un tournoi international de football et on sinteresse aux ren-
contres de lequipe dun pays ( mettons lequipe du Bresil).
Il y a huit epreuves successives ( 3 rencontres qualicatives o` u le match nul est
possible , un huiti`eme de nal, une demi-nale , une petite nale et la nale et
ces cinq derni`eres parties sont decisives, cest-`a-dire quil n y a pas de match
nul).
les resultats possibles sont equiprobables.
Une personne fait un pronostic avant chacune de ces rencontres (on ne peut
pronostiquer que pour une des deux equipes qui joue et on ne peut donc pas
pronostiquer le match nul ; chacune des possibilite susceptible detre pronos-
tiquee est equiprobable).
a ) Quelle st la probabilite dun prognostic correct pour un match qualication ?
Pour un match `a issue decisive ?
b ) Quelle est la probabilite pour que le pronostiqueur pronostique les correc-
tement les huit rencontres ?
c ) Combien de pronostiqueurs sont necessaires pour quavec une probabilite
superieure `a 90 pourcents , lun au moins pronostique les huit bons resultats.
Exercice 0.0.8 (il sagit encore dune exercice pour modeliser)
Soit une famille donnee. On consid`ere que cette famille a une chance sur 10 de
navoir aucun enfant, trois chances sur dix den avoir un, quatre chances sur
dix den avoir deux t enn deux chances sur dix den avoir trois (on consid`ere
que cette maille ne peut pas avoir plus de trois enfants).
Il y a autant de chance davoir un gar con quune lle et le sexe dun enfant qui
est ne est independant du sexe de lenfant qui est ne ensuite.
Modeliser en utilisant des variables aleatoires puis en proposant la construction
eective de lunivers pour calculer la probabilite pour que la famille donnee nait
aucun garcon (reponse :
3
8
).
Calculer la probabilite pour que la famille donnee ait deux enfants sachant
quelle na aucun gar con (reponse :
4
15
).
Exercice 0.0.9
On consid`ere une urne contenant n boules numerotees de 1 `a n.
On tire deux boules ( lune apr`es lautre et avec remise de la premi`ere tiree).
On consid`ere la variable aleatoire X (resp. Y ) qui donne le plus grand (resp.
le plus petit) des deux nombres portes sur les deux boules.
a ) Donner la loi de X et celle de Y .
51
b ) Calculer lesperance et la variance de X.
En deduire celle de Y (on evitera de refaire un calcul en comparant la loi de Y
et celle de X).
c) Les deux lois X et Y sont-elles independantes. Determiner la covariance du
couple (X, Y ).
d ) Calculer la variance de la variable X +Y ?
Exercice 0.0.10
Soient X et Y deux variables aleatoires suivant chacune une loi de Bernoulli (
lune de param`etre p, lautre de param`etre q).
On suppose quelles ne sont pas correlees (cest-`a-dire que cov(X, Y ) est egale
`a 0).
Montrer que ces deux variables sont independantes.
Exercice 0.0.11
Soit (p
1
, ..., p
n
) un n-uplet de reels non tous nuls appartenant `a [0, 1].
Soient n ampoules numerotees de 1 ` a n qui sallument toutes de facon aleatoire
et independante les unes des autres.
Pour 1 i n, lampoule ni sallume avec la probabilite p
i
.
Soit Y la variable aleatoire egale au nombre dampoules qui sallument.
On suppose que lesperance de Y est toujours egale `a m (le nombre moyen
dampoules qui sallument est constant).
Determiner le n-uplet (p
1
, ..., p
n
) pour que la variance de Y soit maximale.
Quelle loi suit la variable Y (preciser ses param`etres).
Exercice 0.0.12
soit n personnes dans un immeubles ayant t etages tous equiprobables.
Ces n personnes prennent un ascenseur et chacune choisit un des t etages au
hasard ( peut-etre peu realiste).
Soit N
t,n
le nombre detages auxquels lascenseur sarrete.
1 ) Calculer le nombre moyen detages auxquels lascenseur sarrete (autrement
dit calculer lesperance de la variable N
t,n
.
(Indication qui propose une modelisation : On pourra, `a i xe entre 1 et n,
introduire Y la variable qui compte le nombre de personnes ayant choisi letage
ni , donner la loi que Y verie ; et enn introduire X
i
la variable qui vaut 1 si
au moins une personne choisit letage ni et 0 sinon. Relier N
t,n
aux variables
X
i
).
2 ) Que dire de E(N
t,n
) quand n est xe et t tend vers +? Quand t est xe
et n tend vers +? Interpretez les comportements trouves dans les deux cas.

You might also like