You are on page 1of 29

Statistique applique la gestion et au marketing

http://foucart.thierry.free.fr/StatPC

Chapitre 6

TESTS STATISTIQUES
Les tests statistiques sont des mthodes de la statistique infrentielle qui, comme lestimation, permettent danalyser des donnes obtenues par tirages au hasard. Ils consistent gnraliser les proprits constates sur des observations la population do ces dernires sont extraites, et rpondre des questions concernant par exemple la nature dune loi de probabilit, la valeur dun paramtre ou lindpendance de deux variables alatoires. Nous retrouverons dans certains cas la dmarche utilise en estimation.

1. GNRALITS SUR LES TESTS STATISTIQUES.

1.1 Notion de test statistique.


Pour introduire intuitivement la dmarche gnrale, nous allons considrer le cas dun tribunal examinant la culpabilit dun prvenu : ce tribunal doit tablir cette culpabilit et, si elle est avre, infliger une peine au coupable1.

Ce paralllisme entre la dcision dun tribunal et les tests statistiques nest pas fortuit. Cest en tudiant ce genre de problme que Condorcet, pendant la Rvolution Franaise, a dtermin le nombre de membres dun jury et la rgle de dcision (unanimit, majorit simple, majorit des deux tiers ) afin de minimiser les erreurs judiciaires. Il ne croyait vraisemblablement pas la faon dont ses rsultats taient appliqus pendant la Terreur puisque aprs avoir t arrt, il se suicida avant dtre jug.

Chapitre 6

page 2

Tests statistiques

On sait que le prvenu bnficie dun a priori favorable : il est prsum innocent, et la preuve de sa culpabilit est en principe la charge de laccusation. La dmarche, dans un test statistique, est strictement analogue : on suppose que la variable alatoire tudie possde une proprit particulire, appele hypothse nulle (cest la prsomption dinnocence), et pour remettre en cause cette proprit, il faut apporter la preuve quelle est fausse (cest la preuve de la culpabilit). Cest lenqute policire qui montre la culpabilit de laccus : par exemple, la prsence dune grosse somme dargent inexplique sur un compte en banque peut tre considre comme la preuve dune escroquerie. De mme cest lenqute statistique qui montre que la v.a. ne possde pas la proprit suppose vraie et que lhypothse nulle est fausse. Cette enqute est fonde sur lanalyse des observations de la v.a. : suivant les rsultats de cette analyse, lhypothse nulle est considre comme vraisemblable (linnocence dans le cas de l'enqute policire) ou presque impossible et rejete : on accepte alors une autre hypothse, appele hypothse alternative (la culpabilit).

Dfinition : on appelle test statistique une dmarche de la statistique infrentielle consistant : contrler la validit dune hypothse considre comme vraie a priori, appele hypothse nulle et note H0 ; admettre une hypothse diffrente lorsque le contrle se rvle ngatif, appele hypothse alternative et note H1. Il existe donc deux faons de se tromper. La premire consiste accepter lhypothse nulle alors quelle est fausse : cela revient acquitter un coupable faute de preuve. La seconde est le rejet de lhypothse nulle alors quelle est vraie : on condamne quelquun dinnocent.

Dfinition : on appelle : erreur de premire espce, lerreur consistant rejeter lhypothse nulle alors quelle est vraie ; erreur de seconde espce, lerreur consistant accepter lhypothse nulle alors quelle est fausse.

Chapitre 6

page 3

Tests statistiques

Comment procde un tribunal ? La signification de lexpression erreur judiciaire , dont linculp est toujours la victime, montre bien quen pratique, on cherche limiter le risque de condamner un innocent (du moins, on peut le souhaiter). De mme, en statistique, on limite le risque de rejeter lhypothse nulle alors quelle est vraie. Il est bien clair quen limitant ce risque, on augmente lautre : plus on acquitte facilement les accuss, moins on condamne dinnocents, mais plus on acquitte de coupables. La relation nest pas fonctionnelle ; nous y revenons en fin de chapitre.

Dfinition : on appelle : risque de premire espce la probabilit de rejeter lhypothse nulle alors quelle est vraie (erreur de premire espce). On le note . risque de seconde espce la probabilit daccepter lhypothse nulle alors quelle est fausse (erreur de seconde espce). On le note . Hypothse vraie H0 H1 Erreur de 2ime espce H0 pas derreur Hypothse Risque accepte Erreur de 1re espce H1 pas derreur Risque Tableau 1.6 : erreurs et risques suivant la dcision.

1.2 Rgle de dcision.


Aprs avoir dfini les hypothses, ou simplement lhypothse nulle, la dmarche consiste tudier les rsultats dune enqute alatoire : si ces rsultats paraissent en contradiction avec lhypothse nulle, cette dernire sera considre comme fausse. Sinon, on continuera la supposer vraie : cest un raisonnement par labsurde . Les rsultats de lenqute sont en gnral rsums par un nombre calcul sur les observations et appel statistique.

Dfinition : dans un test statistique, la variable alatoire que lon utilise pour contrler

Chapitre 6

page 4

Tests statistiques

lhypothse nulle est appele elle-mme statistique.

Lhypothse nulle sera remise en cause si cette statistique possde une proprit quelle ne devrait pas avoir : on retrouve lanalogie avec le solde dun compte bancaire : sil est anormalement lev, cest une forte prsomption de culpabilit.

Un exemple intuitif : Hypothse nulle H0 : Dominique est une femme Hypothse alternative H1 : Dominique est un homme Statistique : pointure 1) Observation : Dominique chausse du 43. Dcision : Peu de femmes chaussant du 43, on peut considrer que lobservation est en contradiction avec H0. Donc Dominique nest pas une femme (rejet de H0) , cest un homme (acceptation de H1). 2) Observation : Dominique chausse du 40. Dcision : La pointure 40 est frquente chez les femmes. On peut considrer que lobservation nest pas contradictoire avec H0. Donc Dominique peut tre une femme (acceptation de H0 et rejet de H1). 3) Discussion : la dcision statistique prise lissue du test est discutable. Plusieurs hypothses ont t mises implicitement : il ny a que des hommes et des femmes passant sur la plage, pas denfant. il y a autant dhommes que de femmes.

Un raisonnement htif peut donc conduire une dcision errone (cf. exercice 5 du chapitre 4). Cette discussion caractrise la problmatique de la statistique bayesienne.

Dfinition : on appelle rgion critique dun test statistique lensemble des valeurs observes de la statistique provoquant le rejet de lhypothse nulle.

Dans la pratique, cest le risque de premire espce qui prcise les bornes de la rgion critique. Exemple : supposons que Dominique chausse du 41 ou plus. La proportion de femmes chaussant du 41 ou plus tant infrieure 5%, on rejette lhypothse nulle. Mais on ne peut

Chapitre 6

page 5

Tests statistiques

pas tre totalement sr que Dominique nest pas une femme, puisque cest le cas de 2% environ des femmes. Dans 2% des cas, on va donc commettre lerreur consistant rejeter lhypothse nulle alors quelle est vraie. Cest cette faible proportion qui est le risque de premire espce, et que lon cherche limiter. Comment donc choisir ce risque ? Le risque est en quelque sorte la faiblesse de la preuve : plus le risque est grand, plus la preuve est faible et inversement. On choisira un risque dautant plus faible, cest--dire une preuve dautant plus forte, que lhypothse alternative est moins vraisemblable. La dmarche scientifique gnrale est dailleurs claire : une exprience physique ou chimique est dautant plus rpte, vrifie et contrle, cest-dire quon choisit un risque dautant plus faible - une preuve dautant plus forte, que cette exprience remet en cause une thorie jusque-l considre comme satisfaisante. Le choix de ce risque est quivalent celui du niveau de confiance dans lestimation par intervalle de confiance (chapitre 5). Il y a des valeurs classiques : Risque de premire espce hypothse alternative 0.001 (0.1%) quasiment impossible 0.01 (1%) trs peu vraisemblable 0.05 (5%) peu vraisemblable 0.1 (10%) possible Tableau 2.6 : choix du risque de premire espce.

1.3 Tests lmentaires.


Les tests sur le coefficient dasymtrie et daplatissement sont trs simples et fournissent de bons exemples dapplication immdiate. On dfinit les hypothses suivantes : hypothse nulle H0 : la loi de la v.a. est la loi normale. hypothse alternative H1 : la loi de X nest pas la loi normale.

Si lhypothse nulle est vraie, les valeurs thoriques des coefficients dasymtrie et daplatissement sont as = 0 et ap = 3. On tudie un chantillon (Xi) i=1, , n, de la v.a. X. Les coefficients dasymtrie cas et daplatissement cap de lchantillon observ devraient tre proches de 0 et de 3 si la loi est normale : ce sont les statistiques du test.

Chapitre 6

page 6

Tests statistiques

Un coefficient dasymtrie cas trs diffrent de 0 est donc en contradiction avec la loi normale. Pour dcider sil est trs diffrent de 0, on choisit un risque de premire espce , et on en dduit la rgion critique laide dune table statistique. Cette table donne, pour n = 50 observations et = 0.05 : 0.534. Cela signifie que la probabilit de lvnement {cas < -0.534}{cas > 0.534} est gale 0.05 si la loi est normale. La rgion critique est : RC = ] - , -0.534 [ ] 0.534,+ [ De la mme faon, un coefficient daplatissement trs diffrent de 3 est en contradiction avec lhypothse de la loi normale. Ce coefficient ntant pas rparti symtriquement, la table donne deux valeurs. Pour n = 50 et = 0.05, la rgion critique est : RC = ] 0, 2.15 [ ] 3.99, + [ La dcision est donc la suivante : on considre que la loi de la v.a. X nest pas la loi normale si lun des coefficients observs appartient la rgion critique correspondante2.

Exemple : les coefficients dasymtrie et daplatissement des variables des donnes Euromarket sont les suivants : ge revenu achats enfants coefficient dasymtrie 1.108 1.590 1.160 -0.070 coefficient daplatissement 4.496 5.064 3.859 2.418

Dans ces donnes constitues des 50 clients dEuromarket, seule la variable nombre denfants peut tre considre comme normale avec un risque de premire espce de 5%. Cest une variable discrte. Cette proprit signifie ici que la v.a. X dont la densit par intervalle dfinie par : di = fi dans lintervalle ] i 0.5, i + 0.5 [ i N

Si lon tient compte de deux coefficients la fois, le risque de premire espce est modifi. Il faudrait

en toute rigueur choisir a priori un des coefficients suivant la nature de la loi de probabilit suppose vraie sous lhypothse alternative (cf. exercice 2).

Chapitre 6

page 7

Tests statistiques

fi tant la proportion observe de familles de i enfants, est approximativement une v.a. suivant la loi normale de mme moyenne et de mme variance que la variable nombre denfants.

Figure 1.6 : diagramme du nombre denfants et densit de la loi normale

2. TEST DAJUSTEMENT DU DE PEARSON. 2.1 Cas dune variable discrte.


On considre le cas dun d 6 faces. Les hypothses concernent la loi de probabilit de la face obtenue en lanant le d. Hypothse nulle H0 : cette loi est la loi uniforme discrte sur {1, , 6} (le d est parfaitement quilibr). Hypothse alternative : ce nest pas la loi uniforme discrte sur {1, , 6} (les faces nont pas toutes la mme probabilit, et le d est mal quilibr).

Lexprience consiste lancer le d n fois (100, 200 ou 1000 fois par exemple). On compare ensuite les proportions fi (i = 1, , 6) observes aux probabilits thoriques pi (i = 1, , 6) de chaque face du d. Elle est gnralisable toutes les v.a. discrtes ou qualitatives : Lhypothse nulle est dfinie par la loi de probabilit suppose vraie, dont la

densit est dfinie par la suite (pi), i = 1, , k (chapitre IV, paragraphe 2.3).

Chapitre 6

page 8

Tests statistiques

Lhypothse alternative est que la loi de probabilit nest pas gale la

prcdente, sans plus de prcision. Pour contrler lhypothse nulle, on compare les proportions ni/n observes sur un chantillon de taille n aux probabilits thoriques pi.. Exemple : on donne le nombre de faces obtenues en lanant le d 100 fois : i=1 i=2 i=3 i=4 i=5 i=6 16 15 18 14 19 18 Si le d est parfaitement quilibr, on devrait obtenir des proportions fi = ni/n de lordre de 1/6 = 0.1667. Il est vident que cette proportion de 1/6 ne sera jamais obtenue exactement, et que lcart peut provenir du hasard ou dun mauvais quilibrage du d.

On doit donc mesurer lcart entre les proportions ni/n obtenues et les probabilits pi, par une statistique, et donner une rgle, appele rgle de dcision, permettant de considrer ou non que lcart est d au hasard. Dfinition : on appelle X2 la statistique choisie pour comparer les proportions observes aux probabilits thoriques : k k 2 X = n (ni/n pi) / pi = (ni n pi)2 /n pi i=1 i=1
2

Reprenons lexemple du d : sil est bien quilibr, les proportions ni/n convergent vers les probabilits pi = 1/6, et la valeur prise par la v.a. X2 est faible. Inversement, si la valeur prise par X2 est leve, on peut penser que le d nest pas bien quilibr puisque les proportions sont diffrentes de 1/6.

Chapitre 6

page 9

Tests statistiques

Le raisonnement est exactement identique dans le cas gnral, et nous allons dterminer une valeur x2 indiquant la limite partir de laquelle nous considrons que la valeur de X2 est trop leve pour que lhypothse nulle soit vraie. Pour dterminer cette valeur x2, on utilise le risque de premire espce , qui est la probabilit de rejeter lhypothse nulle alors quelle est vraie (considrer le d pip alors quil est bien quilibr). La valeur x2 est donc telle que : P(X2>x2) = Cette valeur dpend bien entendu de la loi de probabilit de la v.a. X2 : cette loi est approximativement la loi du 2 dfinie dans le chapitre 4.

Thorme : si les termes n x pi sont tous suprieurs ou gaux 5, la loi de probabilit de la v.a. X2 est approximativement la loi du 2 de degr de libert = k l 1, o k est le nombre de valeurs possibles des observations et l le nombre de paramtres calculs laide des donnes.

Lorsque la condition de convergence n

pi > 5 nest pas toujours satisfaite, il faut

regrouper les valeurs qui ne la vrifient pas avec dautres, en cumulant les probabilits correspondantes. Consquence : la valeur x2 telle que la proportion des valeurs de X2 suprieures x2 soit gale est donne dans la table statistique de la loi du 2. Dfinition : la rgion critique du test dajustement du 2 est lintervalle : RC = [x2, + [ dans lequel x2 est dtermin de faon que P(X2>x2) = .

Exemple numrique : dans le cas du d, le degr de libert est gal = 5, et, pour

= 0.05, la table statistique donne x2 = 11.07. Un d bien quilibr donnera donc rarement
(dans 5% des cas) une valeur x2 de X2 suprieure 11.07.

Chapitre 6

page 10

Tests statistiques

Figure 2.6 : densit de la loi du 2 ( = 5) et rgion critique ( = 5%) Les calculs sur le tableau prcdent sont les suivants : x2 = (16 100/6)2/(100/6) + (15 100/6)2/(100/6) + (18 100/6)2/(100/6) + (14 100/6)2/(100/6) + (19 100/6)2/(100/6) + (18 100/6)2/(100/6) x2 = 1.16 Tous les termes de la forme n x pi sont gaux 100 / 6 = 16.66 et donc suprieurs 5 : la condition de convergence est satisfaite. La valeur X2 obtenue 1.16 est infrieure 11.07 : on peut considrer que le d est bien quilibr. Plus exactement, les 100 lancers nont pas permis de montrer si le d est mal quilibr : laccus nest peut-tre pas coupable.

Dfinition: on appelle probabilit critique (en anglais p-value ) la probabilit que la valeur observe x2 de la statistique X2 soit dpasse.

Cette probabilit critique est laire de lensemble des points dabscisses suprieures la valeur observe x2 compris entre la courbe reprsentant la densit, laxe des abscisses. Lorsquelle est suprieure au risque de premire espce , cela signifie que x2 est suprieure la valeur observe x2, qui nappartient donc pas la rgion critique (figure 2.6). Dans le cas contraire, x2 appartient la rgion critique et on rejette lhypothse nulle. Exemple : le programme donne P(X2 > 1.16)= 0.94716. La probabilit critique est donc suprieure au risque de premire espce = 0.05. La table statistique nest pas indis-

Chapitre 6

page 11

Tests statistiques

pensable pour conclure puisque cela signifie que x2 est suprieur 1.16, comme on peut le voir sur la figure 2.6 : on accepte lhypothse nulle.

2.2 Cas dune variable continue.


Considrons maintenant le cas des v.a. continues : Lhypothse nulle est dfinie par une densit thorique de X ; Lhypothse alternative est une loi non prcise de X.

La procdure est la suivante : On dfinit des intervalles Ii, i = 1, , k, dont on calcule les probabilits thoriques

pi = P( XIi ). On rpartit les n observations de la v.a. X dans ces intervalles. On en dduit la densit observe gale la suite des proportions ni/n, o ni est le

nombre dobservations classes dans lintervalle Ii. On applique la procdure du paragraphe 2.1 pour comparer pi et ni/n.

Remarques : Les classes seront choisies toujours a priori, avant le calcul de X2, et de prfrence de probabilit gale.3 Le calcul des probabilits thoriques peut exiger pralablement lestimation de paramtres de la densit thorique. Deux densits diffrentes peuvent donner la mme densit par intervalle. Lhypothse nulle ne les distingue pas lune de lautre et le test donne la mme valeur de X2 et par suite , pour un mme degr de libert, la mme dcision.

Exemple : nous voulons savoir si lge est rparti suivant une loi normale dans la clientle de lhypermarch EUROMARKET. On choisit comme risque de premire espce

= 0.05.
La figure 3.6 permet de comparer la densit de la loi normale lhistogramme, mais ne donne pas dindications quantitatives et ne prend pas en compte le nombre dobservations.

Kendall et Stuart, The advanced theory of statictics, vol. 2, p. 431, 30.22 (Griffin, London, 1961).

Chapitre 6

page 12

Tests statistiques

Figure 3.6 : histogramme de lge (8 classes) et densit de la loi normale de mmes paramtres Nous effectuons ci-dessous lajustement en considrant la rpartition de lge des 50 clients dEUROMARKET en 8 classes de mme longueur. Classe [24.0, 29.5[ [29.5, 35.0[ [35.0, 40.5[ [40.5, 46.0[ [46.0, 51.5[ [51.5, 57.0[ [57.0, 62.5[ [62.5, 68.0[ Effectifs en % 12 16 34 20 8 2 4 4

1 2 3 4 5 6 7 8

Rpartition des 50 observations dans les huit classes Pour calculer les probabilits thoriques pi de chaque intervalle, il faut connatre les paramtres de la densit thorique, cest--dire la moyenne et lcart type dans le cas de la loi normale. Les valeurs calcules sur les donnes individuelles sont m = 40.06 et s = 9.341 : ce sont ces valeurs qui seront utilises pour calculer les probabilits thoriques. Une loi normale peut prendre des valeurs allant de - + . Il faut donc considrer comme premire classe ]- , 29.5[ et comme dernire classe [62.5, + [. On obtient :

page 13

Classes 1 [-, 29.5[ 2 [29.5, 35.0[ 3 [35.0, 40.5[ 4 [40.5, 46.0[ 5 [46.0, 51.5[ 6 [51.5, 57.0[ 7 [57.0, 62.5[ 8 [62.5, + [

probabilits 0.12914 0.16488 0.22477 0.21879 0.15208 0.07547 0.02673 0.00815

condition 6.46 8.24 11.24 10.94 7.60 3.77 * 1.34 * 0.41 *

Classes avant regroupement Ltoile * indique que dans les classes 6, 7 et 8 la condition de convergence n x pi 5 nest pas vrifie. On doit donc runir ces classes de faon vrifier cette condition : Classe probabilits condition proportions 1 0.12914 6.46 0.12 [-, 29.5[ 2 [29.5, 35.0[ 0.16488 8.24 0.16 3 [35.0, 40.5[ 0.22477 11.24 0.34 4 [40.5, 46.0[ 0.21879 10.94 0.20 5 [46.0, 51.5[ 0.15208 7.60 0.08 6 = 6+7+8 [51.5, + [ 0.11035 5.52 0.10 Classes aprs regroupement Les probabilits des classes tant proches les unes des autres, la rpartition parat satisfaisante. Le nombre de paramtres estims est gal 2 (moyenne et cart-type). Le degr de libert est donc fix =6 2- 1 = 3. On en dduit la rgion critique ( = 0.05) : RC = [7.815, + [ Le calcul de X2 donne : x2 = 50 x [(0.12 0.12914)2 + (0.16 0.16488)2 + (0.34 0.22477)2 + (0.20 0.21879)2 + (0.08 0.15208)2 + (0.10 0.11035)2 ] Soit : x2 = 4.8305 La valeur observe x2 de X2 nappartient pas la rgion critique RC. On accepte donc lhypothse que lge est rparti dans la clientle totale suivant une loi normale. Cela signifie plus prcisment que les observations effectues ne remettent pas en cause cette hypothse. La probabilit critique de la valeur observe est suprieure au risque choisi : P(X2> 4.8305 )= 0.18289 > 0.05 La dcision est videmment la mme.

page 14

3. TEST DINDPENDANCE DU DE PEARSON.


Le test dindpendance du 2 de Pearson permet dtudier la liaison entre deux variables qualitatives X et Y que lon a observes sur des units statistiques que lon suppose tires au hasard au sein dune population. Ces variables alatoires se prsentent sous la forme de questions proposant k et l rponses possibles, une seule tant choisie. Nous avons tudi dans le chapitre 4 la loi de probabilit du couple (X, Y). Nous en reprenons les notations.

3.1 Tableau des effectifs thoriques.


La dmarche est la suivante : Lhypothse nulle est dfinie par lindpendance des deux v.a. X et Y ; Lhypothse alternative nest pas prcise ;

Lexprience consiste tirer au hasard un chantillon dunits statistiques et en comparer la rpartition la rpartition thorique dduite de lindpendance suppose des variables.

Dfinition : on appelle rpartition thorique des units statistiques dun chantillon suivant deux critres la rpartition que lon aurait si ces deux critres taient indpendants.

La procdure consiste comparer ces rpartitions : si la rpartition thorique et la rpartition observe sont voisines lune de lautre,

on peut considrer que la rpartition observe ne remet pas en cause lindpendance des v.a. X et Y considres. si les deux rpartitions prsentent de grandes diffrences, cest que

lindpendance des deux v.a. X et Y tudies est contestable.

Le calcul de la rpartition thorique dcoule de lhypothse dindpendance : les rponses donnes chaque question X ou Y sont rparties thoriquement de la mme faon quelle que soit la rponse donne la seconde. Leffectif thorique ni,j est donn par la formule :

page 15

ni,j = n pi. p.j = ni. n.j / n dans laquelle les termes ni., n.j sont les effectifs marginaux calculs sur le tableau de donnes et pi. et p.j les proportions marginales. Exemple : nous tudions le tableau donnant la rpartition de 200 tudiants suivant le sexe et la couleur des cheveux, en supposant quils ont t tirs au hasard dans lensemble des tudiants de luniversit. Le tableau est le suivant : Cheveux blonds (j = 1) 25 62 n.1 = 87 Cheveux bruns (j = 2) 51 31 n.2 =82 Autre couleur (j = 3) 17 14 n.3 = 31 Effectifs marginaux n1. = 93 n2. = 107 200

Masculin ( i = 1) Fminin ( i = 2) Effectifs marginaux

Sil y a indpendance entre le sexe et la couleur des cheveux, la rpartition thorique des tudiants est la suivante : Masculin fminin Cheveux blonds 40.46 46.54 Cheveux bruns 38.13 43.87 Autre couleur 14.42 16.58

Par exemple, leffectif thorique dtudiantes au cheveux blonds est 107 x 87 / 200 = 46.54.

3.2 Test dindpendance du de Pearson.


Pour comparer les effectifs thoriques et les effectifs observs, on utilise la mme statistique que dans le cas du test dajustement. Dfinition : la statistique X2 utilise pour comparer les rpartitions thoriques et observes est dfinie par : X2 = p q 2 (ni,j - ni,j) / ni,j i=1 j=1

Lhypothse dindpendance est contestable lorsque les effectifs observs ni,j sont trs diffrents des effectifs thoriques ni,j, donc lorsque X prend de grandes valeurs. Il reste dcider partir de quelle valeur X peut tre considr comme grand. Pour cela, on utilise la loi de X2 sous lhypothse dindpendance qui est la loi du 2 de degr de libert : = (p - 1) ( q - 1 )

page 16

Ce degr de libert est calcul comme le prcdent, par la formule = k l 1 : le nombre de valeurs possibles est k = p x q les paramtres estims sont les lois de probabilits marginales : p 1 termes pour la loi de X, q 1 pour la loi de Y puisque la somme des probabilits marginales est gale 1. On a donc l = (p 1) + (q 1) Le degr de libert est gal : p x q (p 1) (q 1) - 1 = (p - 1) ( q - 1 )

Dfinition : la rgion critique du test dindpendance du 2 est lintervalle [ , + [, tant le nombre auquel une proportion de X est suprieure si lhypothse dindpendance est vraie.

Les observations remettent donc en cause lhypothse dindpendance si X prend une valeur suprieure x ; on rejette alors lhypothse dindpendance. Supposons maintenant que nous ayons rejet lhypothse dindpendance. Pour expliquer la liaison entre les variables, on examine lobservation x de la statistique X2, et lon recherche, parmi les termes dont il est la somme, ceux qui sont les plus grands : les indices i et j correspondants indiquent les modalits des questions X et Y dont les effectifs thoriques et observs sont les plus diffrents. Ce sont ces modalits qui provoquent la liaison entre les deux riables.

Exemple : chaque terme du tableau ci-dessous indique la valeur du terme correspondant dans la somme donnant le X appel parfois contribution au x : 5.907 = (25-40.46) / 40.46 4.344 = (51-38.13) /38.13 0.462 = (17-14.42)/14.42 5.136 = (62-46.54)/46.54 3.776 = (31-43.87)/43.87 0.401 = (14-16.58)/16.58

La valeur x2 de X est la somme des termes du tableau. On obtient : x2 = 20.02 Une liaison entre la couleur des cheveux et le sexe ntant pas du tout invraisemblable, nous choisissons un risque raisonnable gal 5%.

page 17

Figure 4.6 : densit de la loi du 2 ( = 2) Le degr de libert est gal (2-1) x (3-1), soit 2, et la rgion critique est dfinie par [5.991, + [ (on notera la diffrence entre les densits du 2 de degr de libert 2 et 5, cf. figure 2.6 et 4.6). La valeur x2 de X appartient la rgion critique. On rejette donc lhypothse dindpendance. Les valeurs les plus grandes du tableau indiquent que la liaison est due la couleur brune ou blonde et le sexe des tudiants. La modalit autre couleur nintervient pas.

4. TEST SUR LE COEFFICIENT DE CORRLATION LINAIRE.


Nous avons constat chez les 50 clients du supermarch une relation entre lge et le revenu. La question que lon se pose maintenant est de savoir si cette relation existe sur lensemble des clients, ou si elle nest due quaux tirages au hasard que lon a effectus. Les donnes sont ici quantitatives, et la liaison entre les deux variables est mesure par le coefficient de corrlation linaire.

4.1 Hypothses et erreurs.


La procdure consiste dabord vrifier que lchantillon observ vrifie les proprits prsentes dans le chapitre 4 : thoriquement, le couple (ge, revenu) doit suivre la loi binormale pour que le test sur le coefficient de corrlation soit valide. Lquivalence entre la nullit du coefficient de corrlation et lindpendance nest assure en effet que sous cette condition.

page 18

On se limite en pratique vrifier que les rpartitions de lge et du revenu ne sont pas trop diffrentes de la loi normale, par un test dajustement du 2 ou ltude des coefficients dasymtrie et daplatissement que nous avons explique dans le paragraphe 1.3. Dans le cas contraire, il est possible de transformer les donnes, en passant par exemple aux logarithmes. On suppose a priori quil nexiste pas de liaison entre les sries : les variables sont supposes indpendantes . Le coefficient de corrlation exact et inconnu, que lon appelle coefficient de corrlation thorique (not ), est alors nul. Nous choisissons comme hypothse alternative que le coefficient de corrlation thorique est diffrent de 0 (on pourrait choisir strictement positif, ou strictement ngatif). Hypothse nulle H0 : = 0. Hypothse alternative H1 : 0.

Une valeur approche du coefficient de corrlation thorique est donne par la valeur observe r de son estimateur empirique. La dmarche consistant dfinir cet estimateur est strictement la mme que celle qui a abouti la dfinition des estimateurs empiriques de la moyenne et de la variance. Dfinition : lestimateur empirique du coefficient de corrlation thorique est la v.a. note R dont la valeur observe sur un chantillon de couples est le coefficient de corrlation observ r.

Le coefficient de corrlation observ na videmment na aucune raison dtre exactement gal 0 mme si lindpendance des v.a. est vraie. Deux cas peuvent se produire : le coefficient de corrlation r est proche de 0. Les donnes ne contredisent pas lhypothse dindpendance : on accepte lhypothse dindpendance. le coefficient de corrlation r est trs diffrent de 0. Il est alors peu vraisemblable que la valeur thorique soit nulle : on rejette lhypothse dindpendance.

4.2 Rgion critique.


Les statisticiens utilisent pour des raisons mathmatiques et historiques une v.a. note F dduite de lestimateur empirique R du coefficient de corrlation par la formule suivante :

page 19

R2 F= (n-2)
___________

(1 R2) La loi thorique de la v.a. F est la loi de Fisher Snedecor que nous avons dfinie dans le chapitre 4, et qui dpend de deux degrs de libert, ici 1 = 1, 2 = n - 2. Les valeurs utiles sont donnes dans la table statistique appele table du F. Pour n = 50, on trouve 2 = 48 et on trouve dans la table f = 4.04. Un calcul simple donne la valeur du coefficient de corrlation correspondant : 2 On trouve : 2 = 0.078 frquemment par les programmes. = 0.28. = f (n 2) + f

La dcision peut tre aussi prise en fonction de la probabilit critique donne

Exemple : on sait que la liaison entre lge et le revenu ne vrifie pas les proprits ncessaires pour que lon puisse effectuer un test de Fisher sur le coefficient de corrlation : la liaison nest pas linaire et la rpartition du revenu ne ressemble pas la loi normale (cf. figure 2 du chapitre 3). Nous allons limiter notre tude aux clients en activit, et liminer des donnes les clients retraits 25, 31 et 43 : il reste 47 units statistiques. En ce qui concerne les revenus, nous en considrons ici les logarithmes de faon obtenir une distribution un peu plus symtrique. Nous admettrons la normalit des lois de probabilit aprs llimination de ces trois u.s.. Lhypothse nulle considre est la nullit du coefficient de corrlation thorique entre lge et le revenu. On choisit donc un risque de premire espce gal 0.05. On en dduit la rgion critique sur la statistique F : RC = [4.05, + [. Le coefficient de corrlation entre lge et le logarithme des revenus calcul sur les 47 observations est gal r = 0.6846, ce qui donne r2 = 0.469 et f = 39.746. On constate videmment que f appartient cette rgion critique. La liaison entre lge et le revenu constate sur lchantillon observ ne peut donc pas tre due au hasard : elle

page 20

existe trs vraisemblablement dans lensemble des clients de lhypermarch et on peut considrer que est diffrent de 0.

5. TESTS SUR LA MOYENNE ET LA VARIANCE.


Nous supposerons comme dans le chapitre prcdent que les observations sont rparties rgulirement et symtriquement par rapport leur moyenne, plus prcisment quelles obissent la loi normale.

5.1 Tests sur la moyenne.


Le premier test que nous tudions consiste dcider entre les hypothses suivantes : H0 : = 0 de la moyenne thorique la valeur spcifie 0 ? Nous avons dj rpondu cette question dans le chapitre prcdent : lestimation par intervalle de confiance donne lensemble des valeurs possibles de la moyenne thorique compte tenu des observations effectues et du niveau de confiance choisi. Rgle de dcision : pour un risque de premire espce , On accepte lhypothse nulle si la valeur 0 appartient lintervalle de confiance de niveau de confiance 1 - ; On rejette lhypothse nulle sinon. H1 : 0

La question pose est la suivante : les observations remettent-elles en cause lgalit

Exemple : lobjectif fix par les responsables nationaux de lenseigne Euromarket est un montant moyen des achats gal 420F. Le directeur commercial sinquite du montant moyen observ (316.95F) dans son hypermarch et veut donc vrifier si cette valeur montre effectivement une diffrence. Pour un niveau de confiance de 95%, lintervalle de confiance est le suivant : [ 257.173, 376.717 ] On rejette donc lhypothse nulle avec un risque de premire espce de 5% et le montant moyen des achats des clients dEUROMARKET peut tre considr comme nettement infrieur la valeur fixe 420F. Lobjectif nest pas atteint.

page 21

Une autre faon (quivalente) deffectuer le test est de dterminer la rgion critique. On sait que, si lhypothse nulle est vraie, la v.a. T ci-dessous suit la loi de Student de degr de libert n-1 (cf. chapitre 5): T = M 0 __________ S/(n-1) Lorsque la v.a. T prend une trs grande valeur, la moyenne est vraisemblablement diffrente de 0 : on rejette lhypothse dindpendance. La rgion critique est donc de la forme : ]-, 0 - t s/(n - 1)1/2[ ] 0 + t s/(n - 1) 1/2 , + [ les bornes de la rgion critique t tant dfinies par la relation : P(T> t ] = Le calcul prcdent demande que lon connaisse la valeur vraie de la moyenne, ce qui nest pas toujours le cas. Par exemple, la moyenne des achats dun autre hypermarch (410F) peut tre connue elle aussi par sondage auprs dune partie de la clientle : le test prcdent nest pas applicable pour comparer ces deux moyennes. On considre maintenant deux v.a. X1 et X2, observes sur deux chantillons de taille n1 et n2. Les hypothses sont alors les suivantes, en notant 1 et 2 les moyennes thoriques des achats : H0 : 1 = 2 moyennes 1 et 2 . Le calcul est plus compliqu. On note M1 et S12 les estimateurs empiriques de la moyenne et la variance dans le premier chantillon de taille n1, M2 et S22 dans le second chantillon de taille n2. Le problme est de comparer M1 et M2. On calcule pour cela la valeur u de la statistique U : M1 - M2 U = [S12/(n1-1) + S22/(n2-1)]1/2 Une grande valeur absolue de la v.a. U signifie videmment que M1 et M2 ont pris des valeurs trs diffrentes : on rejettera lhypothse H0 dgalit si la valeur absolue uest trop H1 : 1 2

Le test consiste dterminer si les observations remettent en cause lgalit des

page 22

grande pour que lgalit des moyennes soit vraisemblable. Lorsque les moyennes thoriques sont gales et que la taille des chantillons est suffisante, on peut considrer que U suit approximativement la loi normale centre rduite. On en dduit la valeur u en fonction du risque de premire espce choisi , de faon que : P(U> u ) = Dfinition : la rgion critique de la statistique U du test de comparaison de moyennes est de la forme : RC = ] - , -u] U [u, + [ u tant calcul de faon que : P(U> u ) = la v.a. U suivant la loi normale centre rduite.

Exemple : la moyenne des achats de lautre hypermarch (410F) a t calcule sur 100 clients. La variance des achats calcule sur ces 100 clients est gale 35401.01. On en dduit : 316.95 410 T =
__________________________________________

= 2.65

[ 42902.47 / 49 + 35401.01 / 99 ]

1/2

Pour un risque de premire espce = 0.05, on a u = 1.96. La valeur observe t appartient la rgion critique ( t > 1.96) et on rejette donc lhypothse nulle : la diffrence entre les deux moyennes nest vraisemblablement pas due uniquement au hasard. Rptons que lutilisation de ce test est justifie lorsque les variables suivent la loi normale et que leurs variances thoriques peuvent tre considres comme gales (cf. cidessous). Cette dernire condition doit tre vrifie surtout lorsque les chantillons sont de faibles effectifs.

page 23

5.2 Tests sur la variance.


Le test dgalit de la variance dune population une valeur spcifie est lui aussi quivalent lestimation par intervalle de confiance. Il consiste dcider entre les hypothses suivantes : H0 : 2 = 02 H1 : 2 02

La question pose est la suivante : les observations remettent-elles en cause lgalit de la variance thorique 2 la valeur spcifie 02 ? Rgle de dcision : pour un risque de premire espce , On accepte lhypothse nulle si la valeur 02 appartient lintervalle de confiance de niveau de confiance 1 - ; On rejette lhypothse nulle sinon.

tablissons la rgion critique du test. On rejette lhypothse nulle lorsque la valeur observe de la variance empirique S2 est trs diffrente de la valeur 02, donc lorsque la v.a. X2 = n S2/02 prend une valeur anormalement petite (infrieure 2) ou anormalement grande (suprieure 12). Les bornes de la rgion critique 2 et 12 sont dfinies par la relation : P(X2 < 2 ) = /2 P(X2 > 12 ) = /2 la statistique X2 suivant la loi du 2 de degr de libert n-1. La rgion critique est donc de la forme : RC = [0, 2] [12, + [

Exemple : nous supposons que la loi de probabilit de la v.a. ge est la loi normale (en liminant les trois clients retraits) et testons lhypothse H0 : 2 =02 = 50. La valeur observe sur les 47 clients est s2 = 47.86. On en dduit : X2 = 47 x 47.86 / 50 = 44.99 Nous choisissons comme risque de premire espce = 0.05. La table donne directement pour le degr de libert = 46 :

page 24

2 = 29.160

tel que P(X2<2 ) =0.025

12 = 66.617 tel que P(X2>12 ) =0.025


La rgion critique est : RC = [0, 29.160 ] [66.617, + [. La valeur observe nappartient pas la rgion critique et on accepte lhypothse nulle. En dterminant lensemble des valeurs 2 telles que lon accepte lhypothse nulle, on retrouvera lintervalle de confiance dtermin dans le chapitre 5. On pourra examiner aussi la figure 11 du chapitre 5.

De la mme faon que nous avons compar deux moyennes entre elles, nous allons comparer deux variances. On considre maintenant deux v.a. X1 et X2, observes sur deux chantillons de taille n1 et n2. On suppose que ces deux v.a. suivent la loi normale et sont indpendantes. Il sagit de comparer leurs variances 12 et 22. S12 et S22 tant les estimateurs empiriques des variances 12 et 22, on sait que les v.a. n1 S12 / 12 et n2 S22/22 suivent une loi du 2 de degr de libert n1-1 et n2-1. Les mathmatiques nous donnent la loi du rapport :

Thorme : la loi de la v.a. F ci-dessous est la loi de Fisher de degrs de libert n1-1 et n2-1. F = n2 - 1 _____________ x _______ n2 S22 / 22 n1 - 1 n1 S12 / 12

Considrons maintenant les hypothses suivantes : H0 : 12= 22 = 2 Si lhypothse nulle est vraie, on a : F = n1 S12 n2 1 _________ x ________ n2 S22 n1 - 1 = n1 S12 _________ n1 - 1 / n2 S22 ________ n2 1 H1 : 12 22

et F devrait tre proche de 1 puisque le numrateur et le dnominateur du rapport ci-dessus sont des estimateurs sans biais de la mme variance 2. Si la v. a. F prend une trs grande valeur ou est trs proche de 0, on rejette lhypothse nulle. La rgion critique est de la forme :

page 25

RC = ]0, f[ ] f1-, + [ les bornes f et f1- tant choisies dans la table de Ficher Snedecor de faon que : P(F< f) = /2 P(F> f1-) = /2

Exemple : Pour contrler lgalit des moyennes des achats des deux hypermarchs, nous avons suppos que les variances thoriques taient gales. Nous le vrifions ci-dessous, en supposant que les lois sont normales . Les variances observes des achats sont gale : s12 = 42902.47 (n1 = 50) On en dduit : 50 x 42902.47 / 49 f =
_______________________

s22 = 35401.01 (n2 = 100)

= 1.2243

100 x35401.01 / 99 Nous choisissons comme risque de premire espce = 0.02. Les degrs de libert sont 1 = 49 et 2 = 99.La table donne directement f1- = 1.73. Pour calculer fa, il faut considrer la v.a. 1/F , qui suit la loi de Fisher de degrs de libert 1 = 99 et 2 = 49. On a : P(1/F>1/fa) = 0.01 1/f = 1.82 f = 0.549 La rgion critique est donc : RC = ]0, 0.549 [ ] 1.73, + [. La valeur observe nappartient pas cette rgion critique et on accepte lhypothse dgalit des variances.

5.3 Introduction la fonction puissance.


Dfinition : on appelle puissance dun test la probabilit de rejeter lhypothse nulle quand elle est fausse.

La puissance est lie au risque de seconde espce de faon vidente : =1 puisque le risque de seconde espce est la probabilit daccepter lhypothse H0 quand elle est fausse. Dans les tests prsents prcdemment, lhypothse alternative nest pas prcise, et, par suite, on ne peut dterminer analytiquement la loi de probabilit de la v.a. considre en

page 26

supposant lhypothse alternative vraie. On ne peut donc pas valuer analytiquement la puissance. Le test sur la variance donne une occasion de prsenter simplement la notion de fonction puissance. Pour dfinir la puissance du test, nous allons modifier les hypothses et fixer une valeur 12 la variance dans le cas de lhypothse alternative. Les hypothses sont alors les suivantes : H0 : 2 = 02 H1 : 2 = 12

Nous allons pouvoir maintenant calculer la puissance du test, ou, ce qui est quivalent, le risque de seconde espce. On accepte lhypothse nulle lorsque la v.a. n S2/02 nappartient pas la rgion critique. Le risque est donc la probabilit de lvnement ci-dessous : n S2 = P ( 2 < < 12 ) 02 2 lorsque la variance de la v.a. X est gale 1 . Lorsque lhypothse alternative est vraie, on ne connat pas la loi de la v.a. n S2 / 02 : cest la v.a. n S2 / 12 qui suit la loi du 2 de degr de libert gal n 1. Nous avons : n S2 n S2 = 02 12 On en dduit le risque de seconde espce : = P ( 2 < n S2 02 < 12 )
x

12 02

= P

n S2 12 < < 02 12 n S2 12

12 )

2 02 = P ( < 12

12 02 < ) 12

On peut calculer cette probabilit lorsque lhypothse alternative est vraie puisque la loi de la v.a. n S2 / 12 est connue : cest la loi du 2 de degr de libert n 1. On en dduit videmment la puissance = 1 .

page 27

La puissance dpend de deux paramtres : la variance 12 choisie pour caractriser lhypothse alternative, et le risque de premire espce qui intervient dans la rgion critique. On suppose en gnral le second fix, et on dfinit la fonction puissance comme la fonction qui associe 12 la puissance du test. Il y a un point particulier : pour 12 = 02, la fonction puissance est la probabilit de rejeter lgalit 2 = 02 alors quelle est vraie puisque 12 = 02. On retrouve donc le risque de premire espce .

Exemple : nous donnons ci-dessous la fonction puissance du test sur la variance de lge. La valeur teste est fixe 2 = 50, le risque de premire espce 0.05, et le nombre dobservations est gal 47 (cf. exemple prcdent). Les valeurs sont donnes dans le tableau ci-dessous. La lecture de ce tableau donne le renseignement suivant : la probabilit de rejeter lhypothse 02 = 50 lorsque la vraie valeur est 33.333 est gale 0.432 pour un risque de premire espce gal 0.05.

Figure 5.6 : Fonction puissance (02 = 50, = 46, = 0.05) Rang variance vraie puissance Rang variance vraie puissance 1 20.0000 0.993 11 64.4444 0.263 2 24.4444 0.915 12 68.8889 0.379 3 28.8889 0.699 13 73.3333 0.497

page 28

4 5 6 7 8 9 10

33.3333 37.7778 42.2222 46.6667 51.1111 55.5556 60.0000

0.432 0.227 0.109 0.057 0.053 0.090 0.162

14 15 16 17 18 19

77.7778 82.2222 86.6667 91.1111 95.5556 100.0000

0.606 0.701 0.778 0.839 0.885 0.919

CONCLUSION
Les tests statistiques que nous avons prsents aboutissent une rgle de dcision qui mrite toujours dtre examine de faon critique. Nous navons prsent que les mthodes les plus simples, en tentant de montrer les difficults de raisonnement dues une absence de rflexion pralable sur la question pose. Une approche beaucoup plus gnrale des tests a t propose par Neyman et Pearson. Fonde sur la notion de vraisemblance et sur les proprits de la fonction puissance : elle sort du cadre de cet ouvrage, comme la statistique bayesienne laquelle nous avons fait allusion.

page 29

TABLE DES MATIRES 1. GNRALITS SUR LES TESTS STATISTIQUES............................................... 1 1.1 Notion de test statistique. ..................................................................................... 1 1.2 Rgle de dcision.................................................................................................. 3 1.3 Tests lmentaires. ............................................................................................... 5 2. TEST DAJUSTEMENT DU DE PEARSON....................................................... 7 2.1 Cas dune variable discrte................................................................................... 7 2.2 Cas dune variable continue. .............................................................................. 11 3. TEST DINDPENDANCE DU DE PEARSON................................................ 14 3.1 Tableau des effectifs thoriques. ........................................................................ 14 3.2 Test dindpendance du de Pearson. .............................................................. 15 4. TEST SUR LE COEFFICIENT DE CORRLATION LINAIRE. ....................... 17 4.1 Hypothses et erreurs. ........................................................................................ 17 4.2 Rgion critique. .................................................................................................. 18 5. TESTS SUR LA MOYENNE ET LA VARIANCE. ............................................... 20 5.1 Tests sur la moyenne. ......................................................................................... 20 5.2 Tests sur la variance. .......................................................................................... 23 5.3 Introduction la fonction puissance................................................................... 25 CONCLUSION ............................................................................................................ 28

You might also like