Professional Documents
Culture Documents
http://foucart.thierry.free.fr/StatPC
Chapitre 6
TESTS STATISTIQUES
Les tests statistiques sont des mthodes de la statistique infrentielle qui, comme lestimation, permettent danalyser des donnes obtenues par tirages au hasard. Ils consistent gnraliser les proprits constates sur des observations la population do ces dernires sont extraites, et rpondre des questions concernant par exemple la nature dune loi de probabilit, la valeur dun paramtre ou lindpendance de deux variables alatoires. Nous retrouverons dans certains cas la dmarche utilise en estimation.
Ce paralllisme entre la dcision dun tribunal et les tests statistiques nest pas fortuit. Cest en tudiant ce genre de problme que Condorcet, pendant la Rvolution Franaise, a dtermin le nombre de membres dun jury et la rgle de dcision (unanimit, majorit simple, majorit des deux tiers ) afin de minimiser les erreurs judiciaires. Il ne croyait vraisemblablement pas la faon dont ses rsultats taient appliqus pendant la Terreur puisque aprs avoir t arrt, il se suicida avant dtre jug.
Chapitre 6
page 2
Tests statistiques
On sait que le prvenu bnficie dun a priori favorable : il est prsum innocent, et la preuve de sa culpabilit est en principe la charge de laccusation. La dmarche, dans un test statistique, est strictement analogue : on suppose que la variable alatoire tudie possde une proprit particulire, appele hypothse nulle (cest la prsomption dinnocence), et pour remettre en cause cette proprit, il faut apporter la preuve quelle est fausse (cest la preuve de la culpabilit). Cest lenqute policire qui montre la culpabilit de laccus : par exemple, la prsence dune grosse somme dargent inexplique sur un compte en banque peut tre considre comme la preuve dune escroquerie. De mme cest lenqute statistique qui montre que la v.a. ne possde pas la proprit suppose vraie et que lhypothse nulle est fausse. Cette enqute est fonde sur lanalyse des observations de la v.a. : suivant les rsultats de cette analyse, lhypothse nulle est considre comme vraisemblable (linnocence dans le cas de l'enqute policire) ou presque impossible et rejete : on accepte alors une autre hypothse, appele hypothse alternative (la culpabilit).
Dfinition : on appelle test statistique une dmarche de la statistique infrentielle consistant : contrler la validit dune hypothse considre comme vraie a priori, appele hypothse nulle et note H0 ; admettre une hypothse diffrente lorsque le contrle se rvle ngatif, appele hypothse alternative et note H1. Il existe donc deux faons de se tromper. La premire consiste accepter lhypothse nulle alors quelle est fausse : cela revient acquitter un coupable faute de preuve. La seconde est le rejet de lhypothse nulle alors quelle est vraie : on condamne quelquun dinnocent.
Dfinition : on appelle : erreur de premire espce, lerreur consistant rejeter lhypothse nulle alors quelle est vraie ; erreur de seconde espce, lerreur consistant accepter lhypothse nulle alors quelle est fausse.
Chapitre 6
page 3
Tests statistiques
Comment procde un tribunal ? La signification de lexpression erreur judiciaire , dont linculp est toujours la victime, montre bien quen pratique, on cherche limiter le risque de condamner un innocent (du moins, on peut le souhaiter). De mme, en statistique, on limite le risque de rejeter lhypothse nulle alors quelle est vraie. Il est bien clair quen limitant ce risque, on augmente lautre : plus on acquitte facilement les accuss, moins on condamne dinnocents, mais plus on acquitte de coupables. La relation nest pas fonctionnelle ; nous y revenons en fin de chapitre.
Dfinition : on appelle : risque de premire espce la probabilit de rejeter lhypothse nulle alors quelle est vraie (erreur de premire espce). On le note . risque de seconde espce la probabilit daccepter lhypothse nulle alors quelle est fausse (erreur de seconde espce). On le note . Hypothse vraie H0 H1 Erreur de 2ime espce H0 pas derreur Hypothse Risque accepte Erreur de 1re espce H1 pas derreur Risque Tableau 1.6 : erreurs et risques suivant la dcision.
Dfinition : dans un test statistique, la variable alatoire que lon utilise pour contrler
Chapitre 6
page 4
Tests statistiques
Lhypothse nulle sera remise en cause si cette statistique possde une proprit quelle ne devrait pas avoir : on retrouve lanalogie avec le solde dun compte bancaire : sil est anormalement lev, cest une forte prsomption de culpabilit.
Un exemple intuitif : Hypothse nulle H0 : Dominique est une femme Hypothse alternative H1 : Dominique est un homme Statistique : pointure 1) Observation : Dominique chausse du 43. Dcision : Peu de femmes chaussant du 43, on peut considrer que lobservation est en contradiction avec H0. Donc Dominique nest pas une femme (rejet de H0) , cest un homme (acceptation de H1). 2) Observation : Dominique chausse du 40. Dcision : La pointure 40 est frquente chez les femmes. On peut considrer que lobservation nest pas contradictoire avec H0. Donc Dominique peut tre une femme (acceptation de H0 et rejet de H1). 3) Discussion : la dcision statistique prise lissue du test est discutable. Plusieurs hypothses ont t mises implicitement : il ny a que des hommes et des femmes passant sur la plage, pas denfant. il y a autant dhommes que de femmes.
Un raisonnement htif peut donc conduire une dcision errone (cf. exercice 5 du chapitre 4). Cette discussion caractrise la problmatique de la statistique bayesienne.
Dfinition : on appelle rgion critique dun test statistique lensemble des valeurs observes de la statistique provoquant le rejet de lhypothse nulle.
Dans la pratique, cest le risque de premire espce qui prcise les bornes de la rgion critique. Exemple : supposons que Dominique chausse du 41 ou plus. La proportion de femmes chaussant du 41 ou plus tant infrieure 5%, on rejette lhypothse nulle. Mais on ne peut
Chapitre 6
page 5
Tests statistiques
pas tre totalement sr que Dominique nest pas une femme, puisque cest le cas de 2% environ des femmes. Dans 2% des cas, on va donc commettre lerreur consistant rejeter lhypothse nulle alors quelle est vraie. Cest cette faible proportion qui est le risque de premire espce, et que lon cherche limiter. Comment donc choisir ce risque ? Le risque est en quelque sorte la faiblesse de la preuve : plus le risque est grand, plus la preuve est faible et inversement. On choisira un risque dautant plus faible, cest--dire une preuve dautant plus forte, que lhypothse alternative est moins vraisemblable. La dmarche scientifique gnrale est dailleurs claire : une exprience physique ou chimique est dautant plus rpte, vrifie et contrle, cest-dire quon choisit un risque dautant plus faible - une preuve dautant plus forte, que cette exprience remet en cause une thorie jusque-l considre comme satisfaisante. Le choix de ce risque est quivalent celui du niveau de confiance dans lestimation par intervalle de confiance (chapitre 5). Il y a des valeurs classiques : Risque de premire espce hypothse alternative 0.001 (0.1%) quasiment impossible 0.01 (1%) trs peu vraisemblable 0.05 (5%) peu vraisemblable 0.1 (10%) possible Tableau 2.6 : choix du risque de premire espce.
Si lhypothse nulle est vraie, les valeurs thoriques des coefficients dasymtrie et daplatissement sont as = 0 et ap = 3. On tudie un chantillon (Xi) i=1, , n, de la v.a. X. Les coefficients dasymtrie cas et daplatissement cap de lchantillon observ devraient tre proches de 0 et de 3 si la loi est normale : ce sont les statistiques du test.
Chapitre 6
page 6
Tests statistiques
Un coefficient dasymtrie cas trs diffrent de 0 est donc en contradiction avec la loi normale. Pour dcider sil est trs diffrent de 0, on choisit un risque de premire espce , et on en dduit la rgion critique laide dune table statistique. Cette table donne, pour n = 50 observations et = 0.05 : 0.534. Cela signifie que la probabilit de lvnement {cas < -0.534}{cas > 0.534} est gale 0.05 si la loi est normale. La rgion critique est : RC = ] - , -0.534 [ ] 0.534,+ [ De la mme faon, un coefficient daplatissement trs diffrent de 3 est en contradiction avec lhypothse de la loi normale. Ce coefficient ntant pas rparti symtriquement, la table donne deux valeurs. Pour n = 50 et = 0.05, la rgion critique est : RC = ] 0, 2.15 [ ] 3.99, + [ La dcision est donc la suivante : on considre que la loi de la v.a. X nest pas la loi normale si lun des coefficients observs appartient la rgion critique correspondante2.
Exemple : les coefficients dasymtrie et daplatissement des variables des donnes Euromarket sont les suivants : ge revenu achats enfants coefficient dasymtrie 1.108 1.590 1.160 -0.070 coefficient daplatissement 4.496 5.064 3.859 2.418
Dans ces donnes constitues des 50 clients dEuromarket, seule la variable nombre denfants peut tre considre comme normale avec un risque de premire espce de 5%. Cest une variable discrte. Cette proprit signifie ici que la v.a. X dont la densit par intervalle dfinie par : di = fi dans lintervalle ] i 0.5, i + 0.5 [ i N
Si lon tient compte de deux coefficients la fois, le risque de premire espce est modifi. Il faudrait
en toute rigueur choisir a priori un des coefficients suivant la nature de la loi de probabilit suppose vraie sous lhypothse alternative (cf. exercice 2).
Chapitre 6
page 7
Tests statistiques
fi tant la proportion observe de familles de i enfants, est approximativement une v.a. suivant la loi normale de mme moyenne et de mme variance que la variable nombre denfants.
Lexprience consiste lancer le d n fois (100, 200 ou 1000 fois par exemple). On compare ensuite les proportions fi (i = 1, , 6) observes aux probabilits thoriques pi (i = 1, , 6) de chaque face du d. Elle est gnralisable toutes les v.a. discrtes ou qualitatives : Lhypothse nulle est dfinie par la loi de probabilit suppose vraie, dont la
densit est dfinie par la suite (pi), i = 1, , k (chapitre IV, paragraphe 2.3).
Chapitre 6
page 8
Tests statistiques
prcdente, sans plus de prcision. Pour contrler lhypothse nulle, on compare les proportions ni/n observes sur un chantillon de taille n aux probabilits thoriques pi.. Exemple : on donne le nombre de faces obtenues en lanant le d 100 fois : i=1 i=2 i=3 i=4 i=5 i=6 16 15 18 14 19 18 Si le d est parfaitement quilibr, on devrait obtenir des proportions fi = ni/n de lordre de 1/6 = 0.1667. Il est vident que cette proportion de 1/6 ne sera jamais obtenue exactement, et que lcart peut provenir du hasard ou dun mauvais quilibrage du d.
On doit donc mesurer lcart entre les proportions ni/n obtenues et les probabilits pi, par une statistique, et donner une rgle, appele rgle de dcision, permettant de considrer ou non que lcart est d au hasard. Dfinition : on appelle X2 la statistique choisie pour comparer les proportions observes aux probabilits thoriques : k k 2 X = n (ni/n pi) / pi = (ni n pi)2 /n pi i=1 i=1
2
Reprenons lexemple du d : sil est bien quilibr, les proportions ni/n convergent vers les probabilits pi = 1/6, et la valeur prise par la v.a. X2 est faible. Inversement, si la valeur prise par X2 est leve, on peut penser que le d nest pas bien quilibr puisque les proportions sont diffrentes de 1/6.
Chapitre 6
page 9
Tests statistiques
Le raisonnement est exactement identique dans le cas gnral, et nous allons dterminer une valeur x2 indiquant la limite partir de laquelle nous considrons que la valeur de X2 est trop leve pour que lhypothse nulle soit vraie. Pour dterminer cette valeur x2, on utilise le risque de premire espce , qui est la probabilit de rejeter lhypothse nulle alors quelle est vraie (considrer le d pip alors quil est bien quilibr). La valeur x2 est donc telle que : P(X2>x2) = Cette valeur dpend bien entendu de la loi de probabilit de la v.a. X2 : cette loi est approximativement la loi du 2 dfinie dans le chapitre 4.
Thorme : si les termes n x pi sont tous suprieurs ou gaux 5, la loi de probabilit de la v.a. X2 est approximativement la loi du 2 de degr de libert = k l 1, o k est le nombre de valeurs possibles des observations et l le nombre de paramtres calculs laide des donnes.
regrouper les valeurs qui ne la vrifient pas avec dautres, en cumulant les probabilits correspondantes. Consquence : la valeur x2 telle que la proportion des valeurs de X2 suprieures x2 soit gale est donne dans la table statistique de la loi du 2. Dfinition : la rgion critique du test dajustement du 2 est lintervalle : RC = [x2, + [ dans lequel x2 est dtermin de faon que P(X2>x2) = .
Exemple numrique : dans le cas du d, le degr de libert est gal = 5, et, pour
= 0.05, la table statistique donne x2 = 11.07. Un d bien quilibr donnera donc rarement
(dans 5% des cas) une valeur x2 de X2 suprieure 11.07.
Chapitre 6
page 10
Tests statistiques
Figure 2.6 : densit de la loi du 2 ( = 5) et rgion critique ( = 5%) Les calculs sur le tableau prcdent sont les suivants : x2 = (16 100/6)2/(100/6) + (15 100/6)2/(100/6) + (18 100/6)2/(100/6) + (14 100/6)2/(100/6) + (19 100/6)2/(100/6) + (18 100/6)2/(100/6) x2 = 1.16 Tous les termes de la forme n x pi sont gaux 100 / 6 = 16.66 et donc suprieurs 5 : la condition de convergence est satisfaite. La valeur X2 obtenue 1.16 est infrieure 11.07 : on peut considrer que le d est bien quilibr. Plus exactement, les 100 lancers nont pas permis de montrer si le d est mal quilibr : laccus nest peut-tre pas coupable.
Dfinition: on appelle probabilit critique (en anglais p-value ) la probabilit que la valeur observe x2 de la statistique X2 soit dpasse.
Cette probabilit critique est laire de lensemble des points dabscisses suprieures la valeur observe x2 compris entre la courbe reprsentant la densit, laxe des abscisses. Lorsquelle est suprieure au risque de premire espce , cela signifie que x2 est suprieure la valeur observe x2, qui nappartient donc pas la rgion critique (figure 2.6). Dans le cas contraire, x2 appartient la rgion critique et on rejette lhypothse nulle. Exemple : le programme donne P(X2 > 1.16)= 0.94716. La probabilit critique est donc suprieure au risque de premire espce = 0.05. La table statistique nest pas indis-
Chapitre 6
page 11
Tests statistiques
pensable pour conclure puisque cela signifie que x2 est suprieur 1.16, comme on peut le voir sur la figure 2.6 : on accepte lhypothse nulle.
La procdure est la suivante : On dfinit des intervalles Ii, i = 1, , k, dont on calcule les probabilits thoriques
pi = P( XIi ). On rpartit les n observations de la v.a. X dans ces intervalles. On en dduit la densit observe gale la suite des proportions ni/n, o ni est le
nombre dobservations classes dans lintervalle Ii. On applique la procdure du paragraphe 2.1 pour comparer pi et ni/n.
Remarques : Les classes seront choisies toujours a priori, avant le calcul de X2, et de prfrence de probabilit gale.3 Le calcul des probabilits thoriques peut exiger pralablement lestimation de paramtres de la densit thorique. Deux densits diffrentes peuvent donner la mme densit par intervalle. Lhypothse nulle ne les distingue pas lune de lautre et le test donne la mme valeur de X2 et par suite , pour un mme degr de libert, la mme dcision.
Exemple : nous voulons savoir si lge est rparti suivant une loi normale dans la clientle de lhypermarch EUROMARKET. On choisit comme risque de premire espce
= 0.05.
La figure 3.6 permet de comparer la densit de la loi normale lhistogramme, mais ne donne pas dindications quantitatives et ne prend pas en compte le nombre dobservations.
Kendall et Stuart, The advanced theory of statictics, vol. 2, p. 431, 30.22 (Griffin, London, 1961).
Chapitre 6
page 12
Tests statistiques
Figure 3.6 : histogramme de lge (8 classes) et densit de la loi normale de mmes paramtres Nous effectuons ci-dessous lajustement en considrant la rpartition de lge des 50 clients dEUROMARKET en 8 classes de mme longueur. Classe [24.0, 29.5[ [29.5, 35.0[ [35.0, 40.5[ [40.5, 46.0[ [46.0, 51.5[ [51.5, 57.0[ [57.0, 62.5[ [62.5, 68.0[ Effectifs en % 12 16 34 20 8 2 4 4
1 2 3 4 5 6 7 8
Rpartition des 50 observations dans les huit classes Pour calculer les probabilits thoriques pi de chaque intervalle, il faut connatre les paramtres de la densit thorique, cest--dire la moyenne et lcart type dans le cas de la loi normale. Les valeurs calcules sur les donnes individuelles sont m = 40.06 et s = 9.341 : ce sont ces valeurs qui seront utilises pour calculer les probabilits thoriques. Une loi normale peut prendre des valeurs allant de - + . Il faut donc considrer comme premire classe ]- , 29.5[ et comme dernire classe [62.5, + [. On obtient :
page 13
Classes 1 [-, 29.5[ 2 [29.5, 35.0[ 3 [35.0, 40.5[ 4 [40.5, 46.0[ 5 [46.0, 51.5[ 6 [51.5, 57.0[ 7 [57.0, 62.5[ 8 [62.5, + [
Classes avant regroupement Ltoile * indique que dans les classes 6, 7 et 8 la condition de convergence n x pi 5 nest pas vrifie. On doit donc runir ces classes de faon vrifier cette condition : Classe probabilits condition proportions 1 0.12914 6.46 0.12 [-, 29.5[ 2 [29.5, 35.0[ 0.16488 8.24 0.16 3 [35.0, 40.5[ 0.22477 11.24 0.34 4 [40.5, 46.0[ 0.21879 10.94 0.20 5 [46.0, 51.5[ 0.15208 7.60 0.08 6 = 6+7+8 [51.5, + [ 0.11035 5.52 0.10 Classes aprs regroupement Les probabilits des classes tant proches les unes des autres, la rpartition parat satisfaisante. Le nombre de paramtres estims est gal 2 (moyenne et cart-type). Le degr de libert est donc fix =6 2- 1 = 3. On en dduit la rgion critique ( = 0.05) : RC = [7.815, + [ Le calcul de X2 donne : x2 = 50 x [(0.12 0.12914)2 + (0.16 0.16488)2 + (0.34 0.22477)2 + (0.20 0.21879)2 + (0.08 0.15208)2 + (0.10 0.11035)2 ] Soit : x2 = 4.8305 La valeur observe x2 de X2 nappartient pas la rgion critique RC. On accepte donc lhypothse que lge est rparti dans la clientle totale suivant une loi normale. Cela signifie plus prcisment que les observations effectues ne remettent pas en cause cette hypothse. La probabilit critique de la valeur observe est suprieure au risque choisi : P(X2> 4.8305 )= 0.18289 > 0.05 La dcision est videmment la mme.
page 14
Lexprience consiste tirer au hasard un chantillon dunits statistiques et en comparer la rpartition la rpartition thorique dduite de lindpendance suppose des variables.
Dfinition : on appelle rpartition thorique des units statistiques dun chantillon suivant deux critres la rpartition que lon aurait si ces deux critres taient indpendants.
La procdure consiste comparer ces rpartitions : si la rpartition thorique et la rpartition observe sont voisines lune de lautre,
on peut considrer que la rpartition observe ne remet pas en cause lindpendance des v.a. X et Y considres. si les deux rpartitions prsentent de grandes diffrences, cest que
Le calcul de la rpartition thorique dcoule de lhypothse dindpendance : les rponses donnes chaque question X ou Y sont rparties thoriquement de la mme faon quelle que soit la rponse donne la seconde. Leffectif thorique ni,j est donn par la formule :
page 15
ni,j = n pi. p.j = ni. n.j / n dans laquelle les termes ni., n.j sont les effectifs marginaux calculs sur le tableau de donnes et pi. et p.j les proportions marginales. Exemple : nous tudions le tableau donnant la rpartition de 200 tudiants suivant le sexe et la couleur des cheveux, en supposant quils ont t tirs au hasard dans lensemble des tudiants de luniversit. Le tableau est le suivant : Cheveux blonds (j = 1) 25 62 n.1 = 87 Cheveux bruns (j = 2) 51 31 n.2 =82 Autre couleur (j = 3) 17 14 n.3 = 31 Effectifs marginaux n1. = 93 n2. = 107 200
Sil y a indpendance entre le sexe et la couleur des cheveux, la rpartition thorique des tudiants est la suivante : Masculin fminin Cheveux blonds 40.46 46.54 Cheveux bruns 38.13 43.87 Autre couleur 14.42 16.58
Par exemple, leffectif thorique dtudiantes au cheveux blonds est 107 x 87 / 200 = 46.54.
Lhypothse dindpendance est contestable lorsque les effectifs observs ni,j sont trs diffrents des effectifs thoriques ni,j, donc lorsque X prend de grandes valeurs. Il reste dcider partir de quelle valeur X peut tre considr comme grand. Pour cela, on utilise la loi de X2 sous lhypothse dindpendance qui est la loi du 2 de degr de libert : = (p - 1) ( q - 1 )
page 16
Ce degr de libert est calcul comme le prcdent, par la formule = k l 1 : le nombre de valeurs possibles est k = p x q les paramtres estims sont les lois de probabilits marginales : p 1 termes pour la loi de X, q 1 pour la loi de Y puisque la somme des probabilits marginales est gale 1. On a donc l = (p 1) + (q 1) Le degr de libert est gal : p x q (p 1) (q 1) - 1 = (p - 1) ( q - 1 )
Dfinition : la rgion critique du test dindpendance du 2 est lintervalle [ , + [, tant le nombre auquel une proportion de X est suprieure si lhypothse dindpendance est vraie.
Les observations remettent donc en cause lhypothse dindpendance si X prend une valeur suprieure x ; on rejette alors lhypothse dindpendance. Supposons maintenant que nous ayons rejet lhypothse dindpendance. Pour expliquer la liaison entre les variables, on examine lobservation x de la statistique X2, et lon recherche, parmi les termes dont il est la somme, ceux qui sont les plus grands : les indices i et j correspondants indiquent les modalits des questions X et Y dont les effectifs thoriques et observs sont les plus diffrents. Ce sont ces modalits qui provoquent la liaison entre les deux riables.
Exemple : chaque terme du tableau ci-dessous indique la valeur du terme correspondant dans la somme donnant le X appel parfois contribution au x : 5.907 = (25-40.46) / 40.46 4.344 = (51-38.13) /38.13 0.462 = (17-14.42)/14.42 5.136 = (62-46.54)/46.54 3.776 = (31-43.87)/43.87 0.401 = (14-16.58)/16.58
La valeur x2 de X est la somme des termes du tableau. On obtient : x2 = 20.02 Une liaison entre la couleur des cheveux et le sexe ntant pas du tout invraisemblable, nous choisissons un risque raisonnable gal 5%.
page 17
Figure 4.6 : densit de la loi du 2 ( = 2) Le degr de libert est gal (2-1) x (3-1), soit 2, et la rgion critique est dfinie par [5.991, + [ (on notera la diffrence entre les densits du 2 de degr de libert 2 et 5, cf. figure 2.6 et 4.6). La valeur x2 de X appartient la rgion critique. On rejette donc lhypothse dindpendance. Les valeurs les plus grandes du tableau indiquent que la liaison est due la couleur brune ou blonde et le sexe des tudiants. La modalit autre couleur nintervient pas.
page 18
On se limite en pratique vrifier que les rpartitions de lge et du revenu ne sont pas trop diffrentes de la loi normale, par un test dajustement du 2 ou ltude des coefficients dasymtrie et daplatissement que nous avons explique dans le paragraphe 1.3. Dans le cas contraire, il est possible de transformer les donnes, en passant par exemple aux logarithmes. On suppose a priori quil nexiste pas de liaison entre les sries : les variables sont supposes indpendantes . Le coefficient de corrlation exact et inconnu, que lon appelle coefficient de corrlation thorique (not ), est alors nul. Nous choisissons comme hypothse alternative que le coefficient de corrlation thorique est diffrent de 0 (on pourrait choisir strictement positif, ou strictement ngatif). Hypothse nulle H0 : = 0. Hypothse alternative H1 : 0.
Une valeur approche du coefficient de corrlation thorique est donne par la valeur observe r de son estimateur empirique. La dmarche consistant dfinir cet estimateur est strictement la mme que celle qui a abouti la dfinition des estimateurs empiriques de la moyenne et de la variance. Dfinition : lestimateur empirique du coefficient de corrlation thorique est la v.a. note R dont la valeur observe sur un chantillon de couples est le coefficient de corrlation observ r.
Le coefficient de corrlation observ na videmment na aucune raison dtre exactement gal 0 mme si lindpendance des v.a. est vraie. Deux cas peuvent se produire : le coefficient de corrlation r est proche de 0. Les donnes ne contredisent pas lhypothse dindpendance : on accepte lhypothse dindpendance. le coefficient de corrlation r est trs diffrent de 0. Il est alors peu vraisemblable que la valeur thorique soit nulle : on rejette lhypothse dindpendance.
page 19
R2 F= (n-2)
___________
(1 R2) La loi thorique de la v.a. F est la loi de Fisher Snedecor que nous avons dfinie dans le chapitre 4, et qui dpend de deux degrs de libert, ici 1 = 1, 2 = n - 2. Les valeurs utiles sont donnes dans la table statistique appele table du F. Pour n = 50, on trouve 2 = 48 et on trouve dans la table f = 4.04. Un calcul simple donne la valeur du coefficient de corrlation correspondant : 2 On trouve : 2 = 0.078 frquemment par les programmes. = 0.28. = f (n 2) + f
Exemple : on sait que la liaison entre lge et le revenu ne vrifie pas les proprits ncessaires pour que lon puisse effectuer un test de Fisher sur le coefficient de corrlation : la liaison nest pas linaire et la rpartition du revenu ne ressemble pas la loi normale (cf. figure 2 du chapitre 3). Nous allons limiter notre tude aux clients en activit, et liminer des donnes les clients retraits 25, 31 et 43 : il reste 47 units statistiques. En ce qui concerne les revenus, nous en considrons ici les logarithmes de faon obtenir une distribution un peu plus symtrique. Nous admettrons la normalit des lois de probabilit aprs llimination de ces trois u.s.. Lhypothse nulle considre est la nullit du coefficient de corrlation thorique entre lge et le revenu. On choisit donc un risque de premire espce gal 0.05. On en dduit la rgion critique sur la statistique F : RC = [4.05, + [. Le coefficient de corrlation entre lge et le logarithme des revenus calcul sur les 47 observations est gal r = 0.6846, ce qui donne r2 = 0.469 et f = 39.746. On constate videmment que f appartient cette rgion critique. La liaison entre lge et le revenu constate sur lchantillon observ ne peut donc pas tre due au hasard : elle
page 20
existe trs vraisemblablement dans lensemble des clients de lhypermarch et on peut considrer que est diffrent de 0.
Exemple : lobjectif fix par les responsables nationaux de lenseigne Euromarket est un montant moyen des achats gal 420F. Le directeur commercial sinquite du montant moyen observ (316.95F) dans son hypermarch et veut donc vrifier si cette valeur montre effectivement une diffrence. Pour un niveau de confiance de 95%, lintervalle de confiance est le suivant : [ 257.173, 376.717 ] On rejette donc lhypothse nulle avec un risque de premire espce de 5% et le montant moyen des achats des clients dEUROMARKET peut tre considr comme nettement infrieur la valeur fixe 420F. Lobjectif nest pas atteint.
page 21
Une autre faon (quivalente) deffectuer le test est de dterminer la rgion critique. On sait que, si lhypothse nulle est vraie, la v.a. T ci-dessous suit la loi de Student de degr de libert n-1 (cf. chapitre 5): T = M 0 __________ S/(n-1) Lorsque la v.a. T prend une trs grande valeur, la moyenne est vraisemblablement diffrente de 0 : on rejette lhypothse dindpendance. La rgion critique est donc de la forme : ]-, 0 - t s/(n - 1)1/2[ ] 0 + t s/(n - 1) 1/2 , + [ les bornes de la rgion critique t tant dfinies par la relation : P(T> t ] = Le calcul prcdent demande que lon connaisse la valeur vraie de la moyenne, ce qui nest pas toujours le cas. Par exemple, la moyenne des achats dun autre hypermarch (410F) peut tre connue elle aussi par sondage auprs dune partie de la clientle : le test prcdent nest pas applicable pour comparer ces deux moyennes. On considre maintenant deux v.a. X1 et X2, observes sur deux chantillons de taille n1 et n2. Les hypothses sont alors les suivantes, en notant 1 et 2 les moyennes thoriques des achats : H0 : 1 = 2 moyennes 1 et 2 . Le calcul est plus compliqu. On note M1 et S12 les estimateurs empiriques de la moyenne et la variance dans le premier chantillon de taille n1, M2 et S22 dans le second chantillon de taille n2. Le problme est de comparer M1 et M2. On calcule pour cela la valeur u de la statistique U : M1 - M2 U = [S12/(n1-1) + S22/(n2-1)]1/2 Une grande valeur absolue de la v.a. U signifie videmment que M1 et M2 ont pris des valeurs trs diffrentes : on rejettera lhypothse H0 dgalit si la valeur absolue uest trop H1 : 1 2
page 22
grande pour que lgalit des moyennes soit vraisemblable. Lorsque les moyennes thoriques sont gales et que la taille des chantillons est suffisante, on peut considrer que U suit approximativement la loi normale centre rduite. On en dduit la valeur u en fonction du risque de premire espce choisi , de faon que : P(U> u ) = Dfinition : la rgion critique de la statistique U du test de comparaison de moyennes est de la forme : RC = ] - , -u] U [u, + [ u tant calcul de faon que : P(U> u ) = la v.a. U suivant la loi normale centre rduite.
Exemple : la moyenne des achats de lautre hypermarch (410F) a t calcule sur 100 clients. La variance des achats calcule sur ces 100 clients est gale 35401.01. On en dduit : 316.95 410 T =
__________________________________________
= 2.65
[ 42902.47 / 49 + 35401.01 / 99 ]
1/2
Pour un risque de premire espce = 0.05, on a u = 1.96. La valeur observe t appartient la rgion critique ( t > 1.96) et on rejette donc lhypothse nulle : la diffrence entre les deux moyennes nest vraisemblablement pas due uniquement au hasard. Rptons que lutilisation de ce test est justifie lorsque les variables suivent la loi normale et que leurs variances thoriques peuvent tre considres comme gales (cf. cidessous). Cette dernire condition doit tre vrifie surtout lorsque les chantillons sont de faibles effectifs.
page 23
La question pose est la suivante : les observations remettent-elles en cause lgalit de la variance thorique 2 la valeur spcifie 02 ? Rgle de dcision : pour un risque de premire espce , On accepte lhypothse nulle si la valeur 02 appartient lintervalle de confiance de niveau de confiance 1 - ; On rejette lhypothse nulle sinon.
tablissons la rgion critique du test. On rejette lhypothse nulle lorsque la valeur observe de la variance empirique S2 est trs diffrente de la valeur 02, donc lorsque la v.a. X2 = n S2/02 prend une valeur anormalement petite (infrieure 2) ou anormalement grande (suprieure 12). Les bornes de la rgion critique 2 et 12 sont dfinies par la relation : P(X2 < 2 ) = /2 P(X2 > 12 ) = /2 la statistique X2 suivant la loi du 2 de degr de libert n-1. La rgion critique est donc de la forme : RC = [0, 2] [12, + [
Exemple : nous supposons que la loi de probabilit de la v.a. ge est la loi normale (en liminant les trois clients retraits) et testons lhypothse H0 : 2 =02 = 50. La valeur observe sur les 47 clients est s2 = 47.86. On en dduit : X2 = 47 x 47.86 / 50 = 44.99 Nous choisissons comme risque de premire espce = 0.05. La table donne directement pour le degr de libert = 46 :
page 24
2 = 29.160
De la mme faon que nous avons compar deux moyennes entre elles, nous allons comparer deux variances. On considre maintenant deux v.a. X1 et X2, observes sur deux chantillons de taille n1 et n2. On suppose que ces deux v.a. suivent la loi normale et sont indpendantes. Il sagit de comparer leurs variances 12 et 22. S12 et S22 tant les estimateurs empiriques des variances 12 et 22, on sait que les v.a. n1 S12 / 12 et n2 S22/22 suivent une loi du 2 de degr de libert n1-1 et n2-1. Les mathmatiques nous donnent la loi du rapport :
Thorme : la loi de la v.a. F ci-dessous est la loi de Fisher de degrs de libert n1-1 et n2-1. F = n2 - 1 _____________ x _______ n2 S22 / 22 n1 - 1 n1 S12 / 12
Considrons maintenant les hypothses suivantes : H0 : 12= 22 = 2 Si lhypothse nulle est vraie, on a : F = n1 S12 n2 1 _________ x ________ n2 S22 n1 - 1 = n1 S12 _________ n1 - 1 / n2 S22 ________ n2 1 H1 : 12 22
et F devrait tre proche de 1 puisque le numrateur et le dnominateur du rapport ci-dessus sont des estimateurs sans biais de la mme variance 2. Si la v. a. F prend une trs grande valeur ou est trs proche de 0, on rejette lhypothse nulle. La rgion critique est de la forme :
page 25
RC = ]0, f[ ] f1-, + [ les bornes f et f1- tant choisies dans la table de Ficher Snedecor de faon que : P(F< f) = /2 P(F> f1-) = /2
Exemple : Pour contrler lgalit des moyennes des achats des deux hypermarchs, nous avons suppos que les variances thoriques taient gales. Nous le vrifions ci-dessous, en supposant que les lois sont normales . Les variances observes des achats sont gale : s12 = 42902.47 (n1 = 50) On en dduit : 50 x 42902.47 / 49 f =
_______________________
= 1.2243
100 x35401.01 / 99 Nous choisissons comme risque de premire espce = 0.02. Les degrs de libert sont 1 = 49 et 2 = 99.La table donne directement f1- = 1.73. Pour calculer fa, il faut considrer la v.a. 1/F , qui suit la loi de Fisher de degrs de libert 1 = 99 et 2 = 49. On a : P(1/F>1/fa) = 0.01 1/f = 1.82 f = 0.549 La rgion critique est donc : RC = ]0, 0.549 [ ] 1.73, + [. La valeur observe nappartient pas cette rgion critique et on accepte lhypothse dgalit des variances.
La puissance est lie au risque de seconde espce de faon vidente : =1 puisque le risque de seconde espce est la probabilit daccepter lhypothse H0 quand elle est fausse. Dans les tests prsents prcdemment, lhypothse alternative nest pas prcise, et, par suite, on ne peut dterminer analytiquement la loi de probabilit de la v.a. considre en
page 26
supposant lhypothse alternative vraie. On ne peut donc pas valuer analytiquement la puissance. Le test sur la variance donne une occasion de prsenter simplement la notion de fonction puissance. Pour dfinir la puissance du test, nous allons modifier les hypothses et fixer une valeur 12 la variance dans le cas de lhypothse alternative. Les hypothses sont alors les suivantes : H0 : 2 = 02 H1 : 2 = 12
Nous allons pouvoir maintenant calculer la puissance du test, ou, ce qui est quivalent, le risque de seconde espce. On accepte lhypothse nulle lorsque la v.a. n S2/02 nappartient pas la rgion critique. Le risque est donc la probabilit de lvnement ci-dessous : n S2 = P ( 2 < < 12 ) 02 2 lorsque la variance de la v.a. X est gale 1 . Lorsque lhypothse alternative est vraie, on ne connat pas la loi de la v.a. n S2 / 02 : cest la v.a. n S2 / 12 qui suit la loi du 2 de degr de libert gal n 1. Nous avons : n S2 n S2 = 02 12 On en dduit le risque de seconde espce : = P ( 2 < n S2 02 < 12 )
x
12 02
= P
n S2 12 < < 02 12 n S2 12
12 )
2 02 = P ( < 12
12 02 < ) 12
On peut calculer cette probabilit lorsque lhypothse alternative est vraie puisque la loi de la v.a. n S2 / 12 est connue : cest la loi du 2 de degr de libert n 1. On en dduit videmment la puissance = 1 .
page 27
La puissance dpend de deux paramtres : la variance 12 choisie pour caractriser lhypothse alternative, et le risque de premire espce qui intervient dans la rgion critique. On suppose en gnral le second fix, et on dfinit la fonction puissance comme la fonction qui associe 12 la puissance du test. Il y a un point particulier : pour 12 = 02, la fonction puissance est la probabilit de rejeter lgalit 2 = 02 alors quelle est vraie puisque 12 = 02. On retrouve donc le risque de premire espce .
Exemple : nous donnons ci-dessous la fonction puissance du test sur la variance de lge. La valeur teste est fixe 2 = 50, le risque de premire espce 0.05, et le nombre dobservations est gal 47 (cf. exemple prcdent). Les valeurs sont donnes dans le tableau ci-dessous. La lecture de ce tableau donne le renseignement suivant : la probabilit de rejeter lhypothse 02 = 50 lorsque la vraie valeur est 33.333 est gale 0.432 pour un risque de premire espce gal 0.05.
Figure 5.6 : Fonction puissance (02 = 50, = 46, = 0.05) Rang variance vraie puissance Rang variance vraie puissance 1 20.0000 0.993 11 64.4444 0.263 2 24.4444 0.915 12 68.8889 0.379 3 28.8889 0.699 13 73.3333 0.497
page 28
4 5 6 7 8 9 10
14 15 16 17 18 19
CONCLUSION
Les tests statistiques que nous avons prsents aboutissent une rgle de dcision qui mrite toujours dtre examine de faon critique. Nous navons prsent que les mthodes les plus simples, en tentant de montrer les difficults de raisonnement dues une absence de rflexion pralable sur la question pose. Une approche beaucoup plus gnrale des tests a t propose par Neyman et Pearson. Fonde sur la notion de vraisemblance et sur les proprits de la fonction puissance : elle sort du cadre de cet ouvrage, comme la statistique bayesienne laquelle nous avons fait allusion.
page 29
TABLE DES MATIRES 1. GNRALITS SUR LES TESTS STATISTIQUES............................................... 1 1.1 Notion de test statistique. ..................................................................................... 1 1.2 Rgle de dcision.................................................................................................. 3 1.3 Tests lmentaires. ............................................................................................... 5 2. TEST DAJUSTEMENT DU DE PEARSON....................................................... 7 2.1 Cas dune variable discrte................................................................................... 7 2.2 Cas dune variable continue. .............................................................................. 11 3. TEST DINDPENDANCE DU DE PEARSON................................................ 14 3.1 Tableau des effectifs thoriques. ........................................................................ 14 3.2 Test dindpendance du de Pearson. .............................................................. 15 4. TEST SUR LE COEFFICIENT DE CORRLATION LINAIRE. ....................... 17 4.1 Hypothses et erreurs. ........................................................................................ 17 4.2 Rgion critique. .................................................................................................. 18 5. TESTS SUR LA MOYENNE ET LA VARIANCE. ............................................... 20 5.1 Tests sur la moyenne. ......................................................................................... 20 5.2 Tests sur la variance. .......................................................................................... 23 5.3 Introduction la fonction puissance................................................................... 25 CONCLUSION ............................................................................................................ 28