Les méthodes quantitatives explicatives de traitement des données 1. Les tests
Les méthodes quantitatives explicatives de traitement des données 1. Les tests non paramétriques « Tests non paramétriques » dépend beaucoup moins des paramètres de la population et de la taille de l'échantillon. De plus, ils s'appliquent à des variables nominales ou ordinales et à un ou plusieurs échantillons, ceux-ci pouvant être indépendants ou appariés. Ils s'appuient sur des tests d'hypothèse, dont l'hypothèse nulle concerne l'égalité des distributions ou l'absence de différence, et l'hypothèse inverse permet de déduire une inégalité des distributions ou l'existence de différence(s) entre échantillons. Ceci en fait une boîte à outils très utile lorsqu'on ne connaît pas la distribution ni les paramètres de la population étudiée et/ou que l'on souhaite travailler sur des échantillons de petite taille. 1.1. Les tests non paramétriques pour variables nominales Le test du Chi-deux (parfois orthographié Khi-deux ou y) est employé lorsque l'on teste l'adéquation de la distribution d'une variable nominale à une distribution connue (1 échantillon) ou attendue, ou bien l'association entre deux variables nominales extraites de deux échantillons indépendants. Le test exact de Fisher. Dans l'hypothèse où l'on cherche à tester l'association entre deux variables nominales, chacune possédant deux modalités, le test du Chi-deux peut continuer à s'appliquer. Cependant, lorsqu'on dispose d'un faible nombre de données (20 observations ou moins), et collectées auprès de deux échantillons indépendants, le test du Chi-deux ne peut s'utiliser. Dans ce cas, le recours au test exact de Fisher est nécessaire. Ce test présente, en outre, l'intérêt de calculer la probabilité exacte (sans passer par les tables statistiques) d'observer une répartition des quatre fréquences du tableau croisé Le test de McNemar est utilisé pour mesurer les changements induits entre deux périodes (avant- après) par un traitement (rendez-vous, visite, etc.) et sur un même groupe de personnes. 1.2. Les tests non paramétriques pour variables ordinales Le test de Kolmogorov-Smirnov teste l'adéquation de la distribution d'une variable ordinale à une distribution connue ou attendue (1 échantillon) ou bien l'adéquation de deux distributions d'une même variable extraites de deux échantillons indépendants. Le test de la médiane permet de tester si deux échantillons indépendants ont des distributions différentes ou encore qu'ils ont été tirés de populations qui ont une même médiane. Le test U de Mann-Whitney peut être utilisé pour tester si deux groupes indépendants ont été tirés d'une même population. Ce test très puissant est l'alternative la plus utile au test t lorsque les hypothèses du test t ne sont pas réunies. 1.3. Les tests non paramétriques dans le cas de k échantillons Le test de Kruskal et Wallis est une extension du test de Mann-Whitney à k échantillons indépendants. Il est aussi appelé test des rangs de Kruskall et Wallis. Le test du Chi-deux est aussi employé lorsque l'on teste l'association k variables nominales extraites d'échantillons indépendants. Tests adaptés aux échantillons appariés Le test de McNemar peut être étendu à plus de deux échantillons appariés. Cette extension est appelée test Q de Cochran. Le test Q de Cochran permet de tester l'hypothèse d'une différence de fréquences entre k échantillons appariés. Le test de Friedman est une extension du test de Wilcoxon à k échantillons appariés. Il permet de tester l'hypothèse nulle selon laquelle les k échantillons sont tirés d'une même population. 2. L'analyse de variance univariée (ANOVA) L'analyse de variance, couramment désignée par ANOVA (pour ANalysis OfVAriancé), permet au chercheur de tester l'impact d'une ou plusieurs variables, mesurées sur une échelle nominale, sur une variable mesurée sur une échelle d'intervalle ou de rapport. Outil privilégié du traitement des données d'expérimentation (impact des traitements expérimentaux sur une variable à expliquer), elle peut plus largement être utilisée pour identifier des différences de moyennes entre différents groupes d'observations. 2.1. Vérification des conditions d'application Outre les niveaux de mesure des variables (explicatives nominales et à expliquer métrique), deux conditions doivent être remplies par les données afin d'effectuer une analyse de variance dans de bonnes conditions. La première est la condition d'homoscédasticité (c'est-à-dire d'homogénéité des variances) entre les groupes définis par les facteurs. Ainsi, l'étude de l'impact d'un facteur (la région par exemple) à k modalités (Europe/Amérique du Nord/Asie) amène à distinguer k groupes (Européens/Nord-Américains/Asiatiques) au sein de l'échantillon, à des fins de comparaison sur la variable à expliquer (la satisfaction au travail par exemple). Il est nécessaire que la variance de la variable à expliquer soit homogène à travers les k groupes, sans quoi les résultats peuvent s'en trouver artificiellement affectés1. Plusieurs tests permettent de vérifier le respect de cette condition. 2.2. Décomposition de la variance Les observations contenues dans la base de données présentent une variance globale quant à la variable à expliquer. La variance factorielle, aussi appelée carré moyen factoriel (CMF) est calculée en cumulant les carrés des écarts pondérés entre les moyennes des différents groupes et la moyenne de l'échantillon complet (SCEP pour somme des carrés des écarts factoriels), puis en divisant par le degré de liberté correspondant (k - 1, où k est le nombre de groupes, soit le nombre de modalités du facteur). La variance résiduelle, ou carré moyen résiduel (CMR) est, quant à elle, le cumul des carrés des écarts entre chaque observation et la moyenne de son groupe (SCER pour somme des carrés des écarts résiduels), rapporté à son degré de liberté (N- k, où N est la taille de l'échantillon 2.3. Présentation des résultats et interprétation statistique (test de Fisher) Le rapport entre la variance factorielle et la variance résiduelle (CMp/CMR) suit une distribution de Fisher. Celle-ci est comparée à une valeur théorique de cette distribution pour conclure à l'existence ou non d'un effet significatif du facteur. Plus simplement, les logiciels retournent une significativité associée au test. Lorsque celle-ci est inférieure au seuil a fixé par le chercheur (par exemple, a =0,05) l'hypothèse d'absence d'effet du facteur peut être rejeté. Dans le cas contraire, le chercheur doit conclure à l'absence d'effet du facteur étudié sur la variable à expliquer. 2.4. Interprétation pratique Si le test de Fisher amène à conclure à l'existence d'un effet significatif du facteur, deux questions peuvent être posées pour parfaire l'interprétation de l'analyse et lui donner une portée pratique. La première est celle de la signification pratique : le test indique un effet du facteur, mais quelle est l'importance des facteurs manipulés dans les variations de la variable à expliquer ? L'effet, pour significatif qu'il soit, est-il majeur, important ou marginal ? L'estimateur le plus simple de l'importance de l'effet est r/2, qui est le rapport entre la somme des carrés des écarts factoriels et la somme des carrés des écarts totaux (SCEF/SCET) La seconde question est celle des effets spécifiques des différentes modalités du facteur. Si celui-ci comprend deux modalités (k = 2) et que l'analyse de variance indique l'existence d'un effet significatif, l'interprétation est relativement directe. 2.5. L'ANOVA à plusieurs facteurs Les problèmes étudiés en gestion sont le plus souvent complexes et ne se satisfont que peu de modèles explicatifs à un facteur. Afin d'améliorer l'explication et la signification pratique obtenue, il est donc fréquent d'étudier l'effet simultané de plusieurs facteurs. Par exemple, la satisfaction au travail peut, comme nous l'avons vu, être étudiée sous l'angle de la région d'appartenance, mais aussi de la catégorie professionnelle (ouvrier/ employé/cadre). La démarche, similaire à la précédente, conduit alors à calculer une variance par facteur, de faire un test spécifique à chaque facteur ainsi que d'en évaluer la signification pratique. 3. L'analyse de variance multivariée (MANOVA) L'analyse de variance multivariée (MANOVA pour Multivariate Analysis Of Variance) est une extension de l'ANOVA qui permet, comme son nom l'indique, de traiter simultanément plusieurs variables à expliquer. Celles-ci sont métriques et le(s) facteur(s) explicatifs sont nominaux. 3.1. Vérification des conditions d'application Les conditions d'application sont pour partie une transposition de celles de l'analyse de variance (ANOVA) au plan multivarié. La première est la condition d'homoscédasticité. L'analyse de variance multivariée (MANOVA) portant sur un ensemble de variables àexpliquer, il convient de vérifier Fhorrîogénéité des matrices de variance-covariance de celles-ci à travers les groupes La deuxième est la condition de normalité multivariée. Plusieurs méthodes sont possibles pour la vérifier selon le logiciel utilisé (méthode de Van der Waerden sous SPSS, coefficient de Mardia sous Statistica, etc.). L'analyse de variance multivariée est réputée robuste à la violation de cette hypothèse lorsque les groupes ont des effectifs semblables La troisième est la condition de linéarité entre les variables à expliquer. Un examen graphique, par la construction d'un nuage de points par exemple, permet d'apprécier le respect ou non de cette condition. 3.2. Interprétation statistique La décomposition de la variance se fait au plan matriciel selon un principe analogue à celui de l'ANOVA. Plusieurs tests permettent de conclure à l'existence de différences entre les vecteurs de moyennes des groupes : trace de Pillai, lambda de Wilks6, etc. Là encore, c'est la significativité qui leur est associée qui permet de rejeter (< a) ou d'accepter (> a) l'hypothèse d'égalité des vecteurs de moyennes des groupes. Dans le cas où plusieurs facteurs sont étudiés, un test est réalisé pour chacun d'entre eux, ainsi que pour leurs interactions. 3.3. Interprétation pratique uploads/Management/ les-methodes-quantitatives-explicatives-de-traitement-des-donnees.pdf
Documents similaires










-
37
-
0
-
0
Licence et utilisation
Gratuit pour un usage personnel Attribution requise- Détails
- Publié le Jui 19, 2021
- Catégorie Management
- Langue French
- Taille du fichier 0.0681MB